Pytorch - vstack

Pytorch - vstack
Discuteremo del Vstack () in questo tutorial di Pytorch.

Pytorch è un framework open source disponibile con un linguaggio di programmazione Python. Il tensore è un array multidimensionale che viene utilizzato per archiviare i dati. Per usare un tensore, dobbiamo importare il modulo Torch. Per creare un tensore, il metodo utilizzato è tensore ().

Sintassi:

torcia.tensore (dati)

Dove i dati sono un array multidimensionale.

Torcia.vstack ()

Torcia.vstack () si unisce a due o più tensori in verticale.

Sintassi:

torcia.vstack (tensor_object1, tensor_object2,…)

Parametro:

Ci vogliono due o più tensori.

Esempio 1:

In questo esempio, creeremo due tensori monodimensionali e ci uniremo verticalmente usando la torcia.funzione vstack ().

Modulo Torcia #IMport
Torcia di importazione
#Crea 2 tensori
data1 = torcia.Tensor ([10,20,40,50])
data2 = torcia.tensore ([2,3,4,5])
#Schermo
Stampa ("Tensori reali:")
Stampa (Data1)
Stampa (data2)
#Join due tensori
Print ("Uned Tensor:", Torch.vstack ((data1, data2)))

Produzione:

Tensori reali:
Tensor ([10, 20, 40, 50])
tensore ([2, 3, 4, 5])
TENSOR NETTO UNIMI: TENSOR ([[10, 20, 40, 50],
[2, 3, 4, 5]])

Due tensori sono uniti verticalmente.

Esempio 2:

In questo esempio, creeremo cinque tensori monodimensionali e ci uniremo verticalmente usando la torcia.funzione vstack ().

Modulo Torcia #IMport
Torcia di importazione
#Crea 5 tensori
data1 = torcia.Tensor ([10,20,40,50])
data2 = torcia.tensore ([2,3,4,5])
data3 = torcia.tensore ([12,45,67,89])
data4 = torcia.tensore ([100,32,45,67])
data5 = torcia.tensore ([120.456,1,1])
#Schermo
Stampa ("Tensori reali:")
Stampa (Data1)
Stampa (data2)
Stampa (data3)
Stampa (data4)
Stampa (data5)
#Join cinque tensori
Print ("Uned Tensor:", Torch.vstack ((data1, data2, data3, data4, data5)))

Produzione:

Tensori reali:
Tensor ([10, 20, 40, 50])
tensore ([2, 3, 4, 5])
tensore ([12, 45, 67, 89])
tensore ([100, 32, 45, 67])
tensore ([120, 456, 1, 1])
TENSOR NETTO UNIMI: TENSOR ([[10, 20, 40, 50],
[2, 3, 4, 5],
[12, 45, 67, 89],
[100, 32, 45, 67],
[120, 456, 1, 1]])

Cinque tensori sono uniti verticalmente.

Esempio 3:

In questo esempio, creeremo cinque tensori bidimensionali e ci uniremo verticalmente usando la torcia.funzione vstack ().

Modulo Torcia #IMport
Torcia di importazione
#Crea 5 tensori con 2 dimensioni ciascuno
data1 = torcia.tensore ([[10,20,40,50], [1,2,3,4]])
data2 = torcia.tensore ([[2,3,4,5], [20,70,89,0]])
data3 = torcia.tensore ([[12,4,5,6], [56,34,56,787]])
data4 = torcia.tensore ([[100,1,2,3], [67,87,6,78]])
data5 = torcia.Tensor ([[120,33,56,78], [45,56,78,6]])
#Schermo
Stampa ("Tensori reali:")
Stampa (Data1)
Stampa (data2)
Stampa (data3)
Stampa (data4)
Stampa (data5)
#Join cinque tensori
Print ("Uned Tensor:", Torch.vstack ((data1, data2, data3, data4, data5)))

Produzione:

Tensori reali:
Tensor ([[10, 20, 40, 50],
[1, 2, 3, 4]])
tensore ([[2, 3, 4, 5],
[20, 70, 89, 0]])
tensore ([[12, 4, 5, 6],
[56, 34, 56, 787]])
tensore ([[100, 1, 2, 3],
[67, 87, 6, 78]])
tensore ([[120, 33, 56, 78],
[45, 56, 78, 6]])
TENSOR NETTO UNIMI: TENSOR ([[10, 20, 40, 50],
[1, 2, 3, 4],
[2, 3, 4, 5],
[20, 70, 89, 0],
[12, 4, 5, 6],
[56, 34, 56, 787],
[100, 1, 2, 3],
[67, 87, 6, 78],
[120, 33, 56, 78],
[45, 56, 78, 6]])

Cinque tensori sono uniti verticalmente.

Lavorare con la CPU

Se si desidera eseguire una funzione Vstack () sulla CPU, dobbiamo creare un tensore con una funzione CPU (). Questo funzionerà su una macchina CPU.

Quando creiamo un tensore, questa volta, possiamo usare la funzione CPU ().

Sintassi:

torcia.tensore (dati).processore()

Esempio 1:

In questo esempio, creeremo due tensori monodimensionali sulla CPU e ci uniremo in verticale usando la torcia.funzione vstack ().

Modulo Torcia #IMport
Torcia di importazione
#Crea 2 tensori
data1 = torcia.Tensor ([10,20,40,50]).processore()
data2 = torcia.tensore ([2,3,4,5]).processore()
#Schermo
Stampa ("Tensori reali:")
Stampa (Data1)
Stampa (data2)
#Join due tensori
Print ("Uned Tensor:", Torch.vstack ((data1, data2)))

Produzione:

Tensori reali:
Tensor ([10, 20, 40, 50])
tensore ([2, 3, 4, 5])
TENSOR NETTO UNIMI: TENSOR ([[10, 20, 40, 50],
[2, 3, 4, 5]])

Due tensori sono uniti verticalmente.

Esempio 2:

In questo esempio, creeremo cinque tensori monodimensionali sulla CPU e ci uniremo verticalmente usando la torcia.funzione vstack ().

Modulo Torcia #IMport
Torcia di importazione
#Crea 5 tensori
data1 = torcia.Tensor ([10,20,40,50]).processore()
data2 = torcia.tensore ([2,3,4,5]).processore()
data3 = torcia.tensore ([12,45,67,89]).processore()
data4 = torcia.tensore ([100,32,45,67]).processore()
data5 = torcia.tensore ([120.456,1,1]).processore()
#Schermo
Stampa ("Tensori reali:")
Stampa (Data1)
Stampa (data2)
Stampa (data3)
Stampa (data4)
Stampa (data5)
#Join cinque tensori
Print ("Uned Tensor:", Torch.vstack ((data1, data2, data3, data4, data5)))

Produzione:

Tensori reali:
Tensor ([10, 20, 40, 50])
tensore ([2, 3, 4, 5])
tensore ([12, 45, 67, 89])
tensore ([100, 32, 45, 67])
tensore ([120, 456, 1, 1])
TENSOR NETTO UNIMI: TENSOR ([[10, 20, 40, 50],
[2, 3, 4, 5],
[12, 45, 67, 89],
[100, 32, 45, 67],
[120, 456, 1, 1]])

Cinque tensori sono uniti verticalmente.

Esempio 3:

In questo esempio, creeremo cinque tensori bidimensionali sulla CPU e ci uniremo in verticale usando la torcia.funzione vstack ().

Modulo Torcia #IMport
Torcia di importazione
#Crea 5 tensori con 2 dimensioni ciascuno
data1 = torcia.tensore ([[10,20,40,50], [1,2,3,4]]).processore()
data2 = torcia.tensore ([[2,3,4,5], [20,70,89,0]]).processore()
data3 = torcia.tensore ([[12,4,5,6], [56,34,56,787]]).processore()
data4 = torcia.tensore ([[100,1,2,3], [67,87,6,78]]).processore()
data5 = torcia.Tensor ([[120,33,56,78], [45,56,78,6]]).processore()
#Schermo
Stampa ("Tensori reali:")
Stampa (Data1)
Stampa (data2)
Stampa (data3)
Stampa (data4)
Stampa (data5)
#Join cinque tensori
Print ("Uned Tensor:", Torch.vstack ((data1, data2, data3, data4, data5)))

Produzione:

Tensori reali:
Tensor ([[10, 20, 40, 50],
[1, 2, 3, 4]])
tensore ([[2, 3, 4, 5],
[20, 70, 89, 0]])
tensore ([[12, 4, 5, 6],
[56, 34, 56, 787]])
tensore ([[100, 1, 2, 3],
[67, 87, 6, 78]])
tensore ([[120, 33, 56, 78],
[45, 56, 78, 6]])
TENSOR NETTO UNIMI: TENSOR ([[10, 20, 40, 50],
[1, 2, 3, 4],
[2, 3, 4, 5],
[20, 70, 89, 0],
[12, 4, 5, 6],
[56, 34, 56, 787],
[100, 1, 2, 3],
[67, 87, 6, 78],
[120, 33, 56, 78],
[45, 56, 78, 6]])

Cinque tensori sono uniti verticalmente.

Conclusione

Abbiamo imparato a unirci a due o più tensori in verticale a Pytorch usando la funzione vstack (). In questo articolo, abbiamo implementato i vari esempi per unire i tensori a due e due dimensioni e implementato la Vstack () sulla CPU usando la funzione CPU ().