Semantica dell'operazione

Di seguito viene descritta la semantica delle operazioni definite nell'interfaccia XlaBuilder. In genere, queste operazioni mappano il rapporto one-to-one alle operazioni definite nell'interfaccia RPC in xla_data.proto.

Una nota sulla nomenclatura: il tipo di dati generalizzati con cui si occupa XLA è un array N-dimensionale contenente elementi di un tipo uniforme (ad esempio un array in virgola mobile a 32 bit). In tutta la documentazione, viene utilizzato array per indicare un array con dimensioni arbitrarie. Per praticità, i casi speciali hanno nomi più specifici e familiari; ad esempio, un vettore è una matrice unidimensionale, mentre una matrice è una matrice bidimensionale.

AfterAll

Vedi anche XlaBuilder::AfterAll.

AfterAll prende un numero vario di token e produce un singolo token. I token sono tipi primitivi che possono essere raggruppati tra operazioni collaterali per applicare l'ordinamento. AfterAll può essere utilizzato come join di token per ordinare un'operazione dopo un insieme di operazioni.

AfterAll(operands)

Argomenti Tipo Semantica
operands XlaOp numero variadic di token

AllGather

Vedi anche XlaBuilder::AllGather.

Esegue la concatenazione tra le repliche.

AllGather(operand, all_gather_dim, shard_count, replica_group_ids, channel_id)

Argomenti Tipo Semantica
operand XlaOp Array da concatenare tra le repliche
all_gather_dim int64 Dimensione di concatenazione
replica_groups vettore di vettori di int64 I gruppi tra i quali viene eseguita la concatenazione
channel_id int64 facoltativo ID canale facoltativo per la comunicazione cross-module
  • replica_groups è un elenco di gruppi di repliche tra cui viene eseguita la concatenazione (l'ID replica della replica attuale può essere recuperato utilizzando ReplicaId). L'ordine delle repliche in ogni gruppo determina l'ordine in cui si trovano i loro input nel risultato. replica_groups deve essere vuoto (in questo caso tutte le repliche appartengono a un singolo gruppo, ordinate dal giorno 0 al giorno N - 1) oppure contenere lo stesso numero di elementi del numero di repliche. Ad esempio, replica_groups = {0, 2}, {1, 3} esegue la concatenazione tra le repliche 0 e 2 e 1 e 3.
  • shard_count è la dimensione di ogni gruppo di repliche. È necessaria nei casi in cui replica_groups sono vuoti.
  • channel_id viene utilizzato per la comunicazione tra moduli: solo le operazioni all-gather con lo stesso channel_id possono comunicare tra loro.

La forma di output è la forma di input con all_gather_dim ingrandito di shard_count volte. Ad esempio, se sono presenti due repliche e l'operando ha rispettivamente il valore [1.0, 2.5] e [3.0, 5.25] sulle due repliche, il valore di output di questa operazione, in cui all_gather_dim è 0, sarà [1.0, 2.5, 3.0, 5.25] su entrambe le repliche.

AllReduce

Vedi anche XlaBuilder::AllReduce.

Esegue un calcolo personalizzato sulle repliche.

AllReduce(operand, computation, replica_group_ids, channel_id)

Argomenti Tipo Semantica
operand XlaOp un array o una tupla non vuota di array da ridurre nelle repliche
computation XlaComputation Calcolo della riduzione
replica_groups vettore di vettori di int64 i gruppi tra i quali vengono eseguite le riduzioni
channel_id int64 facoltativo ID canale facoltativo per la comunicazione cross-module
  • Quando operand è una tupla di array, viene eseguita l'opzione All-Reduce su ogni elemento della tupla.
  • replica_groups è un elenco di gruppi di repliche tra cui viene eseguita la riduzione (l'ID replica della replica attuale può essere recuperato utilizzando ReplicaId). replica_groups deve essere vuoto (in questo caso tutte le repliche appartengono a un singolo gruppo) o contenere lo stesso numero di elementi del numero di repliche. Ad esempio, replica_groups = {0, 2}, {1, 3} esegue la riduzione tra le repliche 0 e 2 e 1 e 3.
  • channel_id viene utilizzato per la comunicazione tra moduli: solo le operazioni all-reduce con lo stesso channel_id possono comunicare tra loro.

La forma di output è uguale alla forma di input. Ad esempio, se ci sono due repliche e l'operando ha rispettivamente i valori [1.0, 2.5] e [3.0, 5.25] sulle due repliche, il valore di output di questo calcolo di operazione e somma sarà [4.0, 7.75] su entrambe le repliche. Se l'input è una tupla, l'output è anch'esso una tupla.

Il calcolo del risultato di AllReduce richiede un input per ogni replica. Pertanto, se una replica esegue un nodo AllReduce più volte di un altro, la replica precedente attenderà all'infinito. Dato che le repliche eseguono tutte lo stesso programma, non ci sono molti modi per farlo, ma è possibile quando la condizione di un loop Mentre dipende dai dati provenienti dall'infeed e dai dati infondati fa sì che il loop who esegua l'iterazione più volte su una replica rispetto all'altra.

AllToAll

Vedi anche XlaBuilder::AllToAll.

AllToAll è un'operazione collettiva che invia dati da tutti i core a tutti i core. Si compone di due fasi:

  1. La fase a dispersione. Su ogni core, l'operando è diviso in split_count numero di blocchi lungo la split_dimensions e i blocchi sono sparsi tra tutti i core, ad esempio il blocco "i" viene inviato all'i-core.
  2. La fase di raccolta. Ogni core concatena i blocchi ricevuti lungo la concat_dimension.

I core partecipanti possono essere configurati:

  • replica_groups: ogni ReplicaGroup contiene un elenco di ID replica che partecipano al calcolo (l'ID replica per la replica attuale può essere recuperato utilizzando ReplicaId). AllToAll verrà applicato all'interno dei sottogruppi nell'ordine specificato. Ad esempio, replica_groups = { {1,2,3}, {4,5,0} } significa che nella fase di raccolta verrà applicato un AllToAll all'interno delle repliche {1, 2, 3} e nella fase di raccolta, i blocchi ricevuti verranno concatenati nello stesso ordine di 1, 2, 3. Quindi, verrà applicato un altro AllToAll all'interno delle repliche 4, 5, 0 e anche l'ordine di concatenazione sarà 4, 5, 0. Se il campo replica_groups è vuoto, tutte le repliche appartengono a un gruppo, nell'ordine di concatenazione del loro aspetto.

Prerequisiti:

  • La dimensione dell'operando su split_dimension è divisibile per split_count.
  • La forma dell'operando non è tupla.

AllToAll(operand, split_dimension, concat_dimension, split_count, replica_groups)

Argomenti Tipo Semantica
operand XlaOp n array di input dimensionale
split_dimension int64 Un valore nell'intervallo [0, n) che assegna un nome alla dimensione lungo la quale l'operando è suddiviso
concat_dimension int64 Un valore nell'intervallo [0, n) che indica la dimensione lungo la quale i blocchi divisi sono concatenati
split_count int64 Il numero di core che hanno partecipato a questa operazione. Se il campo replica_groups è vuoto, deve corrispondere al numero di repliche, altrimenti deve essere uguale al numero di repliche in ogni gruppo.
replica_groups Vettore ReplicaGroup Ogni gruppo contiene un elenco di ID di replica.

Di seguito è riportato un esempio di Alltoall.

XlaBuilder b("alltoall");
auto x = Parameter(&b, 0, ShapeUtil::MakeShape(F32, {4, 16}), "x");
AllToAll(x, /*split_dimension=*/1, /*concat_dimension=*/0, /*split_count=*/4);

In questo esempio, ci sono 4 core che partecipano all'Alltoall. Su ciascun core, l'operando è diviso in 4 parti lungo la dimensione 0, quindi ogni parte ha la forma f32[4,4]. Le 4 parti sono sparse per tutti i core. Poi ogni nucleo concatena le parti ricevute lungo la dimensione 1, seguendo l'ordine del nucleo 0-4. Quindi l'output su ogni core ha la forma f32[16,4].

BatchNormGrad

Vedi anche XlaBuilder::BatchNormGrad e il documento originale sulla normalizzazione dei batch per una descrizione dettagliata dell'algoritmo.

Calcola i gradienti della norma batch.

BatchNormGrad(operand, scale, mean, variance, grad_output, epsilon, feature_index)

Argomenti Tipo Semantica
operand XlaOp n array dimensionale da normalizzare (x)
scale XlaOp Array bidimensionale (\(\gamma\))
mean XlaOp Array bidimensionale (\(\mu\))
variance XlaOp Array bidimensionale (\(\sigma^2\))
grad_output XlaOp Gradienti passati a BatchNormTraining (\(\nabla y\))
epsilon float Valore Epsilon (\(\epsilon\))
feature_index int64 Indice alla dimensione delle funzionalità in operand

Per ogni elemento nella dimensione elemento (feature_index è l'indice per la dimensione elemento in operand), l'operazione calcola i gradienti rispetto a operand, offset e scale in tutte le altre dimensioni. feature_index deve essere un indice valido per la dimensione della funzionalità in operand.

I tre gradienti sono definiti dalle seguenti formule (supponendo un array quadridimensionale come operand e con indice dimensione della funzionalità l, dimensione del batch m e dimensioni spaziali w e h):

\[ \begin{split} c_l&= \frac{1}{mwh}\sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \left( \nabla y_{ijkl} \frac{x_{ijkl} - \mu_l}{\sigma^2_l+\epsilon} \right) \\\\ d_l&= \frac{1}{mwh}\sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \nabla y_{ijkl} \\\\ \nabla x_{ijkl} &= \frac{\gamma_{l} }{\sqrt{\sigma^2_{l}+\epsilon} } \left( \nabla y_{ijkl} - d_l - c_l (x_{ijkl} - \mu_{l}) \right) \\\\ \nabla \gamma_l &= \sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \left( \nabla y_{ijkl} \frac{x_{ijkl} - \mu_l}{\sqrt{\sigma^2_{l}+\epsilon} } \right) \\\\\ \nabla \beta_l &= \sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h \nabla y_{ijkl} \end{split} \]

Gli input mean e variance rappresentano i valori dei momenti per le dimensioni batch e spaziali.

Il tipo di output è una tupla con tre handle:

Output Tipo Semantica
grad_operand XlaOp gradiente rispetto all'input operand ($\nabla x$)
grad_scale XlaOp gradiente rispetto all'input scale ($\nabla \gamma$)
grad_offset XlaOp gradiente rispetto all'input offset($\nabla \beta$)

BatchNormInference

Vedi anche XlaBuilder::BatchNormInference e il documento originale sulla normalizzazione dei batch per una descrizione dettagliata dell'algoritmo.

Normalizza un array tra dimensioni batch e spaziali.

BatchNormInference(operand, scale, offset, mean, variance, epsilon, feature_index)

Argomenti Tipo Semantica
operand XlaOp n array dimensionale da normalizzare
scale XlaOp Array bidimensionale
offset XlaOp Array bidimensionale
mean XlaOp Array bidimensionale
variance XlaOp Array bidimensionale
epsilon float Valore Epsilon
feature_index int64 Indice alla dimensione delle funzionalità in operand

Per ogni caratteristica nella dimensione elemento (feature_index è l'indice per la dimensione elemento in operand), l'operazione calcola la media e la varianza in tutte le altre dimensioni e utilizza la media e la varianza per normalizzare ogni elemento in operand. feature_index deve essere un indice valido per la dimensione della funzionalità in operand.

BatchNormInference equivale a chiamare BatchNormTraining senza computare mean e variance per ogni batch. Utilizza gli input mean e variance come valori stimati. Lo scopo di questa operazione è ridurre la latenza nell'inferenza, da cui il nome BatchNormInference.

L'output è un array n-dimensionale normalizzato con la stessa forma dell'input operand.

BatchNormTraining

Vedi anche XlaBuilder::BatchNormTraining e the original batch normalization paper per una descrizione dettagliata dell'algoritmo.

Normalizza un array tra dimensioni batch e spaziali.

BatchNormTraining(operand, scale, offset, epsilon, feature_index)

Argomenti Tipo Semantica
operand XlaOp n array dimensionale da normalizzare (x)
scale XlaOp Array bidimensionale (\(\gamma\))
offset XlaOp Array bidimensionale (\(\beta\))
epsilon float Valore Epsilon (\(\epsilon\))
feature_index int64 Indice alla dimensione delle funzionalità in operand

Per ogni caratteristica nella dimensione elemento (feature_index è l'indice per la dimensione elemento in operand), l'operazione calcola la media e la varianza in tutte le altre dimensioni e utilizza la media e la varianza per normalizzare ogni elemento in operand. feature_index deve essere un indice valido per la dimensione della funzionalità in operand.

L'algoritmo funziona come segue per ogni batch in operand \(x\) che contiene m elementi con w e h come dimensioni delle dimensioni spaziali (supponendo che operand sia un array tridimensionale):

  • Calcola la media batch \(\mu_l\) per ogni funzionalità l nella dimensione della funzionalità: \(\mu_l=\frac{1}{mwh}\sum_{i=1}^m\sum_{j=1}^w\sum_{k=1}^h x_{ijkl}\)

  • Calcola la varianza batch \(\sigma^2_l\): $\sigma^2l=\frac{1}{mwh}\sum{i=1}^m\sum{j=1}^w\sum{k=1}^h (x_{ijkl} - \mu_l)^2$

  • Normalizza, scala e adatta: \(y_{ijkl}=\frac{\gamma_l(x_{ijkl}-\mu_l)}{\sqrt[2]{\sigma^2_l+\epsilon} }+\beta_l\)

Il valore epsilon, di solito un numero piccolo, viene aggiunto per evitare errori di divisione per zero.

Il tipo di output è una tupla di tre XlaOp:

Output Tipo Semantica
output XlaOp n array dimensionale con la stessa forma dell'input operand (y)
batch_mean XlaOp Array bidimensionale (\(\mu\))
batch_var XlaOp Array bidimensionale (\(\sigma^2\))

batch_mean e batch_var sono momenti calcolati nelle dimensioni batch e spaziali utilizzando le formule precedenti.

BitcastConvertType

Vedi anche XlaBuilder::BitcastConvertType.

Analogamente a un elemento tf.bitcast in TensorFlow, esegue un'operazione bitcast basata sugli elementi da una forma di dati a una forma di destinazione. Le dimensioni di input e output devono corrispondere: ad esempio, gli elementi s32 diventano elementi f32 tramite la routine bitcast e un elemento s32 diventerà quattro elementi s8. Bitcast viene implementato come una trasmissione di basso livello, quindi le macchine con rappresentazioni in virgola mobile diverse daranno risultati diversi.

BitcastConvertType(operand, new_element_type)

Argomenti Tipo Semantica
operand XlaOp array di tipo T con attenuazioni D
new_element_type PrimitiveType Tipo U

Le dimensioni dell'operando e della forma di destinazione devono corrispondere, a parte l'ultima dimensione che cambierà in base al rapporto delle dimensioni primitive prima e dopo la conversione.

I tipi di elementi di origine e di destinazione non devono essere tuple.

Conversione in bitcast in un tipo primitivo di larghezza diversa

BitcastConvert L'istruzione HLO supporta i casi in cui le dimensioni del tipo di elemento di output T' non corrispondono a quelle dell'elemento di input T. Poiché l'intera operazione è concettualmente un bitcast e non modifica i byte sottostanti, la forma dell'elemento di output deve cambiare. Per B = sizeof(T), B' = sizeof(T'), esistono due casi possibili.

Innanzitutto, quando B > B', la forma di output riceve una nuova dimensione minore e più grande della dimensione B/B'. Ad esempio:

  f16[10,2]{1,0} %output = f16[10,2]{1,0} bitcast-convert(f32[10]{0} %input)

La regola è la stessa per i valori scalari efficaci:

  f16[2]{0} %output = f16[2]{0} bitcast-convert(f32[] %input)

In alternativa, per B' > B l'istruzione richiede che l'ultima dimensione logica della forma di input sia uguale a B'/B e questa dimensione viene eliminata durante la conversione:

  f32[10]{0} %output = f32[10]{0} bitcast-convert(f16[10,2]{1,0} %input)

Tieni presente che le conversioni tra larghezze di bit diverse non sono a livello di elemento.

Trasmissione

Vedi anche XlaBuilder::Broadcast.

Aggiunge dimensioni a un array duplicando i dati nell'array.

Broadcast(operand, broadcast_sizes)

Argomenti Tipo Semantica
operand XlaOp L'array da duplicare
broadcast_sizes ArraySlice<int64> Le dimensioni delle nuove dimensioni

Le nuove dimensioni vengono inserite a sinistra, ovvero se broadcast_sizes ha valori {a0, ..., aN} e la forma dell'operando ha dimensioni {b0, ..., bM}, la forma dell'output avrà dimensioni {a0, ..., aN, b0, ..., bM}.

Le nuove dimensioni vengono indicizzate in copie dell'operando, ad esempio

output[i0, ..., iN, j0, ..., jM] = operand[j0, ..., jM]

Ad esempio, se operand è un f32 scalare con valore 2.0f e broadcast_sizes è {2, 3}, il risultato sarà un array con forma f32[2, 3] e tutti i valori nel risultato saranno 2.0f.

BroadcastInDim

Vedi anche XlaBuilder::BroadcastInDim.

Espande le dimensioni e il ranking di un array duplicando i dati nell'array.

BroadcastInDim(operand, out_dim_size, broadcast_dimensions)

Argomenti Tipo Semantica
operand XlaOp L'array da duplicare
out_dim_size ArraySlice<int64> Le dimensioni della forma target.
broadcast_dimensions ArraySlice<int64> A quale dimensione nell'area target corrisponde ciascuna dimensione dell'operando

Simile a Broadcast, ma consente di aggiungere dimensioni ovunque ed espandere le dimensioni esistenti con dimensione 1.

operand viene trasmesso nella forma descritta da out_dim_size. broadcast_dimensions mappa le dimensioni di operand alle dimensioni della forma target, ovvero la dimensione i-esima dell'operando è mappata alla dimensione broadcast_dimension[i]esima della forma di output. Le dimensioni di operand devono avere una dimensione 1 o avere le stesse dimensioni della dimensione nella forma di output a cui sono mappate. Le restanti dimensioni vengono riempite con dimensioni di dimensione 1. La trasmissione con dimensioni degenerate quindi trasmette in queste dimensioni degenerate per raggiungere la forma di output. La semantica è descritta in dettaglio nella pagina relativa alla trasmissione.

Call

Vedi anche XlaBuilder::Call.

Richiama un calcolo con gli argomenti dati.

Call(computation, args...)

Argomenti Tipo Semantica
computation XlaComputation calcolo di tipo T_0, T_1, ..., T_{N-1} -> S con N parametri di tipo arbitrario
args sequenza di N XlaOp N argomenti di tipo arbitrario

L'arità e i tipi di args devono corrispondere ai parametri di computation. Non può avere args.

Cholesky

Vedi anche XlaBuilder::Cholesky.

Calcola la scomposizione di Cholesky di un batch di matrici definite positive simmetriche (hermitiane).

Cholesky(a, lower)

Argomenti Tipo Semantica
a XlaOp un array di tipo rango > 2 di tipo complesso o con virgola mobile.
lower bool se utilizzare il triangolo superiore o inferiore di a.

Se lower è true, calcola le matrici triangolari inferiori l in modo che $a = l . l^T$. Se lower è false, calcola le matrici triangolari superiori u in modo che \(a = u^T . u\).

I dati di input vengono letti solo dal triangolo inferiore/superiore di a, a seconda del valore di lower. I valori dell'altro triangolo vengono ignorati. I dati di output vengono restituiti nello stesso triangolo; i valori nell'altro triangolo sono definiti dall'implementazione e possono essere qualsiasi cosa.

Se il ranking di a è maggiore di 2, a viene trattato come un batch di matrici, dove tutte le dimensioni tranne le 2 dimensioni secondarie sono dimensioni batch.

Se a non è una definizione positiva simmetrica (hermitiana), il risultato è definito dall'implementazione.

Con morsetto

Vedi anche XlaBuilder::Clamp.

Collega un operando all'interno dell'intervallo compreso tra un valore minimo e un valore massimo.

Clamp(min, operand, max)

Argomenti Tipo Semantica
min XlaOp array di tipo T
operand XlaOp array di tipo T
max XlaOp array di tipo T

Dati un operando e i valori minimo e massimo, restituisce l'operando se è compreso tra il minimo e il massimo, altrimenti restituisce il valore minimo se l'operando è inferiore a questo intervallo o il valore massimo se l'operando è superiore a questo intervallo. Vale a dire clamp(a, x, b) = min(max(a, x), b).

Tutte e tre le matrici devono avere la stessa forma. In alternativa, come forma limitata di trasmissione, min e/o max possono essere uno scalare di tipo T.

Esempio con valori scalari min e max:

let operand: s32[3] = {-1, 5, 9};
let min: s32 = 0;
let max: s32 = 6;
==>
Clamp(min, operand, max) = s32[3]{0, 5, 6};

Comprimi

Vedi anche XlaBuilder::Collapse e l'operazione tf.reshape.

Comprime le dimensioni di un array in una dimensione.

Collapse(operand, dimensions)

Argomenti Tipo Semantica
operand XlaOp array di tipo T
dimensions Vettore int64 sottoinsieme consecutivo e nell'ordine di dimensioni di T.

La compressione sostituisce il sottoinsieme specificato delle dimensioni dell'operando con una singola dimensione. Gli argomenti di input sono un array arbitrario di tipo T e un vettore di indici di dimensione costante in tempo di compilazione. Gli indici delle dimensioni devono essere un sottoinsieme in ordine (numeri di dimensione da basso a alto) e un sottoinsieme consecutivo di dimensioni T. Pertanto, {0, 1, 2}, {0, 1} o {1, 2} sono tutti set di dimensioni validi, ma {1, 0} o {0, 2} non lo sono. Vengono sostituite da un'unica nuova dimensione, nella stessa posizione nella sequenza di dimensioni delle dimensioni, con la nuova dimensione uguale al prodotto delle dimensioni originali. Il numero di dimensione più basso in dimensions è la dimensione con variazione più lenta (la più importante) nel nidificazione del loop che comprime queste dimensioni, mentre il numero di dimensione più elevato corrisponde alla dimensione più variabile (la più minore). Consulta l'operatore tf.reshape se è necessario un ordine di compressione più generale.

Ad esempio, supponiamo che v sia un array di 24 elementi:

let v = f32[4x2x3] { { {10, 11, 12},  {15, 16, 17} },
{ {20, 21, 22},  {25, 26, 27} },
{ {30, 31, 32},  {35, 36, 37} },
{ {40, 41, 42},  {45, 46, 47} } };

// Collapse to a single dimension, leaving one dimension.
let v012 = Collapse(v, {0,1,2});
then v012 == f32[24] {10, 11, 12, 15, 16, 17,
20, 21, 22, 25, 26, 27,
30, 31, 32, 35, 36, 37,
40, 41, 42, 45, 46, 47};

// Collapse the two lower dimensions, leaving two dimensions.
let v01 = Collapse(v, {0,1});
then v01 == f32[4x6] { {10, 11, 12, 15, 16, 17},
{20, 21, 22, 25, 26, 27},
{30, 31, 32, 35, 36, 37},
{40, 41, 42, 45, 46, 47} };

// Collapse the two higher dimensions, leaving two dimensions.
let v12 = Collapse(v, {1,2});
then v12 == f32[8x3] { {10, 11, 12},
{15, 16, 17},
{20, 21, 22},
{25, 26, 27},
{30, 31, 32},
{35, 36, 37},
{40, 41, 42},
{45, 46, 47} };

CollectivePermute

Vedi anche XlaBuilder::CollectivePermute.

CollectivePermute è un'operazione collettiva che invia e riceve dati incrociati di repliche.

CollectivePermute(operand, source_target_pairs)

Argomenti Tipo Semantica
operand XlaOp n array di input dimensionale
source_target_pairs Vettore <int64, int64> Un elenco di coppie (source_replica_id, target_replica_id). Per ogni coppia, l'operando viene inviato dalla replica di origine alla replica di destinazione.

Tieni presente che su source_target_pair sono previste le seguenti limitazioni:

  • Due coppie non devono avere lo stesso ID replica di destinazione e non avere lo stesso ID replica di origine.
  • Se un ID replica non è una destinazione in nessuna coppia, l'output su quella replica è un tensore composto da 0 con la stessa forma dell'input.

Concatena

Vedi anche XlaBuilder::ConcatInDim.

Concatena compone una matrice da più operandi di array. L'array ha lo stesso ranking di ciascuno degli operandi dell'array di input (che devono avere lo stesso ranking tra loro) e contiene gli argomenti nell'ordine in cui sono stati specificati.

Concatenate(operands..., dimension)

Argomenti Tipo Semantica
operands sequenza di N XlaOp N array di tipo T con dimensioni [L0, L1, ...]. Richiede N >= 1.
dimension int64 Un valore nell'intervallo [0, N) che indica la dimensione da concatenare tra operands.

Ad eccezione di dimension, tutte le dimensioni devono essere uguali. Questo perché XLA non supporta array "irregolari". Tieni inoltre presente che i valori di rango 0 non possono essere concatenati (poiché è impossibile assegnare un nome alla dimensione lungo la quale avviene la concatenazione).

Esempio unidimensionale:

Concat({ {2, 3}, {4, 5}, {6, 7} }, 0)
>>> {2, 3, 4, 5, 6, 7}

Esempio bidimensionale:

let a = {
{1, 2},
{3, 4},
{5, 6},
};
let b = {
{7, 8},
};
Concat({a, b}, 0)
>>> {
{1, 2},
{3, 4},
{5, 6},
{7, 8},
}

Diagramma:

Condizionali

Vedi anche XlaBuilder::Conditional.

Conditional(pred, true_operand, true_computation, false_operand, false_computation)

Argomenti Tipo Semantica
pred XlaOp Scalare di tipo PRED
true_operand XlaOp Argomento di tipo \(T_0\)
true_computation XlaComputation Calcolo xlacomutation del tipo \(T_0 \to S\)
false_operand XlaOp Argomento di tipo \(T_1\)
false_computation XlaComputation Calcolo xlacomutation del tipo \(T_1 \to S\)

Esegue true_computation se pred è true, false_computation se pred è false e restituisce il risultato.

L'elemento true_computation deve comprendere un singolo argomento di tipo \(T_0\) e verrà chiamato con true_operand, che deve essere dello stesso tipo. L'elemento false_computation deve contenere un singolo argomento di tipo \(T_1\) e verrà richiamato con false_operand, che deve essere dello stesso tipo. Il tipo del valore restituito di true_computation e false_computation deve essere lo stesso.

Tieni presente che verrà eseguito solo uno tra true_computation e false_computation a seconda del valore di pred.

Conditional(branch_index, branch_computations, branch_operands)

Argomenti Tipo Semantica
branch_index XlaOp Scalare di tipo S32
branch_computations sequenza di N XlaComputation Computazioni di tipo \(T_0 \to S , T_1 \to S , ..., T_{N-1} \to S\)
branch_operands sequenza di N XlaOp Argomenti di tipo \(T_0 , T_1 , ..., T_{N-1}\)

Esegue branch_computations[branch_index] e restituisce il risultato. Se branch_index è un S32 < 0 o >= N, branch_computations[N-1] viene eseguito come ramo predefinito.

Ogni branch_computations[b] deve comprendere un singolo argomento di tipo \(T_b\) e verrà richiamato con branch_operands[b], che deve essere dello stesso tipo. Il tipo del valore restituito di ogni branch_computations[b] deve essere lo stesso.

Tieni presente che verrà eseguito solo uno dei branch_computations a seconda del valore di branch_index.

Conv. (convoluzione)

Vedi anche XlaBuilder::Conv.

Come ConvWithGeneralPadding, ma la spaziatura interna viene specificata in modo breve come SAME o VALID. LA STESSA spaziatura interna riempie l'input (lhs) con zeri, in modo che l'output abbia la stessa forma dell'input quando non prende in considerazione i passaggi. La spaziatura interna VALIDA significa semplicemente che non è presente alcuna spaziatura interna.

ConvWithGeneralPadding (convolution)

Vedi anche XlaBuilder::ConvWithGeneralPadding.

Calcola una convoluzione del tipo utilizzato nelle reti neurali. In questo caso, una convoluzione può essere considerata come una finestra n-dimensionale che si sposta su un'area di base n-dimensionale e viene eseguito un calcolo per ogni possibile posizione della finestra.

Argomenti Tipo Semantica
lhs XlaOp classifica n+2 array di input
rhs XlaOp classifica n+2 array di pesi del kernel
window_strides ArraySlice<int64> array n-d di passi del kernel
padding ArraySlice< pair<int64,int64>> array n-d di spaziatura interna (bassa, alta)
lhs_dilation ArraySlice<int64> Array del fattore di dilatazione n-d lhs
rhs_dilation ArraySlice<int64> Array del fattore di dilatazione n-d rhs
feature_group_count int64 il numero di gruppi di caratteristiche,
batch_group_count int64 il numero di gruppi batch

Sia n il numero di dimensioni spaziali. L'argomento lhs è un array di rango n+2 che descrive la superficie di base. Questo è chiamato input, anche se ovviamente la destra è anche un input. In una rete neurale, queste sono le attivazioni degli input. Le dimensioni n+2 sono, nel seguente ordine:

  • batch: ogni coordinata in questa dimensione rappresenta un input indipendente per il quale viene eseguita la convoluzione.
  • z/depth/features: a ogni posizione (y,x) nell'area di base è associato un vettore, che rientra in questa dimensione.
  • spatial_dims: descrive le n dimensioni spaziali che definiscono l'area di base su cui si sposta la finestra.

L'argomento rhs è un array di tipo n+2 che descrive il filtro/kernel/finestra convoluzionale. Le dimensioni sono, nel seguente ordine:

  • output-z: la dimensione z dell'output.
  • input-z: la dimensione di questa dimensione per feature_group_count deve essere uguale alla dimensione z in lh.
  • spatial_dims: descrive le n dimensioni spaziali che definiscono la finestra n-d che si sposta attraverso l'area di base.

L'argomento window_strides specifica l'intervallo della finestra convoluzionale nelle dimensioni spaziali. Ad esempio, se l'intervallo nella prima dimensione spaziale è 3, la finestra può essere posizionata solo nelle coordinate in cui il primo indice spaziale è divisibile per 3.

L'argomento padding specifica la quantità di spaziatura interna zero da applicare all'area di base. La quantità di spaziatura interna può essere negativa: il valore assoluto di spaziatura interna negativa indica il numero di elementi da rimuovere dalla dimensione specificata prima di eseguire la convoluzione. padding[0] specifica la spaziatura interna per la dimensione y, mentre padding[1] specifica la spaziatura interna per la dimensione x. Ogni coppia ha la spaziatura interna bassa come primo elemento e la spaziatura interna alta come secondo elemento. La spaziatura interna bassa viene applicata nella direzione degli indici più bassi, mentre la spaziatura interna elevata viene applicata nella direzione degli indici più alti. Ad esempio, se padding[1] è (2,3), ci sarà una spaziatura interna di 2 zeri a sinistra e di 3 zeri a destra nella seconda dimensione spaziale. L'utilizzo della spaziatura interna è equivalente all'inserimento degli stessi valori zero nell'input (lhs) prima di eseguire la convoluzione.

Gli argomenti lhs_dilation e rhs_dilation specificano il fattore di dilatazione da applicare rispettivamente a lhs e rhs, in ciascuna dimensione spaziale. Se il fattore di dilatazione in una dimensione spaziale è d, i fori d-1 vengono implicitamente posizionati tra ciascuna voce di quella dimensione, aumentando le dimensioni dell'array. I fori sono riempiti con un valore no-op, che per convoluzione significa zeri.

La dilatazione del display destro è anche chiamata convoluzione atrosa. Per maggiori dettagli, consulta tf.nn.atrous_conv2d. La dilatazione degli elementi a destra è anche chiamata convoluzione trasposta. Per maggiori dettagli, vedi tf.nn.conv2d_transpose.

L'argomento feature_group_count (valore predefinito 1) può essere utilizzato per le convoluzioni raggruppate. feature_group_count deve essere un divisore sia della dimensione della funzionalità di input che della dimensione di output. Se feature_group_count è maggiore di 1, significa che concettualmente la dimensione della funzionalità di input e di output e la dimensione della funzionalità di output rhs sono suddivise uniformemente in molti gruppi feature_group_count, ognuno dei quali è costituito da una sottosequenza successiva di caratteristiche. La dimensione della funzionalità di input rhs deve essere uguale alla dimensione della funzionalità di input lhs divisa per feature_group_count (quindi ha già le dimensioni di un gruppo di funzionalità di input). I gruppi i-esima vengono utilizzati insieme per calcolare feature_group_count per molte convoluzioni separate. I risultati di queste convoluzioni sono concatenati nella dimensione della funzionalità di output.

Per la convoluzione di profondità, l'argomento feature_group_count verrebbe impostato sulla dimensione della funzionalità di input e il filtro verrebbe rimodellato da [filter_height, filter_width, in_channels, channel_multiplier] a [filter_height, filter_width, 1, in_channels * channel_multiplier]. Per maggiori dettagli, consulta tf.nn.depthwise_conv2d.

L'argomento batch_group_count (valore predefinito 1) può essere utilizzato per i filtri raggruppati durante la retropropagazione dell'errore. batch_group_count deve essere un divisore della dimensione batch lhs (input). Se batch_group_count è maggiore di 1, significa che la dimensione batch di output deve avere una dimensione input batch / batch_group_count. batch_group_count deve essere un divisore della dimensione delle caratteristiche di output.

La forma di output presenta le seguenti dimensioni, in questo ordine:

  • batch: la dimensione di questa dimensione moltiplicata per batch_group_count deve corrispondere alla dimensione batch a sinistra.
  • z: stessa dimensione di output-z sul kernel (rhs).
  • spatial_dims: un valore per ogni posizionamento valido della finestra convoluzionale.

La figura riportata sopra mostra il funzionamento del campo batch_group_count. In pratica, suddividiamo ogni batch di LLM in gruppi batch_group_count e facciamo lo stesso per le funzionalità di output. Quindi, per ognuno di questi gruppi eseguiamo convoluzioni a coppie e concateniamo l'output lungo la dimensione della caratteristica di output. La semantica operativa di tutte le altre dimensioni (caratteristica e spaziale) rimane la stessa.

I posizionamenti validi della finestra convoluzionale sono determinati dall'andatura e dalle dimensioni dell'area di base dopo la spaziatura interna.

Per descrivere la funzione di una convoluzione, considera una convoluzione 2D e scegli alcune coordinate batch, z, y e x fisse nell'output. Poi (y,x) è la posizione di un angolo della finestra all'interno dell'area di base (ad es. l'angolo in alto a sinistra, a seconda di come interpreti le dimensioni spaziali). Ora abbiamo una finestra 2D, presa dall'area di base, in cui ogni punto 2d è associato a un vettore 1d, quindi otteniamo un riquadro 3D. Dal kernel convoluzionale, poiché abbiamo corretto la coordinata di output z, abbiamo anche un riquadro 3D. Le due caselle hanno le stesse dimensioni, quindi possiamo prendere la somma dei prodotti basati sugli elementi tra i due riquadri (come per un prodotto scalare). Questo è il valore di output.

Tieni presente che, se output-z è ad es. 5, ogni posizione della finestra genera 5 valori nell'output nella dimensione z dell'output. Questi valori variano in quale parte del kernel convoluzionale viene utilizzata: esiste una casella 3D separata di valori utilizzati per ogni coordinata output-z. Potresti immaginarlo come 5 convoluzioni separate con un filtro diverso per ognuna.

Ecco lo pseudo-codice per una convoluzione 2D con spaziatura interna e spaziatura:

for (b, oz, oy, ox) {  // output coordinates
  value = 0;
  for (iz, ky, kx) {  // kernel coordinates and input z
    iy = oy*stride_y + ky - pad_low_y;
    ix = ox*stride_x + kx - pad_low_x;
    if ((iy, ix) inside the base area considered without padding) {
      value += input(b, iz, iy, ix) * kernel(oz, iz, ky, kx);
    }
  }
  output(b, oz, oy, ox) = value;
}

ConvertElementType

Vedi anche XlaBuilder::ConvertElementType.

Analogamente a un static_cast a livello di elemento in C++, esegue un'operazione di conversione basata sugli elementi da una forma di dati a una forma target. Le dimensioni devono corrispondere e la conversione è a livello di elementi; ad esempio, gli elementi s32 diventano elementi f32 tramite una routine di conversione s32-f32.

ConvertElementType(operand, new_element_type)

Argomenti Tipo Semantica
operand XlaOp array di tipo T con attenuazioni D
new_element_type PrimitiveType Tipo U

Le dimensioni dell'operando e la forma di destinazione devono corrispondere. I tipi di elementi di origine e di destinazione non devono essere tuple.

Una conversione come T=s32 in U=f32 eseguirà una routine di conversione int-to-float di normalizzazione, come il arrotondamento all'uniforme.

let a: s32[3] = {0, 1, 2};
let b: f32[3] = convert(a, f32);
then b == f32[3]{0.0, 1.0, 2.0}

CrossReplicaSum

Esegue AllReduce con un calcolo di somma.

CustomCall

Vedi anche XlaBuilder::CustomCall.

Richiama una funzione fornita dall'utente all'interno di un calcolo.

CustomCall(target_name, args..., shape)

Argomenti Tipo Semantica
target_name string Nome della funzione. Verrà emessa un'istruzione di chiamata che ha come target il nome di questo simbolo.
args sequenza di N XlaOp N argomenti di tipo arbitrario, che verranno passati alla funzione.
shape Shape Forma di output della funzione

La firma della funzione è la stessa, indipendentemente dall'arità o dal tipo di argomenti:

extern "C" void target_name(void* out, void** in);

Ad esempio, se CustomCall viene utilizzata come segue:

let x = f32[2] {1,2};
let y = f32[2x3] { {10, 20, 30}, {40, 50, 60} };

CustomCall("myfunc", {x, y}, f32[3x3])

Di seguito è riportato un esempio di implementazione di myfunc:

extern "C" void myfunc(void* out, void** in) {
  float (&x)[2] = *static_cast<float(*)[2]>(in[0]);
  float (&y)[2][3] = *static_cast<float(*)[2][3]>(in[1]);
  EXPECT_EQ(1, x[0]);
  EXPECT_EQ(2, x[1]);
  EXPECT_EQ(10, y[0][0]);
  EXPECT_EQ(20, y[0][1]);
  EXPECT_EQ(30, y[0][2]);
  EXPECT_EQ(40, y[1][0]);
  EXPECT_EQ(50, y[1][1]);
  EXPECT_EQ(60, y[1][2]);
  float (&z)[3][3] = *static_cast<float(*)[3][3]>(out);
  z[0][0] = x[1] + y[1][0];
  // ...
}

La funzione fornita dall'utente non deve avere effetti collaterali e la sua esecuzione deve essere idempotente.

Punto

Vedi anche XlaBuilder::Dot.

Dot(lhs, rhs)

Argomenti Tipo Semantica
lhs XlaOp array di tipo T
rhs XlaOp array di tipo T

La semantica esatta di questa operazione dipende dai ranghi degli operandi:

Input Output Semantica
vettore [n] dot vettore [n] scalare prodotto Vector dot
matrice [m x k] dot vettore [k] vettore [m] moltiplicazione matrice-vettore
matrice [m x k] dot matrice [k x n] matrice [m x n] moltiplicazione matrice-matriciale

L'operazione esegue la somma dei prodotti per la seconda dimensione di lhs (o la prima se ha ranking 1) e la prima dimensione di rhs. Queste sono le dimensioni "contrattate". Le dimensioni contrattate di lhs e rhs devono avere le stesse dimensioni. In pratica, può essere utilizzata per eseguire prodotti scalare tra vettori, moltiplicazioni vettoriali/matrici o moltiplicazioni matriciale/matrici.

DotGeneral

Vedi anche XlaBuilder::DotGeneral.

DotGeneral(lhs, rhs, dimension_numbers)

Argomenti Tipo Semantica
lhs XlaOp array di tipo T
rhs XlaOp array di tipo T
dimension_numbers DotDimensionNumbers numeri di dimensioni contraenti e batch

Simile al punto, ma consente di specificare i numeri delle dimensioni del contratto e del batch per lhs e rhs.

Campi DotDimensioneNumbers Tipo Semantica
lhs_contracting_dimensions int64 ripetuto Numeri di dimensioni contraenti di lhs
rhs_contracting_dimensions int64 ripetuto Numeri di dimensioni contraenti di rhs
lhs_batch_dimensions int64 ripetuto lhs numeri di dimensione batch
rhs_batch_dimensions int64 ripetuto rhs numeri di dimensione batch

DotGeneral esegue la somma dei prodotti rispetto alle dimensioni contraenti specificate in dimension_numbers.

I numeri delle dimensioni contrattuali associate di lhs e rhs non devono essere uguali, ma devono avere le stesse dimensioni.

Esempio con numeri di dimensioni contraenti:

lhs = { {1.0, 2.0, 3.0},
{4.0, 5.0, 6.0} }

rhs = { {1.0, 1.0, 1.0},
{2.0, 2.0, 2.0} }

DotDimensionNumbers dnums;
dnums.add_lhs_contracting_dimensions(1);
dnums.add_rhs_contracting_dimensions(1);

DotGeneral(lhs, rhs, dnums) -> { {6.0, 12.0},
{15.0, 30.0} }

I numeri delle dimensioni batch associati da lhs e rhs devono avere le stesse dimensioni.

Esempio con numeri di dimensione batch (matrici dimensione batch 2, matrici 2x2):

lhs = { { {1.0, 2.0},
{3.0, 4.0} },
{ {5.0, 6.0},
{7.0, 8.0} } }

rhs = { { {1.0, 0.0},
{0.0, 1.0} },
{ {1.0, 0.0},
{0.0, 1.0} } }

DotDimensionNumbers dnums;
dnums.add_lhs_contracting_dimensions(2);
dnums.add_rhs_contracting_dimensions(1);
dnums.add_lhs_batch_dimensions(0);
dnums.add_rhs_batch_dimensions(0);

DotGeneral(lhs, rhs, dnums) -> { { {1.0, 2.0},
{3.0, 4.0} },
{ {5.0, 6.0},
{7.0, 8.0} } }
Input Output Semantica
[b0, m, k] dot [b0, k, n] [b0, m, n] matmul batch
[b0, b1, m, k] dot [b0, b1, k, n] [b0, b1, m, n] matmul batch

Ne consegue che il numero di dimensione risultante inizia con la dimensione batch, poi la dimensione non contraente/non batch lhs e infine la dimensione non contraente/non batch rhs.

DynamicSlice

Vedi anche XlaBuilder::DynamicSlice.

DynamicSlice estrae un sottoarray dall'array di input in un elemento dinamico start_indices. La dimensione della sezione in ogni dimensione viene passata in size_indices, che specifica il punto finale degli intervalli di sezione esclusivi in ogni dimensione: [inizio, inizio + dimensione). La forma di start_indices deve avere il ranking == 1, con la dimensione della dimensione uguale al rango di operand.

DynamicSlice(operand, start_indices, size_indices)

Argomenti Tipo Semantica
operand XlaOp Array N dimensionale di tipo T
start_indices sequenza di N XlaOp Elenco di N numeri interi scalari contenenti gli indici iniziali della sezione per ogni dimensione. Il valore deve essere maggiore o uguale a zero.
size_indices ArraySlice<int64> Elenco di N numeri interi contenenti le dimensioni della sezione per ogni dimensione. Ogni valore deve essere strettamente maggiore di zero e inizio + dimensione deve essere minore o uguale alla dimensione della dimensione per evitare il wrapping delle dimensioni del modulo.

Gli indici della sezione effettivi vengono calcolati applicando la seguente trasformazione per ogni indice i in [1, N) prima di eseguire la sezione:

start_indices[i] = clamp(start_indices[i], 0, operand.dimension_size[i] - size_indices[i])

Ciò garantisce che la sezione estratta sia sempre entro i limiti rispetto all'array di operando. Se la sezione rientra nei limiti prima dell'applicazione della trasformazione, la trasformazione non ha effetto.

Esempio unidimensionale:

let a = {0.0, 1.0, 2.0, 3.0, 4.0}
let s = {2}

DynamicSlice(a, s, {2}) produces:
{2.0, 3.0}

Esempio bidimensionale:

let b =
{ {0.0,  1.0,  2.0},
{3.0,  4.0,  5.0},
{6.0,  7.0,  8.0},
{9.0, 10.0, 11.0} }
let s = {2, 1}

DynamicSlice(b, s, {2, 2}) produces:
{ { 7.0,  8.0},
{10.0, 11.0} }

DynamicUpdateSlice

Vedi anche XlaBuilder::DynamicUpdateSlice.

DynamicUpdateSlice genera un risultato pari al valore dell'array di input operand, con una sezione update sovrascritta in start_indices. La forma di update determina la forma del sottoarray del risultato che viene aggiornato. La forma di start_indices deve avere il ranking == 1, con la dimensione della dimensione uguale al ranking di operand.

DynamicUpdateSlice(operand, update, start_indices)

Argomenti Tipo Semantica
operand XlaOp Array N dimensionale di tipo T
update XlaOp Matrice N dimensionale di tipo T contenente l'aggiornamento della sezione. Ogni dimensione della forma di aggiornamento deve essere strettamente maggiore di zero e inizio + aggiornamento deve essere inferiore o uguale alla dimensione dell'operando per ogni dimensione per evitare di generare indici di aggiornamento fuori intervallo.
start_indices sequenza di N XlaOp Elenco di N numeri interi scalari contenenti gli indici iniziali della sezione per ogni dimensione. Il valore deve essere maggiore o uguale a zero.

Gli indici della sezione effettivi vengono calcolati applicando la seguente trasformazione per ogni indice i in [1, N) prima di eseguire la sezione:

start_indices[i] = clamp(start_indices[i], 0, operand.dimension_size[i] - update.dimension_size[i])

Ciò garantisce che la sezione aggiornata sia sempre entro i limiti rispetto all'array di operando. Se la sezione rientra nei limiti prima dell'applicazione della trasformazione, la trasformazione non ha effetto.

Esempio unidimensionale:

let a = {0.0, 1.0, 2.0, 3.0, 4.0}
let u = {5.0, 6.0}
let s = {2}

DynamicUpdateSlice(a, u, s) produces:
{0.0, 1.0, 5.0, 6.0, 4.0}

Esempio bidimensionale:

let b =
{ {0.0,  1.0,  2.0},
{3.0,  4.0,  5.0},
{6.0,  7.0,  8.0},
{9.0, 10.0, 11.0} }
let u =
{ {12.0,  13.0},
{14.0,  15.0},
{16.0,  17.0} }

let s = {1, 1}

DynamicUpdateSlice(b, u, s) produces:
{ {0.0,  1.0,  2.0},
{3.0, 12.0, 13.0},
{6.0, 14.0, 15.0},
{9.0, 16.0, 17.0} }

Operazioni aritmetiche binarie a livello di elemento

Vedi anche XlaBuilder::Add.

È supportato un insieme di operazioni aritmetiche binarie a livello di elemento.

Op(lhs, rhs)

Dove Op è uno dei seguenti: Add (addizione), Sub (sottrazione), Mul (moltiplicazione), Div (divisione), Rem (resto), Max (massima), Min (minimo), LogicalAnd (AND logico) o LogicalOr (OR logico).

Argomenti Tipo Semantica
lhs XlaOp operando sinistro: array di tipo T
rhs XlaOp operando destro: array di tipo T

Le forme degli argomenti devono essere simili o compatibili. Consulta la documentazione sulla trasmissione relativa a cosa significa la compatibilità delle forme. Il risultato di un'operazione ha una forma che è il risultato della trasmissione dei due array di input. In questa variante, le operazioni tra array con ranking diversi non sono supportate, a meno che uno degli operandi non sia uno scalare.

Quando Op è Rem, il segno del risultato viene preso dal dividendo e il valore assoluto del risultato è sempre inferiore al valore assoluto del divisore.

L'overflow della divisione del numero intero (divisione/rimanente con segno/senza segno da zero o divisione/residente firmata di INT_SMIN con -1) produce un valore definito per l'implementazione.

Esiste una variante alternativa con supporto di trasmissione con ranking diverso per queste operazioni:

Op(lhs, rhs, broadcast_dimensions)

Dove Op è uguale a quello precedente. Questa variante dell'operazione dovrebbe essere utilizzata per le operazioni aritmetiche tra array con ranking diversi (come l'aggiunta di una matrice a un vettore).

L'operando broadcast_dimensions aggiuntivo è una porzione di numeri interi utilizzati per espandere il ranking dell'operando di livello inferiore fino al ranking dell'operando di livello più alto. broadcast_dimensions mappa le dimensioni della forma con ranking più basso alle dimensioni della forma con ranking più alto. Le dimensioni non mappate della forma espansa vengono riempite con dimensioni di dimensione 1. La trasmissione con dimensioni degenerate trasmette quindi le forme lungo queste dimensioni degenerate per uniformare le forme di entrambi gli operandi. La semantica è descritta in dettaglio nella pagina relativa alla trasmissione.

Operazioni di confronto a livello di elemento

Vedi anche XlaBuilder::Eq.

È supportato un insieme di operazioni di confronto binario standard a livello di elemento. Tieni presente che la semantica del confronto in virgola mobile standard IEEE 754 viene applicata per il confronto di tipi con virgola mobile.

Op(lhs, rhs)

Dove Op è uno di Eq (uguale a), Ne (non uguale a), Ge (maggiore-o-uguale-di), Gt (maggiore-di), Le (minore-o-uguale-di), Lt (minore-di). Un altro insieme di operatori, EqTotal Order, NeTotalOrder, GeTotalOrder, GtTotalOrder, LeTotalOrder e LtTotalOrder, e LtTotalOrder, forniscono le stesse funzionalità, ma supportano inoltre un ordine totale dei numeri in virgola mobile applicando -NaN < -Inf < -Finite < -0 < +0 < +NFinite < +Na

Argomenti Tipo Semantica
lhs XlaOp operando sinistro: array di tipo T
rhs XlaOp operando destro: array di tipo T

Le forme degli argomenti devono essere simili o compatibili. Consulta la documentazione sulla trasmissione relativa a cosa significa la compatibilità delle forme. Il risultato di un'operazione ha una forma che risulta dalla trasmissione dei due array di input con il tipo di elemento PRED. In questa variante, le operazioni tra array con ranking diversi non sono supportate, a meno che uno degli operandi non sia uno scalare.

Esiste una variante alternativa con supporto di trasmissione con ranking diverso per queste operazioni:

Op(lhs, rhs, broadcast_dimensions)

Dove Op è uguale a quello precedente. Questa variante dell'operazione deve essere utilizzata per le operazioni di confronto tra array con ranking diversi (come l'aggiunta di una matrice a un vettore).

L'operando broadcast_dimensions aggiuntivo è una porzione di numeri interi che specifica le dimensioni da utilizzare per la trasmissione degli operandi. La semantica è descritta in dettaglio nella pagina relativa alla trasmissione.

Funzioni unariche a livello di elemento

XlaBuilder supporta queste funzioni unariche a livello di elemento:

Abs(operand) Ass. per elemento x -> |x|.

Ceil(operand) A livello di elemento x -> ⌈x⌉.

Cos(operand) Coseno a livello di elemento x -> cos(x).

Exp(operand) Esponenziale naturale a livello di elemento x -> e^x.

Floor(operand) Prezzo minimo a livello di elemento x -> ⌊x⌋.

Imag(operand) Parte immaginaria a livello di elemento di una forma complessa (o reale). x -> imag(x). Se l'operando è di tipo con virgola mobile, restituisce 0.

IsFinite(operand) Verifica se ogni elemento di operand è finito, ovvero non è infinito positivo o negativo, e non è NaN. Restituisce un array di valori PRED con la stessa forma dell'input, dove ogni elemento è true se e solo se l'elemento di input corrispondente è finito.

Log(operand) Logaritmo naturale per elemento x -> ln(x).

LogicalNot(operand) Logico a livello di elemento non x -> !(x).

Logistic(operand) Calcolo della funzione logistica a livello di elemento x -> logistic(x).

PopulationCount(operand) Calcola il numero di bit impostato in ogni elemento di operand.

Neg(operand) Negazione a livello di elemento x -> -x.

Real(operand) Parte reale a livello di elemento di una forma complessa (o reale). x -> real(x). Se l'operando è di tipo con rappresentazione in virgola mobile, restituisce lo stesso valore.

Rsqrt(operand) Reciproco a livello di elemento dell'operazione di radice quadrata x -> 1.0 / sqrt(x).

Sign(operand) Operazione con segno a livello di elemento x -> sgn(x) in cui

\[\text{sgn}(x) = \begin{cases} -1 & x < 0\\ -0 & x = -0\\ NaN & x = NaN\\ +0 & x = +0\\ 1 & x > 0 \end{cases}\]

utilizzando l'operatore di confronto del tipo di elemento operand.

Sqrt(operand) Operazione di radice quadrata a livello di elemento x -> sqrt(x).

Cbrt(operand) Operazione di radice cubica a livello di elemento x -> cbrt(x).

Tanh(operand) Tangente iperbolica a livello di elemento x -> tanh(x).

Round(operand) Arrotondamento a livello di elemento, separato da zero.

RoundNearestEven(operand) L'arrotondamento a livello di elemento si collega al pari più vicino.

Argomenti Tipo Semantica
operand XlaOp L'operando della funzione

La funzione viene applicata a ogni elemento nell'array operand, generando un array con la stessa forma. È consentito che operand sia uno scalare (ranking 0).

F

L'operazione XLA FFT implementa le trasformazioni di Fourier dirette e inverse per input/output reali e complessi. Sono supportati FFT multidimensionali su un massimo di 3 assi.

Vedi anche XlaBuilder::Fft.

Argomenti Tipo Semantica
operand XlaOp L'array che stiamo trasformando di Fourier.
fft_type FftType Consulta la tabella riportata di seguito.
fft_length ArraySlice<int64> Le lunghezze del dominio temporale degli assi in trasformazione. Questa operazione è necessaria in particolare affinché IRFFT ridimensiona l'asse più interno, poiché RFFT(fft_length=[16]) ha la stessa forma di output di RFFT(fft_length=[17]).
FftType Semantica
FFT Inoltrare FFT da complesso a complesso. La forma non è stata modificata.
IFFT FFT da complesso a complesso inverso. La forma non è stata modificata.
RFFT Inoltrare FFT reale a complesso. La forma dell'asse più interno viene ridotta a fft_length[-1] // 2 + 1 se fft_length[-1] è un valore diverso da zero, omettendo la parte coniugata invertita del segnale trasformato oltre la frequenza di Nyquist.
IRFFT FFT inverso da reale a complesso (ad esempio, richiede complesso, restituisce reale). La forma dell'asse più interno viene espansa a fft_length[-1] se fft_length[-1] è un valore diverso da zero, deducendo la parte del segnale trasformato oltre la frequenza di Nyquist dal coniugato inverso delle voci 1 a fft_length[-1] // 2 + 1.

FFT multidimensionale

Se viene fornito più di 1 fft_length, ciò equivale ad applicare una cascata di operazioni FFT a ciascuno degli assi più interni. Tieni presente che per i casi reali, complessi e reali, la trasformazione dell'asse più interno viene (effettivamente) eseguita per prima (RFFT; ultima per IRFFT), motivo per cui l'asse più interno è quello che cambia le dimensioni. In questo modo, le altre trasformazioni dell'asse saranno complesse.

Dettagli di implementazione

L'FFT della CPU è supportato da TensorFFT di Eigen. GPU FFT utilizza cuFFT.

Raccogliere

L'operazione di raccolta XLA unisce diverse sezioni (ogni sezione con un offset di runtime potenzialmente diverso) di un array di input.

Semantica generale

Vedi anche XlaBuilder::Gather. Per una descrizione più intuitiva, consulta la sezione "Descrizione informale" di seguito.

gather(operand, start_indices, offset_dims, collapsed_slice_dims, slice_sizes, start_index_map)

Argomenti Tipo Semantica
operand XlaOp L'array da cui stiamo raccogliendo le immagini.
start_indices XlaOp Array contenente gli indici iniziali delle sezioni che raccogliamo.
index_vector_dim int64 La dimensione in start_indices che "contiene" gli indici iniziali. Vedi di seguito una descrizione dettagliata.
offset_dims ArraySlice<int64> Il set di dimensioni nella forma di output con scostamento in una matrice segmentata dall'operando.
slice_sizes ArraySlice<int64> slice_sizes[i] è i limiti della sezione sulla dimensione i.
collapsed_slice_dims ArraySlice<int64> L'insieme di dimensioni di ogni sezione compressa. Queste dimensioni devono avere una dimensione 1.
start_index_map ArraySlice<int64> Una mappa che descrive come mappare gli indici in start_indices agli indici legali nell'operando.
indices_are_sorted bool Indica se è garantito che gli indici vengano ordinati dal chiamante.

Per comodità, etichettiamo le dimensioni nell'array di output non in offset_dims come batch_dims.

L'output è un array con ranking batch_dims.size + offset_dims.size.

operand.rank deve corrispondere alla somma di offset_dims.size e collapsed_slice_dims.size. Inoltre, slice_sizes.size deve essere uguale a operand.rank.

Se index_vector_dim è uguale a start_indices.rank, consideriamo implicitamente start_indices come una dimensione 1 finale (ad esempio se start_indices aveva la forma [6,7] e index_vector_dim è 2, allora consideriamo implicitamente la forma di start_indices come [6,7,1]).

I limiti dell'array di output lungo la dimensione i vengono calcolati come segue:

  1. Se i è presente in batch_dims (ovvero è uguale a batch_dims[k] per alcuni k), scegliamo i limiti di dimensione corrispondenti da start_indices.shape, ignorando index_vector_dim (ad esempio scegli start_indices.shape.dims[k] se k < index_vector_dim e start_indices.shape.dims[k+1] altrimenti).

  2. Se i è presente in offset_dims (ossia uguale a offset_dims[k] per alcuni k), scegliamo il limite corrispondente su slice_sizes dopo la rendicontazione di collapsed_slice_dims (ad esempio, scegliamo adjusted_slice_sizes[k] dove adjusted_slice_sizes è slice_sizes con i limiti degli indici collapsed_slice_dims rimossi).

Formalmente, l'indice dell'operando In corrispondente a un determinato indice di output Out viene calcolato come segue:

  1. Lascia G = { Out[k] per k in batch_dims }. Usa G per suddividere un vettore S in modo che S[i] = start_indices[Combina(G, i)] dove Combina(A, b) inserisce b nella posizione index_vector_dim in A. Tieni presente che questo valore è ben definito anche se il campo G è vuoto: se G è vuoto, S = start_indices.

  2. Crea un indice iniziale, Sin, in operand utilizzando S suddividendo S in start_index_map. Più precisamente:

    1. Sin[start_index_map[k]] = S[k] se k < start_index_map.size.

    2. Sin[_] = 0 altrimenti.

  3. Crea un indice Oin in operand distribuendo gli indici in base alle dimensioni di offset in Out in base al insieme collapsed_slice_dims. Più precisamente:

    1. Oin[remapped_offset_dims(k)] = Out[offset_dims[k]] se k < offset_dims.size (remapped_offset_dims è definito di seguito).

    2. Oin[_] = 0 altrimenti.

  4. In è Oin + Sin, dove + è l'aggiunta a livello di elemento.

remapped_offset_dims è una funzione monotonica con dominio [0, offset_dims.size) e intervallo [0, operand.rank) \ collapsed_slice_dims. Ad esempio, offset_dims.size è 4, operand.rank è 6 e collapsed_slice_dims è {0, 2} poi remapped_offset_dims è {01, 13, 24, 35}.

Se indices_are_sorted è impostato su true, XLA può presumere che i start_indices vengano ordinati (in ordine crescente (start_index_map)) dall'utente. Se non lo sono, la semantica è l'implementazione definita.

Descrizione ed esempi informali

Informale, ogni indice Out nell'array di output corrisponde a un elemento E nell'array di operandi, calcolato come segue:

  • Utilizziamo le dimensioni batch in Out per cercare un indice iniziale da start_indices.

  • Utilizziamo start_index_map per mappare l'indice iniziale (la cui dimensione potrebbe essere inferiore a operand.rank) a un indice iniziale "completo" in operand.

  • Segmentiamo in modo dinamico una sezione con dimensione slice_sizes utilizzando l'indice iniziale completo.

  • Per modificare la sezione, comprimiamo le dimensioni collapsed_slice_dims. Poiché tutte le dimensioni delle sezioni compresse devono avere un limite di 1, questa rimodellazione è sempre legale.

  • Utilizziamo le dimensioni di offset in Out per indicizzare in questa sezione e ottenere l'elemento di input E, corrispondente all'indice di output Out.

index_vector_dim è impostato su start_indices.rank - 1 in tutti gli esempi seguenti. I valori più interessanti di index_vector_dim non modificano sostanzialmente l'operazione, ma rendono la rappresentazione visiva più ingombrante.

Per avere un'idea di come tutti gli elementi riportati sopra, siano collegati tra loro, guardiamo un esempio che raccoglie 5 sezioni di forma [8,6] da un array [16,11]. La posizione di una sezione nell'array [16,11] può essere rappresentata come un vettore di indice della forma S64[2], quindi l'insieme di cinque posizioni può essere rappresentato come un array S64[5,2].

Il comportamento dell'operazione di raccolta può quindi essere rappresentato come una trasformazione dell'indice che prende [G,O0,O1], un indice nella forma di output e lo mappa a un elemento nell'array di input nel seguente modo:

Innanzitutto selezioniamo un vettore (X,Y) dall'array di indici di raccolta utilizzando G. L'elemento nell'array di output all'indice [G,O0,O1] è poi l'elemento nell'array di input all'indice [X+O0,Y+O1].

slice_sizes è [8,6], che determina l'intervallo O0 e O1 e questo a sua volta determina i limiti della sezione.

Questa operazione di raccolta agisce come una sezione dinamica batch con G come dimensione batch.

Gli indici di raccolta possono essere multidimensionali. Ad esempio, una versione più generale dell'esempio precedente utilizzando un array di "raccolta indici" di forma [4,5,2] tradurrebbe indici come questo:

Anche in questo caso, questa funge da sezione dinamica batch G0 e G1 come dimensioni batch. La dimensione della sezione è ancora [8,6].

L'operazione di raccolta in XLA generalizza la semantica informale descritta sopra nei modi seguenti:

  1. Possiamo configurare quali dimensioni nel formato di output sono le dimensioni di offset (dimensioni contenenti O0, O1 nell'ultimo esempio). Le dimensioni batch di output (dimensioni contenenti G0, G1 nell'ultimo esempio) sono definite come dimensioni di output che non sono dimensioni offset.

  2. Il numero di dimensioni di offset dell'output esplicitamente presenti nella forma di output può essere inferiore al ranking dell'input. Queste dimensioni "mancanti", indicate esplicitamente come collapsed_slice_dims, devono avere una dimensione sezione 1. Poiché hanno una dimensione della sezione pari a 1, l'unico indice valido è 0; l'eliminazione non comporta ambiguità.

  3. La sezione estratta dall'array "Raccogli indici" (X, Y) nell'ultimo esempio) potrebbe avere meno elementi rispetto al ranking dell'array di input e una mappatura esplicita determina in che modo l'indice deve essere espanso in modo da avere lo stesso ranking dell'input.

Come ultimo esempio, utilizziamo (2) e (3) per implementare tf.gather_nd:

G0 e G1 vengono utilizzati per separare un indice iniziale dall'array di indici di raccolta come di consueto, ad eccezione del fatto che l'indice iniziale ha un solo elemento, X. Allo stesso modo, esiste un solo indice di offset di output con il valore O0. Tuttavia, prima di essere utilizzati come indici nell'array di input, questi vengono espansi in conformità a "Raccogli la mappatura dell'indice" (start_index_map nella descrizione formale) e "Offset Mapping" (remapped_offset_dims nella descrizione formale) rispettivamente in [X,0] e [0,O0], aggiungendo fino a [X,O0]. In altre parole, l'indice di output di {O0,0000OGGGG11GatherIndicestf.gather_nd

slice_sizes per questa richiesta è [1,11]. Intuitivamente, questo significa che ogni Xindice nell'array degli indici di raccolta sceglie un'intera riga e il risultato è la concatenazione di tutte queste righe.

GetDimensionSize

Vedi anche XlaBuilder::GetDimensionSize.

Restituisce la dimensione della dimensione specificata dell'operando. L'operando deve essere a forma di array.

GetDimensionSize(operand, dimension)

Argomenti Tipo Semantica
operand XlaOp n array di input dimensionale
dimension int64 Un valore nell'intervallo [0, n) che specifica la dimensione

SetDimensionSize

Vedi anche XlaBuilder::SetDimensionSize.

Imposta la dimensione dinamica della dimensione specificata di XlaOp. L'operando deve essere a forma di array.

SetDimensionSize(operand, size, dimension)

Argomenti Tipo Semantica
operand XlaOp n array di input dimensionale.
size XlaOp int32 che rappresenta la dimensione dinamica del runtime.
dimension int64 Un valore nell'intervallo [0, n) che specifica la dimensione.

Passare attraverso l'operando come risultato, con la dimensione dinamica monitorata dal compilatore.

I valori aggiunti verranno ignorati dalle operazioni di riduzione downstream.

let v: f32[10] = f32[10]{1, 2, 3, 4, 5, 6, 7, 8, 9, 10};
let five: s32 = 5;
let six: s32 = 6;

// Setting dynamic dimension size doesn't change the upper bound of the static
// shape.
let padded_v_five: f32[10] = set_dimension_size(v, five, /*dimension=*/0);
let padded_v_six: f32[10] = set_dimension_size(v, six, /*dimension=*/0);

// sum == 1 + 2 + 3 + 4 + 5
let sum:f32[] = reduce_sum(padded_v_five);
// product == 1 * 2 * 3 * 4 * 5
let product:f32[] = reduce_product(padded_v_five);

// Changing padding size will yield different result.
// sum == 1 + 2 + 3 + 4 + 5 + 6
let sum:f32[] = reduce_sum(padded_v_six);

GetTupleElement

Vedi anche XlaBuilder::GetTupleElement.

Indici in una tupla con un valore costante in tempo di compilazione.

Il valore deve essere una costante di tempo di compilazione in modo che l'inferenza della forma possa determinare il tipo del valore risultante.

È simile a std::get<int N>(t) in C++. Concettualmente:

let v: f32[10] = f32[10]{0, 1, 2, 3, 4, 5, 6, 7, 8, 9};
let s: s32 = 5;
let t: (f32[10], s32) = tuple(v, s);
let element_1: s32 = gettupleelement(t, 1);  // Inferred shape matches s32.

Vedi anche tf.tuple.

Annuncio in-feed

Vedi anche XlaBuilder::Infeed.

Infeed(shape)

Argomento Tipo Semantica
shape Shape Forma dei dati letti dall'interfaccia Infeed. Il campo di layout della forma deve essere impostato in modo che corrisponda al layout dei dati inviati al dispositivo, altrimenti il suo comportamento è indefinito.

Legge un singolo elemento di dati dall'interfaccia di flussi di dati Infeed implicita del dispositivo, interpretando i dati come la forma specificata e il relativo layout e restituisce un XlaOp dei dati. In un calcolo sono consentite più operazioni Infeed, ma deve esistere un ordine totale tra le operazioni Infeed. Ad esempio, due annunci Infeed nel codice seguente hanno un ordine totale poiché esiste una dipendenza tra i loop who.

result1 = while (condition, init = init_value) {
  Infeed(shape)
}

result2 = while (condition, init = result1) {
  Infeed(shape)
}

Le forme tuple nidificate non sono supportate. Nel caso di una tupla vuota, l'operazione Infeed è un'operazione semplice e procede senza leggere alcun dato dall'Infeed del dispositivo.

Iota

Vedi anche XlaBuilder::Iota.

Iota(shape, iota_dimension)

Crea un valore letterale costante sul dispositivo anziché un trasferimento host potenziale di grandi dimensioni. Crea un array con una forma specificata e contiene valori che iniziano da zero e aumentano di uno lungo la dimensione specificata. Per i tipi a virgola mobile, l'array prodotto è equivalente a ConvertElementType(Iota(...)), dove Iota è di tipo integrale e la conversione è al tipo a virgola mobile.

Argomenti Tipo Semantica
shape Shape Forma dell'array creato da Iota()
iota_dimension int64 La dimensione da incrementare.

Ad esempio, Iota(s32[4, 8], 0) restituisce

  [[0, 0, 0, 0, 0, 0, 0, 0 ],
   [1, 1, 1, 1, 1, 1, 1, 1 ],
   [2, 2, 2, 2, 2, 2, 2, 2 ],
   [3, 3, 3, 3, 3, 3, 3, 3 ]]

Resi a Iota(s32[4, 8], 1)

  [[0, 1, 2, 3, 4, 5, 6, 7 ],
   [0, 1, 2, 3, 4, 5, 6, 7 ],
   [0, 1, 2, 3, 4, 5, 6, 7 ],
   [0, 1, 2, 3, 4, 5, 6, 7 ]]

Mappa

Vedi anche XlaBuilder::Map.

Map(operands..., computation)

Argomenti Tipo Semantica
operands sequenza di N XlaOp N array di tipo T0..T{N-1}
computation XlaComputation calcolo di tipo T_0, T_1, .., T_{N + M -1} -> S con N parametri di tipo T e M di tipo arbitrario
dimensions Array int64 array di dimensioni della mappa

Applica una funzione scalare agli array operands specificati, generando un array con le stesse dimensioni in cui ogni elemento è il risultato della funzione mappata applicata agli elementi corrispondenti negli array di input.

La funzione mappata è un calcolo arbitrario con la limitazione che ha N input di tipo scalare T e un singolo output di tipo S. L'output ha le stesse dimensioni degli operandi, ma l'elemento di tipo T viene sostituito con S.

Ad esempio: Map(op1, op2, op3, computation, par1) mappa elem_out <- computation(elem1, elem2, elem3, par1) in corrispondenza di ciascun indice (multidimensionale) negli array di input per produrre l'array di output.

OptimizationBarrier

Impedisce a qualsiasi passaggio per l'ottimizzazione di spostare i calcoli oltre la barriera.

Garantisce che tutti gli input vengano valutati prima di qualsiasi operatore che dipenda dagli output della barriera.

Cuscinetto

Vedi anche XlaBuilder::Pad.

Pad(operand, padding_value, padding_config)

Argomenti Tipo Semantica
operand XlaOp array di tipo T
padding_value XlaOp scalare di tipo T per riempire la spaziatura interna aggiunta
padding_config PaddingConfig quantità di spaziatura interna su entrambi i bordi (bassa, alta) e tra gli elementi di ogni dimensione

Espande l'array operand specificato utilizzando una spaziatura interna intorno all'array e tra gli elementi dell'array con il valore padding_value specificato. padding_config specifica la quantità di spaziatura interna sui bordi e su quella interna per ogni dimensione.

PaddingConfig è un campo ripetuto di PaddingConfigDimension, che contiene tre campi per ogni dimensione: edge_padding_low, edge_padding_high e interior_padding.

edge_padding_low e edge_padding_high specificano la quantità di spaziatura interna aggiunta rispettivamente al limite inferiore (accanto all'indice 0) e alla fascia alta (accanto all'indice più alto) di ogni dimensione. La quantità di spaziatura interna sui bordi può essere negativa: il valore assoluto di spaziatura interna indica il numero di elementi da rimuovere dalla dimensione specificata.

interior_padding specifica la quantità di spaziatura interna aggiunta tra due elementi qualsiasi in ogni dimensione; non può essere negativa. La spaziatura interna interna avviene logicamente prima della spaziatura interna sui bordi, quindi, in caso di spaziatura interna negativa sui bordi, gli elementi vengono rimossi dall'operando imbottito interno.

Questa operazione è autonoma se le coppie di spaziatura interna sul bordo sono tutte (0, 0) e i valori di spaziatura interna interna sono tutti 0. La figura seguente mostra esempi di diversi valori di edge_padding e interior_padding per una matrice bidimensionale.

Recv

Vedi anche XlaBuilder::Recv.

Recv(shape, channel_handle)

Argomenti Tipo Semantica
shape Shape forma dei dati da ricevere
channel_handle ChannelHandle Identificatore univoco per ogni coppia di invio/ricezione

Riceve i dati della forma specificata da un'istruzione Send in un altro calcolo che condivide lo stesso handle di canale. Restituisce un XlaOp per i dati ricevuti.

L'operazione API client di Recv rappresenta la comunicazione sincrona. Tuttavia, l'istruzione è scomposta internamente in 2 istruzioni HLO (Recv e RecvDone) per consentire trasferimenti di dati asincroni. Vedi anche HloInstruction::CreateRecv e HloInstruction::CreateRecvDone.

Recv(const Shape& shape, int64 channel_id)

Alloca le risorse necessarie per ricevere i dati da un'istruzione Send con lo stesso channel_id. Restituisce un contesto per le risorse allocate, che viene utilizzato da una seguente istruzione RecvDone per attendere il completamento del trasferimento dei dati. Il contesto è una tupla di {receive buffer (shape), request identifier (U32)} e può essere utilizzato solo da un'istruzione RecvDone.

RecvDone(HloInstruction context)

Dato un contesto creato da un'istruzione Recv, attende il completamento del trasferimento dei dati e restituisce i dati ricevuti.

Riduci

Vedi anche XlaBuilder::Reduce.

Applica una funzione di riduzione a uno o più array in parallelo.

Reduce(operands..., init_values..., computation, dimensions)

Argomenti Tipo Semantica
operands Sequenza di N XlaOp N array di tipo T_0, ..., T_{N-1}.
init_values Sequenza di N XlaOp N scalari di tipo T_0, ..., T_{N-1}.
computation XlaComputation calcolo del tipo T_0, ..., T_{N-1}, T_0, ..., T_{N-1} -> Collate(T_0, ..., T_{N-1}).
dimensions Array int64 di dimensioni non ordinate da ridurre.

Dove:

  • N deve essere maggiore o uguale a 1.
  • Il calcolo deve essere "all'incirca" associativo (vedi sotto).
  • Tutte le matrici di input devono avere le stesse dimensioni.
  • Tutti i valori iniziali devono formare un'identità in computation.
  • Se N = 1, Collate(T) è T.
  • Se N > 1, Collate(T_0, ..., T_{N-1}) è una tupla di N elementi di tipo T.

Questa operazione riduce una o più dimensioni di ogni array di input in scalari. Il ranking di ogni array restituito è rank(operand) - len(dimensions). L'output dell'operazione è Collate(Q_0, ..., Q_N), dove Q_i è un array di tipo T_i, le cui dimensioni sono descritte di seguito.

Backend diversi possono riassociare il calcolo della riduzione. Ciò può portare a differenze numeriche, poiché alcune funzioni di riduzione, come l'addizione, non sono associative per i valori in virgola mobile. Tuttavia, se l'intervallo dei dati è limitato, l'aggiunta in virgola mobile è abbastanza simile a essere associativa per gli usi più pratici.

Esempi

Quando esegui la riduzione su una dimensione in un singolo array 1D con valori [10, 11, 12, 13], con la funzione di riduzione f (ossia computation), puoi calcolare questo valore come

f(10, f(11, f(12, f(init_value, 13)))

ma ci sono anche molte altre possibilità, ad es.

f(init_value, f(f(10, f(init_value, 11)), f(f(init_value, 12), f(init_value, 13))))

Di seguito è riportato un esempio approssimativo di pseudocodice di come implementare la riduzione, utilizzando la somma come calcolo della riduzione con un valore iniziale pari a 0.

result_shape <- remove all dims in dimensions from operand_shape

# Iterate over all elements in result_shape. The number of r's here is equal
# to the rank of the result
for r0 in range(result_shape[0]), r1 in range(result_shape[1]), ...:
  # Initialize this result element
  result[r0, r1...] <- 0

  # Iterate over all the reduction dimensions
  for d0 in range(dimensions[0]), d1 in range(dimensions[1]), ...:
    # Increment the result element with the value of the operand's element.
    # The index of the operand's element is constructed from all ri's and di's
    # in the right order (by construction ri's and di's together index over the
    # whole operand shape).
    result[r0, r1...] += operand[ri... di]

Ecco un esempio di riduzione di un array (matrice) 2D. La forma ha rango 2, dimensione 0 come dimensione 2 e dimensione 1 come dimensione 3:

Risultati della riduzione delle dimensioni 0 o 1 con una funzione "add":

Tieni presente che entrambi i risultati della riduzione sono array 1D. Per comodità visiva, il diagramma mostra una colonna e l'altra come riga.

Per un esempio più complesso, di seguito è riportato un array 3D. Il suo ranking è 3, dimensione 0 per taglia 4, dimensione 1 per taglia 2 e dimensione 2 per taglia 3. Per semplicità, i valori da 1 a 6 vengono replicati nella dimensione 0.

Come nel caso dell'esempio 2D, possiamo ridurre una sola dimensione. Ad esempio, se riduciamo la dimensione 0, otteniamo un array di rango 2 in cui tutti i valori nella dimensione 0 sono stati piegati in uno scalare:

|  4   8  12 |
| 16  20  24 |

Se riduciamo la dimensione 2, otteniamo anche un array rango-2 in cui tutti i valori nella dimensione 2 sono stati piegati in uno scalare:

| 6  15 |
| 6  15 |
| 6  15 |
| 6  15 |

Tieni presente che l'ordine relativo tra le restanti dimensioni nell'input viene conservato nell'output, ma ad alcune dimensioni potrebbero essere assegnati nuovi numeri (poiché il ranking cambia).

Possiamo anche ridurre più dimensioni. La riduzione delle dimensioni 0 e 1 produce l'array 1D [20, 28, 36].

La riduzione dell'array 3D in tutte le sue dimensioni produce lo scalare 84.

Riduzione variadica

Quando N > 1, l'applicazione Riduci funzione è leggermente più complessa poiché viene applicata contemporaneamente a tutti gli input. Gli operandi vengono forniti al calcolo nel seguente ordine:

  • Esecuzione del valore ridotto per il primo operando
  • ...
  • Esecuzione del valore ridotto per l'operando N'
  • Valore di input per il primo operando
  • ...
  • Valore di input per l'operando N'

Ad esempio, considera la seguente funzione di riduzione, che può essere utilizzata per calcolare il valore massimo e l'argmax di un array 1D in parallelo:

f: (Float, Int, Float, Int) -> Float, Int
f(max, argmax, value, index):
  if value >= max:
    return (value, index)
  else:
    return (max, argmax)

Per gli array di input 1D V = Float[N], K = Int[N] e i valori init I_V = Float, I_K = Int, il risultato f_(N-1) della riduzione sull'unica dimensione di input equivale alla seguente applicazione ricorsiva:

f_0 = f(I_V, I_K, V_0, K_0)
f_1 = f(f_0.first, f_0.second, V_1, K_1)
...
f_(N-1) = f(f_(N-2).first, f_(N-2).second, V_(N-1), K_(N-1))

L'applicazione di questa riduzione a un array di valori e a un array di indici sequenziali (ovvero iota), esegue l'iterazione insieme agli array e restituisce una tupla contenente il valore massimo e l'indice corrispondente.

ReducePrecision

Vedi anche XlaBuilder::ReducePrecision.

Formatta l'effetto della conversione dei valori in virgola mobile in un formato a precisione inferiore (come IEEE-FP16) e al formato originale. Il numero di bit esponente e mantissa nel formato a precisione inferiore può essere specificato in modo arbitrario, anche se tutte le dimensioni in bit potrebbero non essere supportate su tutte le implementazioni hardware.

ReducePrecision(operand, mantissa_bits, exponent_bits)

Argomenti Tipo Semantica
operand XlaOp array di tipo in virgola mobile T.
exponent_bits int32 numero di bit dell'esponente nel formato a precisione inferiore
mantissa_bits int32 numero di bit mantissa nel formato a precisione inferiore

Il risultato è un array di tipo T. I valori di input vengono arrotondati al valore rappresentabile più vicino con il numero specificato di bit di mantissa (utilizzando la semantica "legami a pari") e tutti i valori che superano l'intervallo specificato dal numero di bit di esponenti vengono bloccati sull'infinito positivo o negativo. I valori NaN vengono conservati, anche se possono essere convertiti in valori NaN canonici.

Il formato a precisione inferiore deve avere almeno un bit esponente (per distinguere un valore zero da un infinito, poiché entrambi hanno una mantissa zero) e deve avere un numero non negativo di bit di mantissa. Il numero di bit dell'esponente o della mantissa può superare il valore corrispondente per il tipo T; la porzione corrispondente della conversione non è altro che no-op.

ReduceScatter

Vedi anche XlaBuilder::ReduceScatter.

ReduceScatter è un'operazione collettiva che esegue in modo efficace un AllReduce e poi disperde il risultato suddividendolo in blocchi shard_count lungo scatter_dimension, mentre la replica i nel gruppo di repliche riceve lo shard ith.

ReduceScatter(operand, computation, scatter_dim, shard_count, replica_group_ids, channel_id)

Argomenti Tipo Semantica
operand XlaOp Matrice o tupla non vuota di array da ridurre nelle repliche.
computation XlaComputation Calcolo della riduzione
scatter_dimension int64 Dimensione da dispersione.
shard_count int64 Numero di blocchi da suddividere scatter_dimension
replica_groups vettore di vettori di int64 Gruppi tra cui vengono eseguite le riduzioni
channel_id int64 facoltativo ID canale facoltativo per la comunicazione tra moduli
  • Quando operand è una tupla di array, la riduzione della dispersione viene eseguita su ciascun elemento della tupla.
  • replica_groups è un elenco di gruppi di repliche tra cui viene eseguita la riduzione (l'ID replica per la replica attuale può essere recuperato utilizzando ReplicaId). L'ordine delle repliche in ogni gruppo determina l'ordine in cui il risultato All-Reduce sarà sparso. replica_groups deve essere vuoto (in questo caso tutte le repliche appartengono a un singolo gruppo) o contenere lo stesso numero di elementi del numero di repliche. Quando sono presenti più gruppi di repliche, devono essere tutti della stessa dimensione. Ad esempio, replica_groups = {0, 2}, {1, 3} esegue la riduzione tra le repliche 0 e 2, 1 e 3, per poi disperdere il risultato.
  • shard_count è la dimensione di ogni gruppo di repliche. È necessaria nei casi in cui replica_groups sono vuoti. Se replica_groups non è vuoto, shard_count deve essere uguale alle dimensioni di ogni gruppo di repliche.
  • channel_id viene utilizzato per la comunicazione tra moduli: solo le operazioni reduce-scatter con lo stesso channel_id possono comunicare tra loro.

La forma di output è la forma di input con scatter_dimension ridotto shard_count volte. Ad esempio, se ci sono due repliche e l'operando ha rispettivamente il valore [1.0, 2.25] e [3.0, 5.25] sulle due repliche, il valore di output di questa operazione, in cui scatter_dim è 0, sarà [4.0] per la prima replica e [7.5] per la seconda replica.

ReduceWindow

Vedi anche XlaBuilder::ReduceWindow.

Applica una funzione di riduzione a tutti gli elementi in ogni finestra di una sequenza di N matrici multidimensionali, producendo una singola o una tupla di N matrici multidimensionali come output. Ogni array di output ha lo stesso numero di elementi del numero di posizioni valide della finestra. Un livello di pooling può essere espresso come ReduceWindow. Analogamente a Reduce, il valore computation applicato viene sempre passato il init_values a sinistra.

ReduceWindow(operands..., init_values..., computation, window_dimensions, window_strides, padding)

Argomenti Tipo Semantica
operands N XlaOps Una sequenza di N array multidimensionali di tipo T_0,..., T_{N-1}, ciascuno dei quali rappresenta la superficie di base su cui è posizionata la finestra.
init_values N XlaOps I valori iniziali N per la riduzione, uno per ciascuno degli operandi N. Per maggiori dettagli, vedi Ridurre.
computation XlaComputation Funzione di riduzione di tipo T_0, ..., T_{N-1}, T_0, ..., T_{N-1} -> Collate(T_0, ..., T_{N-1}), da applicare agli elementi di ciascuna finestra di tutti gli operandi di input.
window_dimensions ArraySlice<int64> array di numeri interi per i valori delle dimensioni della finestra
window_strides ArraySlice<int64> array di numeri interi per i valori dell'andatura di finestra
base_dilations ArraySlice<int64> array di numeri interi per i valori di dilatazione di base
window_dilations ArraySlice<int64> array di numeri interi per i valori di dilatazione delle finestre
padding Padding tipo di spaziatura interna per la finestra (Padding::kSame, che riempie in modo da avere la stessa forma di output dell'input se l'intervallo è 1 oppure Padding::kValid, che non usa spaziatura interna e "interrompe" la finestra quando non c'è più spazio)

Dove:

  • N deve essere maggiore o uguale a 1.
  • Tutte le matrici di input devono avere le stesse dimensioni.
  • Se N = 1, Collate(T) è T.
  • Se N > 1, Collate(T_0, ..., T_{N-1}) è una tupla di N elementi di tipo (T0,...T{N-1}).

La figura e il codice riportati di seguito mostrano un esempio di utilizzo di ReduceWindow. L'input è una matrice di dimensioni [4x6] e sia window_dimensions che window_stride_dimensions sono [2x3].

// Create a computation for the reduction (maximum).
XlaComputation max;
{
  XlaBuilder builder(client_, "max");
  auto y = builder.Parameter(0, ShapeUtil::MakeShape(F32, {}), "y");
  auto x = builder.Parameter(1, ShapeUtil::MakeShape(F32, {}), "x");
  builder.Max(y, x);
  max = builder.Build().value();
}

// Create a ReduceWindow computation with the max reduction computation.
XlaBuilder builder(client_, "reduce_window_2x3");
auto shape = ShapeUtil::MakeShape(F32, {4, 6});
auto input = builder.Parameter(0, shape, "input");
builder.ReduceWindow(
    input,
    /*init_val=*/builder.ConstantLiteral(LiteralUtil::MinValue(F32)),
    *max,
    /*window_dimensions=*/{2, 3},
    /*window_stride_dimensions=*/{2, 3},
    Padding::kValid);

L'intervallo con salto di 1 in una dimensione specifica che la posizione di una finestra nella dimensione è a 1 elemento di distanza dalla finestra adiacente. Per specificare che nessuna finestra si sovrappone tra loro, window_stride_dimensions deve essere uguale awindow_dimensions. La figura seguente illustra l'uso di due diversi valori dell'andatura. La spaziatura interna viene applicata a ogni dimensione dell'input e i calcoli sono gli stessi dell'input fornito con le dimensioni contenute dopo la spaziatura interna.

Per un esempio di spaziatura interna non banale, valuta la possibilità di calcolare il valore minimo della finestra di riduzione (il valore iniziale è MAX_FLOAT) con la dimensione 3 e superare 2 l'array di input [10000, 1000, 100, 10, 1]. La spaziatura interna di kValid calcola i valori minimi in due finestre valide: [10000, 1000, 100] e [100, 10, 1], generando l'output [100, 1]. La spaziatura interna kSame riempie innanzitutto l'array in modo che la forma dopo la riduzione della finestra sia la stessa dell'input per lo spostamento uno, aggiungendo elementi iniziali su entrambi i lati, ottenendo [MAX_VALUE, 10000, 1000, 100, 10, 1, MAX_VALUE]. L'esecuzione di reduce-window sull'array riempito opera su tre finestre [MAX_VALUE, 10000, 1000], [1000, 100, 10], [10, 1, MAX_VALUE] e rendimento [1000, 10, 1].

L'ordine di valutazione della funzione di riduzione è arbitrario e può essere non deterministico. Pertanto, la funzione di riduzione non deve essere eccessivamente sensibile alla riassociazione. Per maggiori dettagli, consulta la discussione sull'associalità nel contesto di Reduce.

ReplicaId

Vedi anche XlaBuilder::ReplicaId.

Restituisce l'ID univoco (U32 scalare) della replica.

ReplicaId()

L'ID univoco di ogni replica è un numero intero senza firma nell'intervallo [0, N), dove N è il numero di repliche. Poiché tutte le repliche eseguono lo stesso programma, una chiamata ReplicaId() nel programma restituirà un valore diverso su ogni replica.

Rimodella

Vedi anche XlaBuilder::Reshape e l'operazione Collapse.

Rimodella le dimensioni di un array in una nuova configurazione.

Reshape(operand, new_sizes) Reshape(operand, dimensions, new_sizes)

Argomenti Tipo Semantica
operand XlaOp array di tipo T
dimensions Vettore int64 ordine di compressione delle dimensioni
new_sizes Vettore int64 vettore di dimensioni di nuove dimensioni

Concettualmente, prima rimodellare un array appiattisce un vettore unidimensionale di valori di dati, quindi perfeziona questo vettore in una nuova forma. Gli argomenti di input sono un array arbitrario di tipo T, un vettore della costante in tempo di compilazione degli indici delle dimensioni e un vettore della costante in tempo di compilazione delle dimensioni delle dimensioni per il risultato. I valori nel vettore dimension, se specificati, devono essere una permutazione di tutte le dimensioni di T. Il valore predefinito se non viene specificato è {0, ..., rank - 1}. L'ordine delle dimensioni in dimensions va dalla dimensione con la variazione più lenta (la maggiore) a quella con la variazione più rapida (la più minore) nel nidificazione del loop, che comprime l'array di input in un'unica dimensione. Il vettore new_sizes determina la dimensione dell'array di output. Il valore all'indice 0 in new_sizes è la dimensione della dimensione 0, il valore all'indice 1 è la dimensione della dimensione 1 e così via. Il prodotto delle dimensioni new_size deve corrispondere al prodotto delle dimensioni delle dimensioni dell'operando. Quando perfezioni l'array compresso nell'array multidimensionale definito da new_sizes, le dimensioni in new_sizes sono ordinate dalla più bassa variabile (maggiore) a quella più veloce (la più piccola).

Ad esempio, supponiamo che v sia un array di 24 elementi:

let v = f32[4x2x3] { { {10, 11, 12}, {15, 16, 17} },
                    { {20, 21, 22}, {25, 26, 27} },
                    { {30, 31, 32}, {35, 36, 37} },
                    { {40, 41, 42}, {45, 46, 47} } };

In-order collapse:
let v012_24 = Reshape(v, {0,1,2}, {24});
then v012_24 == f32[24] {10, 11, 12, 15, 16, 17, 20, 21, 22, 25, 26, 27,
                         30, 31, 32, 35, 36, 37, 40, 41, 42, 45, 46, 47};

let v012_83 = Reshape(v, {0,1,2}, {8,3});
then v012_83 == f32[8x3] { {10, 11, 12}, {15, 16, 17},
                          {20, 21, 22}, {25, 26, 27},
                          {30, 31, 32}, {35, 36, 37},
                          {40, 41, 42}, {45, 46, 47} };

Out-of-order collapse:
let v021_24 = Reshape(v, {1,2,0}, {24});
then v012_24 == f32[24]  {10, 20, 30, 40, 11, 21, 31, 41, 12, 22, 32, 42,
                          15, 25, 35, 45, 16, 26, 36, 46, 17, 27, 37, 47};

let v021_83 = Reshape(v, {1,2,0}, {8,3});
then v021_83 == f32[8x3] { {10, 20, 30}, {40, 11, 21},
                          {31, 41, 12}, {22, 32, 42},
                          {15, 25, 35}, {45, 16, 26},
                          {36, 46, 17}, {27, 37, 47} };


let v021_262 = Reshape(v, {1,2,0}, {2,6,2});
then v021_262 == f32[2x6x2] { { {10, 20}, {30, 40},
                              {11, 21}, {31, 41},
                              {12, 22}, {32, 42} },
                             { {15, 25}, {35, 45},
                              {16, 26}, {36, 46},
                              {17, 27}, {37, 47} } };

Nel caso speciale, la rimodellazione può trasformare un array di un singolo elemento in uno scalare e viceversa. Ad esempio:

Reshape(f32[1x1] { {5} }, {0,1}, {}) == 5;
Reshape(5, {}, {1,1}) == f32[1x1] { {5} };

Indietro

Vedi anche XlaBuilder::Rev.

Rev(operand, dimensions)

Argomenti Tipo Semantica
operand XlaOp array di tipo T
dimensions ArraySlice<int64> dimensioni da invertire

Inverte l'ordine degli elementi nell'array operand lungo il valore dimensions specificato, generando un array di output della stessa forma. Ogni elemento dell'array di operandi in un indice multidimensionale viene archiviato nell'array di output in un indice trasformato. L'indice multidimensionale viene trasformato invertendo l'indice in ogni dimensione da invertire (ovvero, se una dimensione di dimensione N è una delle dimensioni invertite, il suo indice i viene trasformato in N - 1 - i).

L'operazione Rev può essere utilizzata per invertire l'array di peso della convoluzione lungo le due dimensioni della finestra durante il calcolo del gradiente nelle reti neurali.

RngNormal

Vedi anche XlaBuilder::RngNormal.

Crea un output di una data forma con numeri casuali generati seguendo la \(N(\mu, \sigma)\) distribuzione normale. I parametri \(\mu\) e \(\sigma\)e la forma di output devono avere un tipo elementale in virgola mobile. I parametri devono anche avere valori scalari.

RngNormal(mu, sigma, shape)

Argomenti Tipo Semantica
mu XlaOp Scalare di tipo T che specifica la media dei numeri generati
sigma XlaOp Scalare di tipo T che specifica la deviazione standard della
shape Shape Forma di output di tipo T

RngUniform

Vedi anche XlaBuilder::RngUniform.

Crea un output di una data forma con numeri casuali generati seguendo la distribuzione uniforme nell'intervallo \([a,b)\). I parametri e il tipo di elemento di output devono essere di tipo booleano, integrale o in virgola mobile e i tipi devono essere coerenti. I backend di CPU e GPU attualmente supportano solo F64, F32, F16, BF16, S64, U64, S32 e U32. Inoltre, i parametri devono avere un valore scalare. Se \(b <= a\) il risultato è definito dall'implementazione.

RngUniform(a, b, shape)

Argomenti Tipo Semantica
a XlaOp Scalare di tipo T che specifica il limite inferiore di intervallo
b XlaOp Scalare di tipo T che specifica il limite superiore dell'intervallo
shape Shape Forma di output di tipo T

RngBitGenerator

Genera un output con una determinata forma riempita di bit casuali uniformi utilizzando l'algoritmo specificato (o valore predefinito del backend) e restituisce uno stato aggiornato (con la stessa forma dello stato iniziale) e i dati casuali generati.

Lo stato iniziale è lo stato iniziale dell'attuale generazione del numero casuale. La forma richiesta e i valori validi dipendono dall'algoritmo utilizzato.

È garantito che l'output sia una funzione deterministica dello stato iniziale, ma non sia garantito che sia deterministico tra backend e versioni diverse del compilatore.

RngBitGenerator(algorithm, key, shape)

Argomenti Tipo Semantica
algorithm RandomAlgorithm utilizzare l'algoritmo PRNG.
initial_state XlaOp Stato iniziale dell'algoritmo PRNG.
shape Shape Forma di output per i dati generati.

Valori disponibili per algorithm:

A dispersione

L'operazione di dispersione XLA genera una sequenza di risultati corrispondenti ai valori dell'array di input operands, con diverse sezioni (in indici specificati da scatter_indices) aggiornate con la sequenza di valori in updates utilizzando update_computation.

Vedi anche XlaBuilder::Scatter.

scatter(operands..., scatter_indices, updates..., update_computation, index_vector_dim, update_window_dims, inserted_window_dims, scatter_dims_to_operand_dims)

Argomenti Tipo Semantica
operands Sequenza di N XlaOp N array dei tipi T_0, ..., T_N in cui essere distribuiti.
scatter_indices XlaOp Array contenente gli indici iniziali delle sezioni in cui devono essere sparse.
updates Sequenza di N XlaOp N array di tipo T_0, ..., T_N. updates[i] contiene i valori che devono essere utilizzati per distribuire operands[i].
update_computation XlaComputation Calcolo da utilizzare per combinare i valori esistenti nell'array di input e gli aggiornamenti durante la dispersione. Questo calcolo deve essere di tipo T_0, ..., T_N, T_0, ..., T_N -> Collate(T_0, ..., T_N).
index_vector_dim int64 La dimensione in scatter_indices che contiene gli indici iniziali.
update_window_dims ArraySlice<int64> L'insieme di dimensioni in forma updates che sono dimensioni della finestra.
inserted_window_dims ArraySlice<int64> L'insieme di dimensioni finestra da inserire nella forma updates.
scatter_dims_to_operand_dims ArraySlice<int64> Una mappa delle dimensioni dagli indici a dispersione allo spazio dell'indice dell'operando. Questo array viene interpretato come la mappatura di i a scatter_dims_to_operand_dims[i] . Deve essere individuale e totale.
indices_are_sorted bool Indica se è garantito che gli indici vengano ordinati dal chiamante.
unique_indices bool Indica se il chiamante garantisce l'unicità degli indici.

Dove:

  • N deve essere maggiore o uguale a 1.
  • operands[0], ..., operands[N-1] devono avere tutti le stesse dimensioni.
  • updates[0], ..., updates[N-1] devono avere tutti le stesse dimensioni.
  • Se N = 1, Collate(T) è T.
  • Se N > 1, Collate(T_0, ..., T_N) è una tupla di elementi N di tipo T.

Se index_vector_dim è uguale a scatter_indices.rank, consideriamo implicitamente scatter_indices come una dimensione 1 finale.

Definiamo update_scatter_dims di tipo ArraySlice<int64> come l'insieme di dimensioni in forma updates che non sono in update_window_dims, in ordine crescente.

Gli argomenti di dispersione devono seguire questi vincoli:

  • Ogni array updates deve avere il ranking update_window_dims.size + scatter_indices.rank - 1.

  • I limiti della dimensione i in ogni array updates devono essere conformi a quanto segue:

    • Se i è presente in update_window_dims (ovvero è uguale a update_window_dims[k] per alcuni k), il limite della dimensione i in updates non deve superare il limite corrispondente di operand dopo la valutazione di inserted_window_dims (ovvero adjusted_window_bounds[k], dove adjusted_window_bounds contiene i limiti di operand con i limiti degli indici inserted_window_dims rimossi).
    • Se i è presente in update_scatter_dims (ovvero è uguale a update_scatter_dims[k] per alcuni k), il limite di dimensione i in updates deve essere uguale al limite corrispondente di scatter_indices, ignorando index_vector_dim (ad esempio scatter_indices.shape.dims[k], se k < index_vector_dim e scatter_indices.shape.dims[k+1] altrimenti).
  • update_window_dims deve essere in ordine crescente, non deve avere numeri di dimensione ripetuti e deve essere compreso nell'intervallo [0, updates.rank).

  • inserted_window_dims deve essere in ordine crescente, non deve avere numeri di dimensione ripetuti e deve essere compreso nell'intervallo [0, operand.rank).

  • operand.rank deve corrispondere alla somma di update_window_dims.size e inserted_window_dims.size.

  • scatter_dims_to_operand_dims.size deve essere uguale a scatter_indices.shape.dims[index_vector_dim] e i suoi valori devono essere compresi nell'intervallo [0, operand.rank).

Per un determinato indice U in ogni array updates, l'indice corrispondente I nell'array operands corrispondente in cui deve essere applicato l'aggiornamento viene calcolato nel seguente modo:

  1. Lascia che G = { U[k] per k in update_scatter_dims }. Usa G per cercare un vettore di indice S nell'array scatter_indices in modo che S[i] = scatter_indices[Combina(G, i)] dove Combina(A, b) inserisce b nelle posizioni index_vector_dim in A.
  2. Crea un indice Sin in operand utilizzando S suddividendo S nella mappa scatter_dims_to_operand_dims. In forma più formale:
    1. Sin[scatter_dims_to_operand_dims[k]] = S[k] se k < scatter_dims_to_operand_dims.size.
    2. Sin[_] = 0 altrimenti.
  3. Crea un indice Win in ogni array operands distribuendo gli indici in corrispondenza di update_window_dims in U in base a inserted_window_dims. In forma più formale:
    1. Win[window_dims_to_operand_dims(k)] = U[k] se k si trova in update_window_dims, dove window_dims_to_operand_dims è la funzione monotonica con il dominio [0, update_window_dims.size) e l'intervallo [0, operand.rank) \ inserted_window_dims. Ad esempio, se update_window_dims.size è 4, operand.rank è 6 e inserted_window_dims è {0, 2} allora window_dims_to_operand_dims è {01, 13, 24, 35}.
    2. Win[_] = 0 altrimenti.
  4. I è Win + Sin, dove + è l'aggiunta a livello di elemento.

Riassumendo, l'operazione di dispersione può essere definita come segue.

  • Inizializza output con operands, ovvero per tutti gli indici J, per tutti gli indici O nell'array operands[J]:
    output[J][O] = operands[J][O]
  • Per ogni indice U nell'array updates[J] e l'indice corrispondente O nell'array operand[J], se O è un indice valido per output:
    (output[0][O], ..., output[N-1][O]) =update_computation(output[0][O], ..., ,output[N-1][O],updates[0][U], ...,updates[N-1][U])

L'ordine in cui vengono applicati gli aggiornamenti non è deterministico. Di conseguenza, quando più indici in updates fanno riferimento allo stesso indice in operands, il valore corrispondente in output sarà non deterministico.

Tieni presente che il primo parametro passato a update_computation sarà sempre il valore corrente dell'array output, mentre il secondo sarà sempre il valore dell'array updates. Questo è importante specificamente per i casi in cui update_computation non è commutativo.

Se indices_are_sorted è impostato su true, XLA può presumere che i start_indices vengano ordinati (in ordine crescente (start_index_map)) dall'utente. Se non lo sono, la semantica è l'implementazione definita.

Se unique_indices è impostato su true, XLA può presumere che tutti gli elementi distribuiti siano univoci. Quindi XLA potrebbe usare operazioni non atomiche. Se unique_indices è impostato su true e gli indici di dispersione non sono univoci, l'implementazione è definita dalla semantica.

In modo informale, l'operazione di dispersione può essere vista come un'inversa dell'operazione di raccolta, ad esempio l'operazione di dispersione aggiorna gli elementi nell'input che vengono estratti dall'operazione di raccolta corrispondente.

Per una descrizione informale dettagliata ed esempi, consulta la sezione "Descrizione informale" in Gather.

Seleziona

Vedi anche XlaBuilder::Select.

Crea un array di output dagli elementi di due array di input, in base ai valori di un array di predicati.

Select(pred, on_true, on_false)

Argomenti Tipo Semantica
pred XlaOp array di tipo PRED
on_true XlaOp array di tipo T
on_false XlaOp array di tipo T

Gli array on_true e on_false devono avere la stessa forma. Questa è anche la forma dell'array di output. L'array pred deve avere la stessa dimensionalità di on_true e on_false, con il tipo di elemento PRED.

Per ogni elemento P di pred, l'elemento corrispondente dell'array di output viene recuperato da on_true se il valore di P è true e da on_false se il valore di P è false. Come forma limitata di trasmissione, pred può essere un tipo scalare di tipo PRED. In questo caso, l'array di output viene preso interamente da on_true se pred è true e da on_false se pred è false.

Esempio con pred non scalabile:

let pred: PRED[4] = {true, false, false, true};
let v1: s32[4] = {1, 2, 3, 4};
let v2: s32[4] = {100, 200, 300, 400};
==>
Select(pred, v1, v2) = s32[4]{1, 200, 300, 4};

Esempio con pred scalare:

let pred: PRED = true;
let v1: s32[4] = {1, 2, 3, 4};
let v2: s32[4] = {100, 200, 300, 400};
==>
Select(pred, v1, v2) = s32[4]{1, 2, 3, 4};

Le selezioni tra tuple sono supportate. A questo scopo le tuple sono considerate tipi scalari. Se on_true e on_false sono tuple (che devono avere la stessa forma), pred deve essere uno scalare di tipo PRED.

SelectAndScatter

Vedi anche XlaBuilder::SelectAndScatter.

Questa operazione può essere considerata come un'operazione composita che prima calcola ReduceWindow nell'array operand per selezionare un elemento da ogni finestra, poi disperde l'array source verso gli indici degli elementi selezionati per costruire un array di output con la stessa forma dell'array di operandi. La funzione select binaria viene utilizzata per selezionare un elemento da ogni finestra applicandolo a ogni finestra e viene chiamata con la proprietà secondo cui il vettore di indice del primo parametro è lessicograficamente inferiore al vettore di indice del secondo parametro. La funzione select restituisce true se il primo parametro è selezionato e false se il secondo parametro è selezionato e la funzione deve mantenere la transitività (ovvero, se select(a, b) e select(b, c) sono true, anche select(a, c) è true), in modo che l'elemento selezionato non dipenda dall'ordine degli elementi attraversati per una determinata finestra.

La funzione scatter viene applicata a ciascun indice selezionato nell'array di output. Sono necessari due parametri scalari:

  1. Valore corrente nell'indice selezionato nell'array di output
  2. Il valore di dispersione di source che si applica all'indice selezionato

Combina i due parametri e restituisce un valore scalare utilizzato per aggiornare il valore nell'indice selezionato nell'array di output. Inizialmente, tutti gli indici dell'array di output sono impostati su init_value.

L'array di output ha la stessa forma dell'array operand e l'array source deve avere la stessa forma del risultato dell'applicazione di un'operazione ReduceWindow sull'array operand. SelectAndScatter può essere usato per retropropagare i valori del gradiente per un livello di pooling in una rete neurale.

SelectAndScatter(operand, select, window_dimensions, window_strides, padding, source, init_value, scatter)

Argomenti Tipo Semantica
operand XlaOp array di tipo T su cui scorrono le finestre
select XlaComputation calcolo binario di tipo T, T -> PRED, da applicare a tutti gli elementi di ciascuna finestra; restituisce true se è selezionato il primo parametro e false se è selezionato il secondo parametro.
window_dimensions ArraySlice<int64> array di numeri interi per i valori delle dimensioni della finestra
window_strides ArraySlice<int64> array di numeri interi per i valori dell'andatura di finestra
padding Padding tipo di spaziatura interna per la finestra (Spaziatura interna::kSame o Spaziatura interna::kValid)
source XlaOp array di tipo T con i valori da dispersione
init_value XlaOp valore scalare di tipo T per il valore iniziale dell'array di output
scatter XlaComputation calcolo binario del tipo T, T -> T, per applicare ogni elemento di origine scatter con il relativo elemento di destinazione.

La figura seguente mostra esempi di utilizzo di SelectAndScatter, con la funzione select che calcola il valore massimo tra i parametri. Tieni presente che quando le finestre si sovrappongono, come nella figura (2) di seguito, un indice dell'array operand può essere selezionato più volte da finestre diverse. Nella figura, l'elemento con il valore 9 viene selezionato da entrambe le finestre principali (blu e rosso) e la funzione di addizione binaria scatter produce l'elemento di output con il valore 8 (2 + 6).

L'ordine di valutazione della funzione scatter è arbitrario e può essere non deterministico. Di conseguenza, la funzione scatter non deve essere eccessivamente sensibile alla riassociazione. Per maggiori dettagli, consulta la discussione sull'associalità nel contesto di Reduce.

Invia

Vedi anche XlaBuilder::Send.

Send(operand, channel_handle)

Argomenti Tipo Semantica
operand XlaOp dati da inviare (array di tipo T)
channel_handle ChannelHandle Identificatore univoco per ogni coppia di invio/ricezione

Invia i dati dell'operando specificati a un'istruzione Recv in un altro calcolo che condivide lo stesso handle del canale. Non restituisce alcun dato.

Analogamente all'operazione Recv, l'API client dell'operazione Send rappresenta la comunicazione sincrona ed è scomposta internamente in due istruzioni HLO (Send e SendDone) per consentire i trasferimenti di dati asincroni. Vedi anche HloInstruction::CreateSend e HloInstruction::CreateSendDone.

Send(HloInstruction operand, int64 channel_id)

Avvia un trasferimento asincrono dell'operando alle risorse allocate dall'istruzione Recv con lo stesso ID canale. Restituisce un contesto, che viene utilizzato da una seguente istruzione SendDone per attendere il completamento del trasferimento di dati. Il contesto è una tupla di {operando (forma), identificatore di richiesta (U32)} e può essere utilizzato solo da un'istruzione SendDone.

SendDone(HloInstruction context)

Dato un contesto creato da un'istruzione Send, attende il completamento del trasferimento dei dati. L'istruzione non restituisce alcun dato.

Programmazione delle istruzioni del canale

L'ordine di esecuzione delle 4 istruzioni per ciascun canale (Recv, RecvDone, Send, SendDone) è il seguente.

  • L'evento Recv si verifica prima del giorno Send
  • L'evento Send si verifica prima del giorno RecvDone
  • L'evento Recv si verifica prima del giorno RecvDone
  • L'evento Send si verifica prima del giorno SendDone

Quando i compilatori di backend generano una pianificazione lineare per ogni calcolo che comunica tramite le istruzioni del canale, non devono esserci cicli tra i calcoli. Ad esempio, le programmazioni riportate di seguito portano a deadlock.

Sezione

Vedi anche XlaBuilder::Slice.

La sezione permette di estrarre un sottoarray dall'array di input. Il sottoarray ha lo stesso ranking dell'input e contiene i valori all'interno di un riquadro di delimitazione all'interno dell'array di input in cui le dimensioni e gli indici del riquadro di delimitazione vengono forniti come argomenti per l'operazione sezione.

Slice(operand, start_indices, limit_indices, strides)

Argomenti Tipo Semantica
operand XlaOp Array N dimensionale di tipo T
start_indices ArraySlice<int64> Elenco di N numeri interi contenenti gli indici iniziali della sezione per ogni dimensione. I valori devono essere maggiori o uguali a zero.
limit_indices ArraySlice<int64> Elenco di N numeri interi contenenti gli indici finali (esclusivi) della sezione per ogni dimensione. Ogni valore deve essere maggiore o uguale al rispettivo valore di start_indices per la dimensione e minore o uguale alla dimensione della dimensione.
strides ArraySlice<int64> Elenco di N numeri interi che determinano l'intervallo di input della sezione. La sezione seleziona ogni elemento strides[d] nella dimensione d.

Esempio unidimensionale:

let a = {0.0, 1.0, 2.0, 3.0, 4.0}
Slice(a, {2}, {4}) produces:
  {2.0, 3.0}

Esempio bidimensionale:

let b =
 { {0.0,  1.0,  2.0},
   {3.0,  4.0,  5.0},
   {6.0,  7.0,  8.0},
   {9.0, 10.0, 11.0} }

Slice(b, {2, 1}, {4, 3}) produces:
  { { 7.0,  8.0},
    {10.0, 11.0} }

Ordinamento

Vedi anche XlaBuilder::Sort.

Sort(operands, comparator, dimension, is_stable)

Argomenti Tipo Semantica
operands ArraySlice<XlaOp> Gli operandi da ordinare.
comparator XlaComputation Il calcolo di confronto da utilizzare.
dimension int64 La dimensione in base alla quale ordinare.
is_stable bool Indica se utilizzare l'ordinamento stabile.

Se viene fornito un solo operando:

  • Se l'operando è un tensore di rango-1 (una matrice), il risultato è una matrice ordinata. Se vuoi ordinare l'array in ordine crescente, il comparatore dovrebbe eseguire un confronto minore di. Formalmente, dopo l'ordinamento, l'array contiene per tutte le posizioni dell'indice i, j con i < j che comparator(value[i], value[j]) = comparator(value[j], value[i]) = false o comparator(value[i], value[j]) = true.

  • Se l'operando ha un ranking più elevato, viene ordinato in base alla dimensione fornita. Ad esempio, per un tensore di grado 2 (una matrice), un valore della dimensione 0 ordina in modo indipendente ogni colonna, mentre un valore della dimensione 1 ordina in modo indipendente ogni riga. Se non viene fornito alcun numero di dimensione, per impostazione predefinita viene scelta l'ultima dimensione. Per la dimensione ordinata, si applica lo stesso ordine di ordinamento in caso di ranking 1.

Se vengono forniti gli operandi n > 1:

  • Tutti gli operandi n devono essere tensori con le stesse dimensioni. I tipi di elementi dei tensori possono essere diversi.

  • Tutti gli operandi sono ordinati insieme, non individualmente. Concettualmente gli operandi vengono trattati come una tupla. Quando verifichi se gli elementi di ogni operando nelle posizioni di indice i e j devono essere scambiati, il comparatore viene chiamato con i parametri scalari 2 * n, dove il parametro 2 * k corrisponde al valore nella posizione i dall'operando k-th, mentre il parametro 2 * k + 1 corrisponde al valore nella posizione j dall'operando k-th. Di solito, il comparatore confronta così i parametri 2 * k e 2 * k + 1 tra loro e possibilmente utilizza altre coppie di parametri come deviatori.

  • Il risultato è una tupla composta dagli operandi in ordine ordinato (lungo la dimensione fornita, come sopra). L'operando i-th della tupla corrisponde all'operando i-th di Ordina.

Ad esempio, se sono presenti tre operandi operand0 = [3, 1], operand1 = [42, 50], operand2 = [-3.0, 1.1] e il comparatore confronta solo i valori di operand0 con minore di, l'output di questo ordinamento è la tupla ([1, 3], [50, 42], [1.1, -3.0]).

Se il criterio is_stable è impostato su true, viene garantito che l'ordinamento sia stabile, ovvero, se sono presenti elementi considerati uguali dall'elemento di confronto, l'ordine relativo dei valori uguali viene mantenuto. Due elementi e1 e e2 sono uguali se e solo se comparator(e1, e2) = comparator(e2, e1) = false. Per impostazione predefinita, il valore di is_stable è false.

Transpose

Vedi anche l'operazione tf.reshape.

Transpose(operand)

Argomenti Tipo Semantica
operand XlaOp L'operando da trasporre.
permutation ArraySlice<int64> Come attivare le dimensioni.

Disattiva le dimensioni dell'operando con la permutazione specificata, quindi ∀ i . 0 ≤ i < rank ⇒ input_dimensions[permutation[i]] = output_dimensions[i].

Uguale a Rimodellazione(operando, permutazione, Permute(permutazione, operand.shape.dimensions)).

TriangularSolve

Vedi anche XlaBuilder::TriangularSolve.

Risolve i sistemi di equazioni lineari con matrici di coefficienti triangolari inferiore o superiore per sostituzione in avanti o indietro. Trasmettendo in base alle dimensioni principali, questa routine risolve uno dei sistemi matriciali op(a) * x = b, o x * op(a) = b, per la variabile x, in base a a e b, dove op(a) è op(a) = a, op(a) = Transpose(a) o op(a) = Conj(Transpose(a)).

TriangularSolve(a, b, left_side, lower, unit_diagonal, transpose_a)

Argomenti Tipo Semantica
a XlaOp un array di livello > 2 di tipo complesso o con virgola mobile con forma [..., M, M].
b XlaOp un array di ranking > 2 dello stesso tipo con forma [..., M, K] se left_side è true, in caso contrario [..., K, M].
left_side bool indica se risolvere un sistema nel formato op(a) * x = b (true) o x * op(a) = b (false).
lower bool se utilizzare il triangolo superiore o inferiore di a.
unit_diagonal bool Se true, si presume che gli elementi diagonali di a siano 1 e non siano accessibili.
transpose_a Transpose se utilizzare a così com'è, trasporlo o prendere la sua trasposizione coniugata.

I dati di input vengono letti solo dal triangolo inferiore/superiore di a, a seconda del valore di lower. I valori dell'altro triangolo vengono ignorati. I dati di output vengono restituiti nello stesso triangolo; i valori nell'altro triangolo sono definiti dall'implementazione e possono essere qualsiasi cosa.

Se il ranking di a e b è maggiore di 2, vengono trattati come batch di matrici, dove tutte le dimensioni tranne le 2 secondarie sono dimensioni batch. a e b devono avere dimensioni batch uguali.

Tupla

Vedi anche XlaBuilder::Tuple.

Una tupla contenente un numero variabile di handle di dati, ognuno dei quali ha una propria forma.

È simile a std::tuple in C++. Concettualmente:

let v: f32[10] = f32[10]{0, 1, 2, 3, 4, 5, 6, 7, 8, 9};
let s: s32 = 5;
let t: (f32[10], s32) = tuple(v, s);

Le tuple possono essere scomposte (con accesso) tramite l'operazione GetTupleElement.

La funzione

Vedi anche XlaBuilder::While.

While(condition, body, init)

Argomenti Tipo Semantica
condition XlaComputation XlaComputation di tipo T -> PRED che definisce la condizione di terminazione di theloop.
body XlaComputation XlaComputation di tipo T -> T che definisce il corpo del loop.
init T Valore iniziale del parametro di condition e body.

Esegue in sequenza body fino all'esito negativo dell'condition. Questo processo è simile a un tipico loop some in molte altre lingue, ad eccezione delle differenze e delle restrizioni elencate di seguito.

  • Un nodo While restituisce un valore di tipo T, che è il risultato dell'ultima esecuzione di body.
  • La forma del tipo T è determinata in modo statico e deve essere la stessa in tutte le iterazioni.

I parametri T dei calcoli vengono inizializzati con il valore init nella prima iterazione e vengono aggiornati automaticamente al nuovo risultato di body in ogni iterazione successiva.

Un caso d'uso principale del nodo While è l'implementazione dell'esecuzione ripetuta dell'addestramento nelle reti neurali. Lo pseudocodice semplificato è mostrato di seguito con un grafico che rappresenta il calcolo. Puoi trovare il codice in while_test.cc. Il tipo T in questo esempio è un Tuple costituito da un int32 per il conteggio delle iterazioni e un vector[10] per l'accumulatore. Per 1000 iterazioni, il loop continua ad aggiungere un vettore costante all'accumulatore.

// Pseudocode for the computation.
init = {0, zero_vector[10]} // Tuple of int32 and float[10].
result = init;
while (result(0) < 1000) {
  iteration = result(0) + 1;
  new_vector = result(1) + constant_vector[10];
  result = {iteration, new_vector};
}