Glossário de machine learning

Neste glossário, definimos os termos gerais de machine learning, além de termos específicos do TensorFlow.

R

ablação

Uma técnica para avaliar a importância de um recurso ou componente por meio da remoção temporária dele de um modelo. Em seguida, treina novamente o modelo sem esse recurso ou componente e, se o modelo retreinado tiver um desempenho significativamente pior, é provavelmente importante que o recurso ou componente removido seja importante.

Por exemplo, suponha que você treine um modelo de classificação em 10 recursos e atinja 88% de precisão no conjunto de teste. Para verificar a importância do primeiro recurso, treine novamente o modelo usando apenas os outros nove recursos. Se o modelo treinado novamente apresentar um desempenho significativamente pior (por exemplo, precisão de 55%), o atributo removido provavelmente foi importante. Por outro lado, se o modelo treinado novamente tiver um desempenho igualmente bom, esse atributo provavelmente não era tão importante.

A ablação também pode ajudar a determinar a importância de:

  • componentes maiores, como um subsistema inteiro de um sistema de ML maior
  • Processos ou técnicas, como uma etapa de pré-processamento de dados.

Nos dois casos, você observaria como o desempenho do sistema muda (ou não muda) depois da remoção do componente.

Teste A/B

É uma maneira estatística de comparar duas (ou mais) técnicas: A e B. Normalmente, A é uma técnica existente e a B é uma nova. O teste A/B não só determina qual técnica tem melhor performance, mas também se a diferença é estatisticamente significativa.

O teste A/B geralmente compara uma única métrica em duas técnicas. Por exemplo, como a precisão do modelo se compara a duas técnicas? No entanto, o teste A/B também pode comparar qualquer número finito de métricas.

chip de acelerador

#GoogleCloud

Uma categoria de componentes de hardware especializados projetada para executar os principais cálculos necessários para algoritmos de aprendizado profundo.

Os chips de aceleradores, ou apenas aceleradores, podem aumentar significativamente a velocidade e a eficiência das tarefas de treinamento e inferência em comparação com uma CPU de uso geral. Elas são ideais para o treinamento de redes neurais e tarefas semelhantes com uso intensivo de computação.

Estes são alguns exemplos de chips de aceleração:

  • Unidades de Processamento de Tensor do Google (TPUs) com hardware dedicado para aprendizado profundo.
  • As GPUs da NVIDIA, embora inicialmente projetadas para processamento gráfico, são projetadas para permitir o processamento paralelo, o que pode aumentar significativamente a velocidade de processamento.

accuracy

#fundamentals

O número de previsões de classificação corretas dividido pelo número total de previsões. Ou seja:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Por exemplo, um modelo que fizesse 40 previsões corretas e 10 incorretas teria uma acurácia de:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

A classificação binária fornece nomes específicos para as diferentes categorias de previsões corretas e previsões incorretas. Assim, a fórmula de precisão para classificação binária é a seguinte:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

onde:

Compare e contraste a precisão com precisão e recall.

ação

#rl

No aprendizado por reforço, o mecanismo pelo qual o agente faz a transição entre estados do ambiente. O agente escolhe a ação usando uma política.

função de ativação

#fundamentals

Uma função que permite que as redes neurais aprendam relações não lineares (complexas) entre os atributos e o rótulo.

Funções de ativação conhecidas incluem:

Os gráficos das funções de ativação nunca são linhas retas únicas. Por exemplo, o gráfico da função de ativação ReLU consiste em duas linhas retas:

Um gráfico cartesiano de duas linhas. A primeira linha tem um valor y constante de 0, percorrendo o eixo x de -infinito,0 a 0,-0.
          A segunda linha começa em 0,0. Essa linha tem uma inclinação de +1, portanto, ela vai de 0,0 a +infinito,+infinito.

Um gráfico da função de ativação sigmoide é semelhante a este:

Um gráfico curva bidimensional com valores x que abrangem o domínio -infinito a +positivo, enquanto os valores y abrangem o intervalo de quase 0 a quase 1. Quando x é 0, y é 0,5. A inclinação da curva é sempre positiva, com a maior inclinação em 0,0,5 e diminuindo gradualmente as inclinações à medida que o valor absoluto de x aumenta.

aprendizado ativo

Uma abordagem de treinamento em que o algoritmo escolhe alguns dos dados com os quais aprende. O aprendizado ativo é particularmente valioso quando os exemplos rotulados são escassos ou caros de obter. Em vez de procurar cegamente uma gama diversificada de exemplos rotulados, um algoritmo de aprendizado ativo procura seletivamente o intervalo específico de exemplos de que precisa para aprender.

AdaGrad

Um sofisticado algoritmo de gradiente descendente que redimensiona os gradientes de cada parâmetro, fornecendo efetivamente a cada parâmetro uma taxa de aprendizado independente. Para uma explicação completa, consulte este documento do AdaGrad.

agente

#rl

No aprendizado por reforço, a entidade que usa uma política para maximizar o retorno esperado recebido da transição entre estados do ambiente.

De modo mais geral, um agente é um software que planeja e executa de maneira autônoma uma série de ações em busca de uma meta, com capacidade de se adaptar às mudanças no ambiente. Por exemplo, agentes baseados em LLM podem usar o LLM para gerar um plano em vez de aplicar uma política de aprendizado por reforço.

agrupamento aglomerativo

#clustering

Consulte clustering hierárquico.

detecção de anomalias

Processo de identificação de outliers. Por exemplo, se a média de um determinado recurso for 100 com desvio padrão de 10, a Detecção de anomalias sinalizará o valor 200 como suspeito.

AR

Abreviação de realidade aumentada.

área sob a curva PR

Consulte PR AUC (área sob a curva PR).

área sob a curva ROC

Consulte AUC (área sob a curva ROC).

inteligência geral artificial

Um mecanismo não humano que demonstra uma ampla variedade de resolução de problemas, criatividade e adaptabilidade. Por exemplo, um programa que demonstre inteligência geral artificial pode traduzir textos, compor sinfonias e se destacar em jogos que ainda não foram inventados.

inteligência artificial

#fundamentals

Um programa ou model não humano que pode resolver tarefas sofisticadas. Por exemplo, programas ou modelos que traduzem textos ou que identificam doenças com base em imagens radiológicas usam inteligência artificial.

Formalmente, o machine learning é um subcampo da inteligência artificial. No entanto, nos últimos anos, algumas organizações começaram a usar os termos inteligência artificial e machine learning de forma intercambiável.

Attention,

#language

Um mecanismo usado em uma rede neural que indica a importância de uma determinada palavra ou parte de uma palavra. A atenção compacta a quantidade de informações que um modelo precisa para prever o próximo token/palavra. Um mecanismo de atenção típico pode consistir em uma soma ponderada sobre um conjunto de entradas, em que o peso de cada entrada é calculado por outra parte da rede neural.

Consulte também a autoatenção e a autoatenção de várias cabeças, que são os elementos básicos dos Transformers.

atributo

#fairness

Sinônimo de feature.

Na imparcialidade de machine learning, os atributos geralmente se referem a características pertencentes a indivíduos.

amostragem de atributos

#df

Uma tática para treinar uma floresta de decisão em que cada árvore de decisão considera apenas um subconjunto aleatório de atributos possíveis ao aprender a condição. Geralmente, um subconjunto diferente de recursos é amostrado para cada . Por outro lado, ao treinar uma árvore de decisão sem amostragem de atributos, todos os atributos possíveis são considerados para cada nó.

AUC (área sob a curva ROC)

#fundamentals

Um número entre 0,0 e 1,0 que representa a capacidade de um modelo de classificação binária de separar classes positivas de classes negativas. Quanto mais próxima a AUC estiver de 1, melhor será a capacidade do modelo de separar as classes umas das outras.

Por exemplo, a ilustração a seguir mostra um modelo de classificador que separa perfeitamente as classes positivas (ovais verdes) das classes negativas (retângulos roxos). Esse modelo irrealista tem uma AUC de 1,0:

Uma linha numérica com oito exemplos positivos em um lado e nove exemplos negativos do outro.

Por outro lado, a ilustração a seguir mostra os resultados de um modelo de classificador que gerou resultados aleatórios. Este modelo tem uma AUC de 0,5:

Uma reta numérica com seis exemplos positivos e seis exemplos negativos.
          A sequência de exemplos é positivo, negativo,
          positivo, negativo, positivo, negativo, positivo, negativo, positivo
          negativo, positivo, negativo.

Sim, o modelo anterior tem uma AUC de 0,5, não 0,0.

A maioria dos modelos está entre os dois extremos. Por exemplo, o modelo a seguir separa um pouco os positivos dos negativos e, portanto, tem uma AUC entre 0,5 e 1,0:

Uma reta numérica com seis exemplos positivos e seis exemplos negativos.
          A sequência de exemplos é negativo, negativo, negativo, negativo, positivo, negativo, positivo, positivo, negativo, positivo, positivo.

A AUC ignora qualquer valor definido como limite de classificação. Em vez disso, a AUC considera todos os limiares de classificação possíveis.

realidade aumentada

#image

Uma tecnologia que sobrepõe uma imagem gerada por computador à visão do usuário do mundo real, oferecendo assim uma visão composta.

codificador automático

#language
#image

Um sistema que aprende a extrair as informações mais importantes da entrada. Os codificadores automáticos são uma combinação de codificador e decodificador. Os codificadores automáticos usam o seguinte processo de duas etapas:

  1. O codificador mapeia a entrada para um formato de dimensão inferior (intermediário) com perdas (normalmente) com perda.
  2. O decodificador cria uma versão com perda da entrada original mapeando o formato de dimensão inferior para o formato de entrada original de dimensão superior.

Os codificadores automáticos são treinados de ponta a ponta fazendo com que o decodificador tente reconstruir o mais próximo possível a entrada original a partir do formato intermediário do codificador. Como o formato intermediário é menor (menor dimensão) que o formato original, o codificador automático é forçado a aprender quais informações na entrada são essenciais, e a saída não será perfeitamente idêntica à entrada.

Exemplo:

  • Se os dados de entrada forem um gráfico, a cópia não exata será semelhante ao gráfico original, mas um pouco modificada. Talvez a cópia não exata remova o ruído da imagem original ou preencha alguns pixels ausentes.
  • Se os dados de entrada forem texto, um codificador automático vai gerar um novo texto que imita o texto original, mas não é idêntico.

Consulte também codificadores automáticos variáveis.

viés de automação

#fairness

Quando um tomador de decisões humano favorece recomendações feitas por um sistema automatizado de tomada de decisão em vez de informações feitas sem automação, mesmo quando o sistema automatizado comete erros.

AutoML

Qualquer processo automatizado para criar modelos de machine learning. O AutoML pode realizar automaticamente tarefas como as seguintes:

O AutoML é útil para os cientistas de dados porque pode economizar tempo e esforço no desenvolvimento de pipelines de machine learning e melhorar a precisão da previsão. Ele também é útil para não especialistas, porque torna as tarefas complicadas de machine learning mais acessíveis a eles.

modelo autoregressivo

#language
#image
#IAgenerativa

Um model que infere uma previsão com base nas próprias previsões anteriores. Por exemplo, os modelos de linguagem autorregressivos preveem o próximo token com base nos tokens previstos anteriormente. Todos os modelos de linguagem grandes baseados em Transformer são regressivos.

Por outro lado, os modelos de imagem com base em GAN geralmente não são automáticos, já que geram uma imagem em uma única passagem direta, e não de maneira iterativa em etapas. No entanto, alguns modelos de geração de imagem são autoregressivos porque geram uma imagem em etapas.

perda auxiliar

Uma função de perda, usada em conjunto com a função de perda principal de uma rede neural do modelo, que ajuda a acelerar o treinamento durante as iterações iniciais, quando os pesos são inicializados aleatoriamente.

As funções de perda auxiliares enviam gradientes eficazes para as camadas anteriores. Isso facilita a convergência durante o treinamento ao combater o problema de sumiço do gradiente (em inglês).

precisão média

Uma métrica para resumir o desempenho de uma sequência classificada de resultados. A precisão média é calculada usando a média dos valores de precisão para cada resultado relevante (cada resultado na lista de classificação em que o recall aumenta em relação ao resultado anterior).

Consulte também Área sob a curva PR.

condição alinhada ao eixo

#df

Em uma árvore de decisão, uma condição que envolve apenas um único recurso. Por exemplo, se a área for um elemento, o seguinte será uma condição alinhada ao eixo:

area > 200

Contraste com a condição oblíqua.

B

retropropagação

#fundamentals

O algoritmo que implementa o gradiente descendente em redes neurais.

O treinamento de uma rede neural envolve muitas iterações do seguinte ciclo de duas etapas:

  1. Durante a passagem para frente, o sistema processa um lote de exemplos para gerar previsões. O sistema compara cada previsão com cada valor de rótulo. A diferença entre a previsão e o valor do rótulo é a perda desse exemplo. O sistema agrega as perdas de todos os exemplos para calcular a perda total do lote atual.
  2. Durante o passe para trás (backpropagação), o sistema reduz a perda ajustando os pesos de todos os neurônios em todas as camadas escondidas.

As redes neurais costumam conter muitos neurônios em muitas camadas escondidas. Cada um desses neurônios contribui para a perda geral de maneiras diferentes. A retropropagação determina se é necessário aumentar ou diminuir os pesos aplicados a determinados neurônios.

A taxa de aprendizado é um multiplicador que controla o grau em que cada passagem para trás aumenta ou diminui cada peso. Uma taxa de aprendizado grande aumentará ou diminuirá cada peso mais do que uma taxa de aprendizado pequena.

Em termos de cálculo, a retropropagação implementa a regra da cadeia do cálculo. Ou seja, a retropropagação calcula a derivada parcial do erro em relação a cada parâmetro.

Anos atrás, profissionais de ML precisavam escrever código para implementar a retropropagação. APIs modernas de ML, como o TensorFlow, agora implementam a retropropagação para você. Ufa.

ensabo

#df

Um método para treinar um ensemble em que cada modelo constituinte é treinado em um subconjunto aleatório de exemplos de treinamento amostrados com substituição. Por exemplo, uma floresta aleatória é uma coleção de árvores de decisão treinadas com bagging.

O termo bagging é uma abreviação de botstrap aggregating.

pacote de palavras

#language

Uma representação das palavras em uma frase ou passagem, independentemente da ordem. Por exemplo, "saco of words" representa as três frases a seguir de maneira idêntica:

  • O cachorro pula
  • pula o cachorro
  • cachorro pula

Cada palavra é mapeada para um índice em um vetor esparso, em que o vetor tem um índice para cada palavra no vocabulário. Por exemplo, a frase o cachorro pula é mapeada em um vetor de recurso com valores diferentes de zero nos três índices correspondentes às palavras o, cachorro e saltos. O valor diferente de zero pode ser qualquer um destes:

  • O número 1 indica a presença de uma palavra.
  • Contagem do número de vezes que uma palavra aparece na bolsa. Por exemplo, se a frase fosse o cachorro marrom é um cachorro com pelo marrom, marrom e cão seriam representados como 2, enquanto as outras palavras seriam representadas como 1.
  • Algum outro valor, como o logaritmo da contagem do número de vezes que uma palavra aparece no saco.

baseline

Um model usado como ponto de referência para comparar o desempenho de outro modelo (normalmente, um mais complexo). Por exemplo, um modelo de regressão logística pode servir como um bom valor de referência para um modelo profundo.

Para um problema específico, o valor de referência ajuda os desenvolvedores de modelos a quantificar o desempenho mínimo esperado que um novo modelo precisa alcançar para que ele seja útil.

lote

#fundamentals

O conjunto de exemplos usado em uma iteração de treinamento. O tamanho do lote determina o número de exemplos em um lote.

Consulte época para uma explicação de como um lote se relaciona a uma época.

inferência em lote

#TensorFlow
#GoogleCloud

O processo de inferência de previsões em vários exemplos não rotulados divididos em subconjuntos menores ("lotes").

A inferência em lote pode aproveitar os recursos de carregamento em paralelo dos ícones de acelerador. Ou seja, vários aceleradores podem inferir previsões simultaneamente em diferentes lotes de exemplos não rotulados, aumentando drasticamente o número de inferências por segundo.

normalização em lote

Normalização da entrada ou saída das funções de ativação em uma camada escondida. A normalização em lote pode oferecer os seguintes benefícios:

tamanho do lote

#fundamentals

O número de exemplos em um lote. Por exemplo, se o tamanho do lote for 100, o modelo processará 100 exemplos por iteração.

Confira a seguir estratégias conhecidas de tamanho de lote:

  • Gradiente descendente estocástico (SGD, na sigla em inglês), em que o tamanho do lote é 1.
  • Lote completo, em que o tamanho do lote é o número de exemplos em todo o conjunto de treinamento. Por exemplo, se o conjunto de treinamento tiver um milhão de exemplos, o tamanho do lote será de um milhão de exemplos. Em geral, o lote completo é uma estratégia ineficiente.
  • minilote, em que o tamanho do lote geralmente fica entre 10 e 1.000. Em geral, o minilote é a estratégia mais eficiente.

Rede neural bayesiana

Uma rede neural probabilística que considera a incerteza em pesos e saídas. Um modelo de regressão de rede neural padrão normalmente prevê um valor escalar. Por exemplo, um modelo padrão prevê um preço de casa de 853.000. Por outro lado, uma rede neural bayesiana prevê uma distribuição de valores. Por exemplo, um modelo bayesiano prevê um preço de casa de 853.000 com um desvio padrão de 67.200.

Uma rede neural bayesiana se baseia no Teorema de Bayes para calcular incertezas em pesos e previsões. Uma rede neural bayesiana pode ser útil quando é importante quantificar a incerteza, como em modelos relacionados a produtos farmacêuticos. As redes neurais bayesianas também podem ajudar a evitar o overfitting.

Otimização bayesiana

Uma técnica do modelo de regressão probabilística para otimizar funções de objetivo computacionalmente caras, otimizando um alternativo que quantifica a incerteza usando uma técnica de aprendizado bayesiana. Como a otimização bayesiana é muito cara, ela geralmente é usada para otimizar tarefas caras para avaliar que têm um pequeno número de parâmetros, como a seleção de hiperparâmetros.

Equação de Bellman

#rl

No aprendizado por reforço, a seguinte identidade é atendida pela função Q ideal:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

Os algoritmos de aprendizado por reforço aplicam essa identidade para criar um aprendizado Q usando a seguinte regra de atualização:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

Além do aprendizado por reforço, a equação de Bellman tem aplicações à programação dinâmica. Consulte o artigo da Wikipédia para a equação de Bellman (em inglês).

BERT (Bidirectional Encoder Representations from Transformers)

#language

Um modelo de arquitetura para representação de textos. Um modelo BERT treinado pode atuar como parte de um modelo maior de classificação de texto ou outras tarefas de ML.

O BERT tem as seguintes características:

As variantes do BERT incluem:

  • ALBERT, que é um acrônimo para A Light BERT (em inglês).
  • LaBSE (em inglês).

Consulte Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing (em inglês) para ter uma visão geral do BERT.

viés (ética/imparcialidade)

#fairness
#fundamentals

1. Estereótipos, preconceito ou favoritismo em relação a algumas coisas, pessoas ou grupos em detrimento de outras. Esses vieses podem afetar a coleta e a interpretação de dados, o design de um sistema e como os usuários interagem com ele. Formas desse tipo de viés incluem:

2. Erro sistemático introduzido por um procedimento de amostragem ou relatório. Formas desse tipo de viés incluem:

Não confunda com o termo de viés em modelos de machine learning ou com o viés de previsão.

viés (matemática) ou termo de viés

#fundamentals

Uma interceptação ou deslocamento de uma origem. O viés é um parâmetro em modelos de machine learning, simbolizado por um dos seguintes:

  • b
  • w0

Por exemplo, viés é o valor b na seguinte fórmula:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Em uma linha bidimensional simples, viés significa apenas "interceptação em y". Por exemplo, a tendência da linha na ilustração a seguir é 2.

O gráfico de uma linha com inclinação de 0,5 e viés (interceptação y) de 2.

O viés existe porque nem todos os modelos começam na origem (0,0). Por exemplo, imagine que um parque de diversões custa 2 euros para entrar e mais 0,5 euro por hora de estadia de um cliente. Portanto, um modelo que mapeia o custo total tem um viés de 2, porque o menor custo é de 2 euros.

O viés não deve ser confundido com viés na ética e imparcialidade ou com viés de previsão.

bidirecional

#language

Um termo usado para descrever um sistema que avalia o texto que antes e segue uma seção de destino. Por outro lado, um sistema unidirecional avalia apenas o texto que antecede uma seção de destino.

Por exemplo, considere um modelo de linguagem mascarada que precisa determinar probabilidades de uma ou mais palavras que representem o sublinhado na seguinte pergunta:

Como está _____ com você?

Um modelo de linguagem unidirecional precisaria basear as probabilidades apenas no contexto fornecido pelas palavras "o quê", "é" e "o". Por outro lado, um modelo de linguagem bidirecional também pode receber contexto de "com" e "você", o que pode ajudar o modelo a gerar previsões melhores.

modelo de linguagem bidirecional

#language

Um modelo de linguagem que determina a probabilidade de um determinado token estar presente em um determinado local em um trecho de texto com base no texto anterior e seguinte.

bigrama

#seq
#language

Um N-grama em que N=2.

classificação binária

#fundamentals

Um tipo de tarefa de classificação que prevê uma das duas classes mutuamente exclusivas:

Por exemplo, cada um dos dois modelos de machine learning a seguir realiza a classificação binária:

  • Um modelo que determina se as mensagens de e-mail são spam (a classe positiva) ou não são spam (a classe negativa).
  • Um modelo que avalia sintomas médicos para determinar se uma pessoa tem uma doença específica (a classe positiva) ou não tem essa doença (a classe negativa).

Diferente da classificação multiclasse,

Consulte também regressão logística e limite de classificação.

condição binária

#df

Em uma árvore de decisão, uma condição que tem apenas dois resultados possíveis, normalmente yes ou no. Por exemplo, esta é uma condição binária:

temperature >= 100

Contraste com a condição não binária.

agrupamento por classes

Sinônimo de agrupamento por classes.

BLEU (Subestudo de avaliação bilíngue)

#language

Uma pontuação entre 0,0 e 1,0, inclusive, indicando a qualidade de uma tradução entre dois idiomas humanos (por exemplo, entre inglês e russo). Uma pontuação BLEU de 1,0 indica uma tradução perfeita. Uma pontuação BLEU de 0,0 indica uma tradução terrível.

impulsionando

Uma técnica de aprendizado de máquina que combina iterativamente um conjunto de classificadores simples e não muito precisos (conhecidos como classificadores "fracos") em um classificador com alta precisão (um classificador "forte") ao pesar melhor os exemplos que o modelo está classificando incorretamente no momento.

caixa delimitadora

#image

Em uma imagem, as coordenadas (x, y) de um retângulo em torno de uma área de interesse, como o cachorro na imagem abaixo.

Fotografia de um cachorro sentado em um sofá. Uma caixa delimitadora verde
          com coordenadas superior esquerda de (275, 1271) e coordenadas
          inferior direita de (2954, 2761) circunda o corpo do cachorro.

fazer o broadcast

expandir a forma de um operando em uma operação matemática de matriz para dimensões compatíveis com essa operação; Por exemplo, a álgebra linear exige que os dois operandos em uma operação de adição de matriz tenham as mesmas dimensões. Consequentemente, não é possível adicionar uma matriz de forma (m, n) a um vetor de comprimento n. A transmissão permite essa operação expandindo virtualmente o vetor de comprimento n para uma matriz de forma (m, n) replicando os mesmos valores para cada coluna.

Por exemplo, considerando as definições a seguir, a álgebra linear proíbe A+B porque A e B têm dimensões diferentes:

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

No entanto, a transmissão permite a operação A+B expandindo virtualmente B para:

 [[2, 2, 2],
  [2, 2, 2]]

Portanto, A+B agora é uma operação válida:

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

Consulte a descrição a seguir sobre transmissão em numpy para saber mais.

agrupamento por classes

#fundamentals

Converter um único recurso em vários atributos binários chamados buckets ou classes, normalmente com base em um intervalo de valores. Normalmente, o recurso cortado é contínuo.

Por exemplo, em vez de representar a temperatura como um único recurso de ponto flutuante contínuo, você pode cortar intervalos de temperatura em buckets discretos, como:

  • <= 10 graus Celsius seria o bucket "frio".
  • 11 a 24 graus Celsius seria o bucket "temperado".
  • >= 25 graus Celsius seria o bucket "morno".

O modelo vai tratar todos os valores no mesmo bucket de forma idêntica. Por exemplo, os valores 13 e 22 estão no bucket temperado. Portanto, o modelo trata os dois valores de maneira idêntica.

C

camada de calibragem

Um ajuste pós-previsão, normalmente para explicar o viés de previsão. As previsões e probabilidades ajustadas precisam corresponder à distribuição de um conjunto observado de rótulos.

geração de candidatos

#recsystems

O conjunto inicial de recomendações escolhidas por um sistema de recomendação. Por exemplo, considere uma livraria que oferece 100 mil títulos. A fase de geração de candidatos cria uma lista muito menor de livros adequados para um determinado usuário, digamos 500. Mas até 500 livros é demais para recomendar a um usuário. As fases subsequentes e mais caras de um sistema de recomendação (como pontuação e reclassificação) reduzem esses 500 a um conjunto muito menor e mais útil de recomendações.

amostragem de candidatos

Uma otimização do tempo de treinamento que calcula uma probabilidade para todos os rótulos positivos, usando, por exemplo, softmax, mas somente para uma amostra aleatória de rótulos negativos. Por exemplo, considerando um exemplo rotulados como beagle e dog, a amostragem de candidatos calcula as probabilidades previstas e os termos de perda correspondentes para:

  • beagle (link em inglês)
  • cachorro
  • um subconjunto aleatório das classes negativas restantes (por exemplo, cat, lollipop, fence).

A ideia é que as classes negativas possam aprender com o reforço negativo menos frequente, desde que as classes positivas sempre recebam o reforço positivo adequado, e isso é observado empiricamente.

A amostragem de candidatos é mais eficiente em termos computacionais do que algoritmos de treinamento que calculam previsões para todas as classes negativas, especialmente quando o número de classes negativas é muito grande.

dados categóricos

#fundamentals

Atributos com um conjunto específico de valores possíveis. Por exemplo, considere um recurso categórico chamado traffic-light-state, que só pode ter um dos três valores possíveis a seguir:

  • red
  • yellow
  • green

Ao representar traffic-light-state como um recurso categórico, um modelo pode aprender os diferentes impactos de red, green e yellow no comportamento do motorista.

Os atributos categóricos às vezes são chamados de recursos discretos.

Contraste com dados numéricos.

modelo de linguagem causal

#language

Sinônimo de modelo de linguagem unidirecional.

Consulte o modelo de linguagem bidirecional para contrastar diferentes abordagens direcionais na modelagem de linguagem.

centroid

#clustering

O centro de um cluster, conforme determinado por um algoritmo k-means ou k-median. Por exemplo, se k for 3, o algoritmo k-means ou k-median encontrará três centroides.

cluster baseado em centroide

#clustering

Uma categoria de algoritmos de clustering que organiza os dados em clusters não hierárquicos. k-means é o algoritmo de agrupamento baseado em centroides mais usado.

Contraste com algoritmos de clustering hierárquico.

comandos de cadeia de pensamento

#language
#IAgenerativa

Uma técnica de engenharia de comando que incentiva um modelo de linguagem grande (LLM) para explicar o raciocínio, etapa por etapa. Por exemplo, considere o comando a seguir, prestando atenção na segunda frase:

Quantas forças g um motorista experimentaria em um carro que varia de 0 a 90 quilômetros por hora em 7 segundos? Na resposta, mostre todos os cálculos relevantes.

A resposta do LLM provavelmente:

  • Mostre uma sequência de fórmulas da física, conectando os valores 0, 60 e 7 nos locais adequados.
  • Explique por que ele escolheu essas fórmulas e o que as diversas variáveis significam.

A solicitação de cadeia de pensamento força o LLM a executar todos os cálculos, o que pode levar a uma resposta mais correta. Além disso, os comandos de cadeia de pensamento permitem que o usuário examine as etapas do LLM para determinar se a resposta faz sentido.

chat

#language
#IAgenerativa

O conteúdo de uma conversa com um sistema de ML, normalmente um modelo de linguagem grande. A interação anterior em um chat (o que você digitou e como o modelo de linguagem grande respondeu) se torna o contexto das próximas partes do chat.

Um chatbot é um aplicativo de um modelo de linguagem grande.

checkpoint

Dados que capturam o estado dos parâmetros de um modelo em uma iteração de treinamento específica. Os checkpoints permitem exportar pesos de modelo ou executar treinamento em várias sessões. Eles também permitem que o treinamento continue com os erros passados (por exemplo, preempção do job).

Com o ajuste, o ponto de partida do treinamento do novo modelo será um checkpoint específico do modelo pré-treinado.

classe

#fundamentals

Uma categoria à qual um rótulo pode pertencer. Exemplo:

Um modelo de classificação prevê uma classe. Por outro lado, um modelo de regressão prevê um número em vez de uma classe.

modelo de classificação

#fundamentals

Um model cuja previsão é uma model. Por exemplo, estes são todos modelos de classificação:

  • Um modelo que prevê o idioma de uma frase de entrada (francês? Espanhol? italiano?).
  • Um modelo que prevê espécies de árvores (Maple? Oak? Baobá?).
  • Um modelo que prevê a classe positiva ou negativa para uma condição médica específica.

Por outro lado, os modelos de regressão preveem números em vez de classes.

Dois tipos comuns de modelos de classificação são:

limiar de classificação

#fundamentals

Em uma classificação binária, um número entre 0 e 1 que converte a saída bruta de um modelo de regressão logística em uma previsão da classe positiva ou da classe negativa. O limiar de classificação é um valor escolhido por um ser humano, não pelo treinamento do modelo.

Um modelo de regressão logística gera um valor bruto entre 0 e 1. Depois, siga estas instruções:

  • Se esse valor bruto for maior que o limiar de classificação, a classe positiva será prevista.
  • Se esse valor bruto for menor que o limiar de classificação, a classe negativa será prevista.

Por exemplo, suponha que o limiar de classificação seja 0,8. Se o valor bruto for 0,9, o modelo vai prever a classe positiva. Se o valor bruto for 0,7, o modelo vai prever a classe negativa.

A escolha do limiar de classificação influencia muito o número de falsos positivos e falsos negativos.

conjunto de dados com desequilíbrio de classes

#fundamentals

Um conjunto de dados para um problema de classificação em que o número total de rótulos de cada classe tem uma diferença significativa. Por exemplo, considere um conjunto de dados de classificação binária com dois rótulos divididos da seguinte maneira:

  • 1.000.000 de rótulos negativos
  • 10 rótulos positivos

A proporção de rótulos negativos para positivos é de 100.000 para 1,portanto, esse é um conjunto de dados desbalanceado.

Em contraste, o conjunto de dados a seguir não apresenta desequilíbrio entre as classes porque a proporção de rótulos negativos para rótulos positivos é relativamente próxima de 1:

  • 517 rótulos negativos
  • 483 rótulos positivos

Conjuntos de dados multiclasse também podem apresentar desequilíbrio de classes. Por exemplo, o seguinte conjunto de dados de classificação multiclasse também apresenta desequilíbrio de classes porque um rótulo tem muito mais exemplos do que os outros dois:

  • 1.000.000 de rótulos com a classe "green"
  • 200 marcadores com a classe "roxo"
  • 350 marcadores com a classe "laranja"

Consulte também entropia, classe maior e classe minoritária.

recorte

#fundamentals

Uma técnica para lidar com outliers realizando uma ou ambas as ações a seguir:

  • Redução de valores de feature que são maiores que um limite máximo até esse limite máximo.
  • aumentar valores de atributos menores que um limite mínimo até esse limite mínimo;

Por exemplo, suponha que <0,5% dos valores de um recurso específico estejam fora do intervalo de 40 a 60. Nesse caso, faça o seguinte:

  • Recorte todos os valores acima de 60 (o limite máximo) para que fiquem exatamente 60.
  • Recorte todos os valores abaixo de 40 (o limite mínimo) para que fiquem exatamente 40.

Outliers podem danificar os modelos, às vezes fazendo com que pesos transfiram durante o treinamento. Alguns valores atípicos também podem prejudicar drasticamente métricas como acurácia. O corte é uma técnica comum para limitar os danos.

O recorte de gradiente força os valores de gradiente dentro de um intervalo designado durante o treinamento.

Cloud TPU

#TensorFlow
#GoogleCloud

Um acelerador de hardware especializado projetado para acelerar cargas de trabalho de machine learning no Google Cloud.

clustering

#clustering

Agrupamento de exemplos relacionados, especialmente durante o aprendizado não supervisionado. Depois que todos os exemplos forem agrupados, uma pessoa poderá fornecer significado a cada cluster.

Existem muitos algoritmos de clustering. Por exemplo, os exemplos de clusters de algoritmo k-means se baseiam na proximidade de um centroide, como no diagrama a seguir:

Um gráfico bidimensional em que o eixo x é rotulado como &quot;largura da árvore&quot;
          e o eixo y é rotulado como &quot;altura da árvore&quot;. O gráfico contém dois centroides e várias dezenas de pontos de dados. Os pontos de dados são categorizados com base na proximidade. Ou seja, os pontos de dados mais próximos de um centroide são categorizados como cluster 1, enquanto os mais próximos do outro centroide são categorizados como cluster 2.

Um pesquisador humano poderá então revisar os clusters e, por exemplo, rotular o cluster 1 como “árvores anãs” e o cluster 2 como “árvores em tamanho original”.

Como outro exemplo, considere um algoritmo de clustering com base na distância de um exemplo de um ponto central, ilustrado da seguinte maneira:

Dezenas de pontos de dados são organizados em círculos concêntricos, quase como buracos ao redor do centro de um jogo de dardos. O anel mais interno de pontos de dados é categorizado como cluster 1, o anel do meio é categorizado como cluster 2 e o mais externo como cluster 3.

coadaptação

Quando os neurônios preveem padrões nos dados de treinamento, dependendo quase exclusivamente das saídas de outros neurônios específicos, em vez de no comportamento da rede como um todo. Quando os padrões que causam a coadaptação não estão presentes nos dados de validação, ela causa um overfitting. A regularização de dropout reduz a coadaptação porque o dropout garante que os neurônios não podem depender apenas de outros neurônios específicos.

filtragem colaborativa

#recsystems

Fazer previsões sobre os interesses de um usuário com base nos interesses de muitos outros usuários. A filtragem colaborativa é frequentemente usada em sistemas de recomendação.

deslocamento de conceito

Uma mudança na relação entre os atributos e o rótulo. Com o tempo, o deslocamento de conceito reduz a qualidade de um modelo.

Durante o treinamento, o modelo aprende a relação entre os recursos e os rótulos no conjunto de treinamento. Se os rótulos no conjunto de treinamento forem bons proxies para o mundo real, o modelo deverá fazer boas previsões do mundo real. No entanto, devido ao deslocamento de conceito, as previsões do modelo tendem a se degradar com o tempo.

Por exemplo, considere um modelo de classificação binária que prevê se um determinado modelo de carro é "eficiente em termos de combustível". Ou seja, os recursos podem ser:

  • peso do carro
  • compressão do mecanismo
  • tipo de transmissão

enquanto o rótulo for:

  • eficiência de combustível
  • não eficiente em termos de combustível

No entanto, o conceito de "carro econômico" continua mudando. Um modelo de carro rotulado como econômico em 1994 provavelmente seria rotulado como não eficiente em termos de combustível em 2024. Um modelo que sofre de deslocamento de conceito tende a fazer previsões cada vez menos úteis ao longo do tempo.

Compare e veja as diferenças com a não estacionário.

transição

#df

Em uma árvore de decisão, qualquer que avalie uma expressão. Por exemplo, a parte a seguir de uma árvore de decisão contém duas condições:

Uma árvore de decisão composta de duas condições: (x > 0) e (y > 0).

Uma condição também é chamada de divisão ou teste.

Contraste a condição com leaf.

Consulte também:

confabulação

#language

Sinônimo de alucinação artificial.

"Confabulação" é provavelmente um termo tecnicamente mais preciso do que alucinação. No entanto, a alucinação ficou conhecida primeiro.

configuração

O processo de atribuição dos valores de propriedade iniciais usados para treinar um modelo, incluindo:

Em projetos de machine learning, a configuração pode ser feita por meio de um arquivo de configuração especial ou usando bibliotecas de configuração, como as seguintes:

viés de confirmação

#fairness

a tendência de procurar, interpretar, favorecer e lembrar informações de uma maneira que confirme crenças ou hipóteses pré-existentes. Desenvolvedores de machine learning podem coletar ou rotular dados inadvertidamente de maneiras que influenciam um resultado que apoia essas crenças. O viés de confirmação é uma forma de viés implícito.

O viés do experimentador é uma forma de viés de confirmação em que um experimentador continua treinando os modelos até que uma hipótese pré-existente seja confirmada.

matriz de confusão

#fundamentals

Uma tabela NxN que resume o número de previsões corretas e incorretas feitas por um modelo de classificação. Por exemplo, considere a seguinte matriz de confusão para um modelo de classificação binária:

Tumor (previsto) Não tumor (previsto)
Tumor (informações empíricas) 18 (VP) 1 (FN)
Não tumor (informações empíricas) 6 (QPS) 452 (VN)

A matriz de confusão anterior mostra o seguinte:

  • Das 19 previsões em que as informações empíricas eram Tumor, o modelo classificou corretamente 18 e 1 incorretamente.
  • Das 458 previsões em que as informações empíricas eram não tumor, o modelo classificou corretamente 452 e 6 incorretamente.

A matriz de confusão para um problema de classificação multiclasse pode ajudar a identificar padrões de erros. Por exemplo, considere a seguinte matriz de confusão para um modelo de classificação multiclasse de três classes que categoriza três tipos diferentes de íris (Virgínia, Versicolor e Setosa). Quando as informações empíricas eram a Virgínia, a matriz de confusão mostra que o modelo era muito mais propenso a prever incorretamente Versicolor do que Setosa:

  Setosa (previsto) Versicolor (previsão) Virgínia (previsto)
Setosa (informações empíricas) 88 12 0
Versicolor (informações empíricas) 6 141 7
Virginia (informações empíricas) 2 27 109

Como outro exemplo, uma matriz de confusão pode revelar que um modelo treinado para reconhecer dígitos escritos à mão tende a prever erroneamente 9 em vez de 4 ou prever erroneamente 1 em vez de 7.

As matrizes de confusão contêm informações suficientes para calcular uma variedade de métricas de desempenho, incluindo precisão e recall.

análise de distrito eleitoral

#language

Dividir uma sentença em estruturas gramaticais menores ("constituintes"). Uma parte posterior do sistema de ML, como um modelo de compreensão de linguagem natural, pode analisar os constituintes mais facilmente do que a frase original. Por exemplo, considere a seguinte frase:

Meu amigo adotou dois gatos.

Um analisador de distrito eleitoral pode dividir essa frase nos dois constituintes a seguir:

  • Myfriend é um sintagma nominal.
  • adopted two cats (em inglês) é um sintagma verbal.

Esses constituintes podem ser subdivididos em partes menores. Por exemplo, a frase verbal

adotou dois gatos

poderia ser subdividida em:

  • adopted é um verbo.
  • two cats é outro sintagma nominal.

incorporação de linguagem contextualizada

#language
#IAgenerativa

Uma incorporação que se aproxima de "entender" palavras e frases de maneiras que os falantes humanos nativos conseguem. Os embeddings de linguagem contextualizados podem entender sintaxe, semântica e contexto complexos.

Por exemplo, considere embeddings da palavra em inglês cow. Embeddings mais antigos, como word2vec, podem representar palavras em inglês, de forma que a distância no espaço de embedding de vaca para touro é semelhante à distância de ewe (ovelha fêmea) até ramo (ovelha macho) ou de fêmea para macho. As incorporações de linguagem contextualizadas podem ir além, reconhecendo que os falantes de inglês às vezes usam a palavra vaca para significar vaca ou touro.

janela de contexto

#language
#IAgenerativa

O número de tokens que um modelo pode processar em um determinado comando. Quanto maior a janela de contexto, mais informações o modelo pode usar para fornecer respostas coerentes e consistentes ao comando.

atributo contínuo

#fundamentals

Um recurso de ponto flutuante com um intervalo infinito de valores possíveis, como temperatura ou peso.

Não use recursos discretos.

amostragem por conveniência

Usar um conjunto de dados não reunido cientificamente para executar experimentos rápidos. Mais tarde, é essencial mudar para um conjunto de dados cientificamente reunido.

convergência

#fundamentals

Um estado atingido quando os valores de loss mudam muito pouco ou não a cada iteração. Por exemplo, a curva de perda a seguir sugere a convergência em cerca de 700 iterações:

Gráfico cartesiano. o eixo X é uma perda. O eixo Y é o número de iterações
          de treinamento. A perda é muito alta durante as primeiras iterações, mas diminui drasticamente. Depois de cerca de 100 iterações, a perda ainda está
          decrescente, mas de maneira muito mais gradual. Após cerca de 700 iterações, a perda permanece estável.

Um modelo convergente quando um treinamento adicional não o aprimora.

No aprendizado profundo, os valores de perda às vezes permanecem constantes ou quase assim por muitas iterações antes de finalmente descerem. Durante um longo período de valores de perda constantes, você pode ter temporariamente uma falsa sensação de convergência.

Consulte também parada antecipada.

função convexa

Uma função em que a região acima do gráfico é um conjunto convexo (em inglês). A função convexa prototípica tem um formato parecido com a letra U. Por exemplo, veja a seguir todas as funções convexas:

Curvas em forma de U, cada uma com um ponto mínimo.

Por outro lado, a função a seguir não é convexa. Observe como a região acima do gráfico não é um conjunto convexo:

Uma curva em forma de W com dois pontos mínimos locais diferentes.

Uma função estritamente convexa tem exatamente um ponto mínimo local, que também é o ponto mínimo global. As funções clássicas em forma de U são funções estritamente convexas. No entanto, algumas funções convexas (por exemplo, linhas retas) não têm formato de U.

otimização convexa

É o processo de usar técnicas matemáticas, como o gradiente descendente, para encontrar o mínimo de uma função convexa. Grande parte da pesquisa em machine learning se concentrou na formulação de vários problemas como problemas de otimização convexo e na resolução desses problemas com mais eficiência.

Para detalhes completos, consulte Boyd e Vandenberghe, Otimização convex (link em inglês).

conjunto convexo

Um subconjunto do espaço euclidiano em que uma linha desenhada entre dois pontos quaisquer no subconjunto permanece completamente dentro do subconjunto. Por exemplo, estas duas formas são conjuntos convexos:

Uma ilustração de um retângulo. Outra ilustração de uma forma oval.

Por outro lado, as duas formas a seguir não são conjuntos convexos:

Uma ilustração de um gráfico de pizza sem uma fatia.
          Outra ilustração de um polígono extremamente irregular.

convolução

#image

Em matemática, casualmente, uma combinação de duas funções. No machine learning, uma convolução mistura o filtro convolucional e a matriz de entrada para treinar pesos.

O termo "convolução" em machine learning geralmente é uma forma abreviada de se referir a operação convolucional ou camada convolucional.

Sem as convoluções, um algoritmo de machine learning precisaria aprender um peso separado para cada célula em um tensor grande. Por exemplo, um treinamento de algoritmo de machine learning em imagens 2.000 x 2.000 seria forçado a encontrar 4 milhões de pesos separados. Graças às convoluções, um algoritmo de machine learning só precisa encontrar pesos para cada célula no filtro convolucional, reduzindo drasticamente a memória necessária para treinar o modelo. Quando o filtro convolucional é aplicado, ele é simplesmente replicado nas células, de modo que cada uma é multiplicada pelo filtro.

filtro convolucional

#image

Um dos dois atores em uma operação convolucional. O outro agente é uma fração de uma matriz de entrada. Um filtro convolucional é uma matriz que tem a mesma classificação da matriz de entrada, mas uma forma menor. Por exemplo, considerando uma matriz de entrada de 28x28, o filtro pode ser qualquer matriz 2D menor que 28x28.

Na manipulação fotográfica, todas as células em um filtro convolucional são normalmente definidas para um padrão constante de 1 e 0. Em machine learning, os filtros convolucionais costumam incluir números aleatórios e, em seguida, a rede treina os valores ideais.

camada convolucional

#image

Uma camada de uma rede neural profunda em que um filtro convolucional passa ao longo de uma matriz de entrada. Por exemplo, considere o seguinte filtro convolucional de 3x3:

Uma matriz 3x3 com estes valores: [[0,1,0], [1,0,1], [0,1,0]]

A animação a seguir mostra uma camada convolucional composta de 9 operações convolucionais que envolvem a matriz de entrada 5x5. Observe que cada operação convolucional funciona em uma fração diferente de 3x3 da matriz de entrada. A matriz 3x3 resultante (à direita) consiste nos resultados das nove operações convolucionais:

Uma animação mostrando duas matrizes. A primeira matriz é a 5x5: [[128,97,53,201,198], [35,22,25,200,195], [37,24,28,197,182], [33,28,92,195,179], [31,7,], [31,79], 195,179]
          A segunda é a matriz 3x3: [[181.303.618], [115.338.605], [169.351.560]].
          A segunda matriz é calculada aplicando o filtro convolucional [[0, 1, 0], [1, 0, 1], [0, 1, 0]] em diferentes subconjuntos 3x3 da matriz 5x5.

rede neural convolucional

#image

Uma rede neural em que pelo menos uma camada é uma camada convolucional. Uma rede neural convolucional típica consiste em alguma combinação das seguintes camadas:

As redes neurais convolucionais tiveram grande sucesso em certos tipos de problemas, como o reconhecimento de imagens.

operação convolucional

#image

A seguinte operação matemática de duas etapas:

  1. Multiplicação por elemento do filtro convolucional e uma fração de uma matriz de entrada. A fração da matriz de entrada tem a mesma classificação e tamanho que o filtro convolucional.
  2. Soma de todos os valores na matriz de produtos resultante.

Por exemplo, considere a seguinte matriz de entrada de 5x5:

A matriz 5x5: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40],100],

Agora imagine o seguinte filtro convolucional 2x2:

A matriz 2x2: [[1, 0], [0, 1]]

Cada operação convolucional envolve uma única fração de 2x2 da matriz de entrada. Por exemplo, suponha que usemos a fatia 2x2 no canto superior esquerdo da matriz de entrada. Assim, a operação de convolução nessa fração é semelhante à seguinte:

Aplicando o filtro convolucional [[1, 0], [0, 1]] à seção 2 x 2 no canto superior esquerdo da matriz de entrada, que é [[128,97], [35,22]].
          O filtro convolucional deixa 128 e 22 intactos, mas zera os valores 97 e 35. Consequentemente, a operação de convolução gera o valor 150 (128+22).

Uma camada convolucional consiste em uma série de operações convolucionais, cada uma atuando em uma fração diferente da matriz de entrada.

custo

Sinônimo de loss.

treinamento conjunto

Uma abordagem de aprendizado semi-supervisionado é particularmente útil quando todas as condições a seguir são verdadeiras:

O treinamento em conjunto amplia os indicadores independentes e as transforma em um indicador mais forte. Por exemplo, considere um modelo de classificação que categoriza carros usados individuais como Bom ou Ruim. Um conjunto de recursos preditivos pode se concentrar em características agregadas, como ano, marca e modelo do carro. Outro conjunto de recursos preditivos pode se concentrar no registro de habilitação do proprietário anterior e no histórico de manutenção do carro.

O artigo fundamental sobre treinamento conjunto é Como combinar dados rotulados e não rotulados com treinamento conjunto, de Blum e Mitchell.

imparcialidade contrafactual

#fairness

Uma métrica de imparcialidade que verifica se um classificador produz o mesmo resultado para um indivíduo e para outro indivíduo idêntico ao primeiro, exceto no que diz respeito a um ou mais atributos sensíveis. Avaliar a imparcialidade contrafactual em um classificador é um método para descobrir possíveis fontes de viés em um modelo.

Consulte Quando os mundos colidem: como integrar diferentes suposições contrafactual com imparcialidade para uma discussão mais detalhada sobre imparcialidade contrafactual.

viés de cobertura

#fairness

Consulte o viés de seleção.

flor esmagadora

#language

Uma sentença com um significado ambíguo. As floreiras apresentam um problema significativo no compreensão de linguagem natural (link em inglês). Por exemplo, o título A Red Tape Holds Up Skyscraper é um sucesso porque um modelo PLN poderia interpretar o título literalmente ou figurativamente.

crítico

#rl

Sinônimo de Deep Q-Network.

entropia cruzada

Uma generalização de Perda de registros para problemas de classificação multiclasse. A entropia cruzada quantifica a diferença entre duas distribuições de probabilidade. Consulte também perplexidade.

validação cruzada

Um mecanismo para estimar a eficácia de um model na generalização de novos dados, testando-o em relação a um ou mais subconjuntos de dados não sobrepostos do model.

função de distribuição cumulativa (CDF, na sigla em inglês)

Uma função que define a frequência das amostras menor ou igual a um valor desejado. Por exemplo, considere uma distribuição normal de valores contínuos. Uma CDF informa que aproximadamente 50% das amostras precisam ser menores ou iguais à média e que cerca de 84% das amostras precisam ser menores ou iguais a um desvio padrão acima da média.

D

análise de dados

entender os dados considerando amostras, medição e visualização. A análise de dados pode ser útil principalmente quando um conjunto de dados é recebido pela primeira vez, antes de criar o primeiro model. Ele também é crucial para entender os experimentos e depurar problemas no sistema.

aumento de dados

#image

Aumentando artificialmente o intervalo e o número de exemplos de treinamento transformando exemplos atuais para criar outros exemplos. Por exemplo, suponha que as imagens sejam um dos seus recursos, mas seu conjunto de dados não contenha exemplos de imagens suficientes para que o modelo aprenda associações úteis. O ideal é adicionar imagens rotuladas suficientes ao conjunto de dados para permitir que o modelo seja treinado corretamente. Se isso não for possível, o aumento de dados poderá girar, esticar e refletir cada imagem para produzir muitas variantes da imagem original, possivelmente produzindo dados rotulados suficientes para permitir um treinamento excelente.

DataFrame

#fundamentals

Um tipo de dados pandas conhecido para representar conjuntos de dados na memória.

O DataFrame é análogo a uma tabela ou planilha. Cada coluna de um DataFrame tem um nome (um cabeçalho) e cada linha é identificada por um número exclusivo.

Cada coluna em um DataFrame é estruturada como uma matriz 2D, mas é possível atribuir o próprio tipo de dados a cada coluna.

Consulte também a página de referência oficial do pandas.DataFrame (em inglês).

paralelismo de dados

Uma maneira de escalonar treinamento ou inferência que replica um modelo inteiro em vários dispositivos e transmite um subconjunto dos dados de entrada para cada um deles. O paralelismo de dados pode permitir treinamento e inferência em tamanhos de lote muito grandes. No entanto, o paralelismo de dados exige que o modelo seja pequeno o suficiente para caber em todos os dispositivos.

O paralelismo de dados normalmente acelera o treinamento e a inferência.

Consulte também paralelismo de modelos.

conjunto de dados ou conjunto de dados

#fundamentals

Uma coleção de dados brutos, geralmente (mas não exclusivamente) organizados em um dos seguintes formatos:

  • uma planilha
  • um arquivo em formato CSV (valores separados por vírgula)

API Dataset (tf.data)

#TensorFlow

Uma API do TensorFlow de alto nível para ler dados e transformá-los em um formato exigido por um algoritmo de machine learning. Um objeto tf.data.Dataset representa uma sequência de elementos em que cada elemento contém um ou mais Tensors. Um objeto tf.data.Iterator fornece acesso aos elementos de um Dataset.

Para detalhes sobre a API Dataset, consulte tf.data: criar pipelines de entrada do TensorFlow no Guia do programador do TensorFlow.

fronteira de decisão

O separador entre classes aprendidas por um modelo em uma classe binária ou problemas de classificação multiclasse. Por exemplo, na imagem a seguir, que representa um problema de classificação binária, a fronteira de decisão é a fronteira entre a classe laranja e a azul:

Um limite bem definido entre uma classe e outra.

floresta de decisão

#df

Um modelo criado a partir de várias árvores de decisão. Uma floresta de decisão faz uma previsão agregando as previsões das árvores de decisão. Os tipos conhecidos de florestas de decisão incluem florestas aleatórias e árvores otimizadas com gradiente.

limite de decisão

Sinônimo de limite de classificação.

árvore de decisão

#df

Um modelo de aprendizado supervisionado composto por um conjunto de conditions e conditions organizadas hierarquicamente. Por exemplo, veja a seguir uma árvore de decisão:

Uma árvore de decisão composta de quatro condições organizadas hierarquicamente, que levam a cinco folhas.

decodificador

#language

Em geral, qualquer sistema de ML que converte uma representação processada, densa ou interna em uma representação mais bruta, esparsa ou externa.

Geralmente, os decodificadores são um componente de um modelo maior, em que são frequentemente pareados com um codificador.

Em tarefas sequência para sequência, um decodificador começa com o estado interno gerado pelo codificador para prever a próxima sequência.

Consulte Transformer para a definição de um decodificador na arquitetura de transformador.

modelo profundo

#fundamentals

Uma rede neural que contém mais de uma camada escondida.

Um modelo profunda também é chamado de rede neural profunda.

Contraste com o modelo amplo.

de rede neural profunda, amplamente utilizado

Sinônimo de modelo profundo.

Rede Q profunda (DQN, na sigla em inglês)

#rl

No aprendizado Q, uma rede neural profunda que prevê funções Q.

Critic é um sinônimo de Deep Q-Network.

paridade demográfica

#fairness

Uma métrica de imparcialidade que é satisfeita se os resultados da classificação de um modelo não dependem de um determinado atributo sensível.

Por exemplo, se tanto liliputianos quanto brobdingnagians se inscreverem na universidade Glubbdubdrib, a paridade demográfica será alcançada se a porcentagem de liliputianos admitida for a mesma, independentemente de um grupo ser, em média, mais qualificado que o outro.

Contraste com as probabilidades equalizadas e a igualdade de oportunidade, que permitem que os resultados da classificação dependam de atributos confidenciais, mas não permitem que os resultados de classificação de determinados rótulos de informações empíricas especificados dependam de atributos sensíveis. Consulte "Como atacar a discriminação com um aprendizado de máquina mais inteligente" (em inglês) para uma visualização que explora as vantagens e desvantagens da otimização da paridade demográfica.

remover ruído

#language

Uma abordagem comum de aprendizado autossupervisionado em que:

  1. Ruído é adicionado artificialmente ao conjunto de dados.
  2. O model tenta remover o ruído.

A remoção de ruído permite aprender com exemplos não rotulados. O conjunto de dados original serve como destino ou rótulo e os dados com ruído como entrada.

Alguns modelos de linguagem mascarada usam a remoção de ruído da seguinte maneira:

  1. O ruído é adicionado artificialmente a uma frase não rotulada mascarando alguns dos tokens.
  2. O modelo tenta prever os tokens originais.

atributo denso

#fundamentals

Um recurso em que a maioria ou todos os valores são diferentes de zero, normalmente um Tensor de valores de ponto flutuante. Por exemplo, o Tensor de 10 elementos a seguir é denso porque 9 dos valores dele são diferentes de zero:

8 3 7 5 2 4 0 4 9 6

Diferente do recurso esparso.

camada densa

Sinônimo de camada totalmente conectada.

profundidade

#fundamentals

A soma dos itens a seguir em uma rede neural:

Por exemplo, uma rede neural com cinco camadas escondidas e uma camada final tem uma profundidade de 6.

Observe que a camada de entrada não influencia a profundidade.

rede neural convolucional separável em profundidade (sepCNN)

#image

Uma arquitetura de rede neural convolucional baseada em Inception, mas em que os módulos Inception são substituídos por convoluções separáveis em profundidade. Também conhecido como Xception.

Uma convolução separável em profundidade (também abreviada como convolução separável) fatora uma convolução 3D padrão em duas operações de convolução separadas que são mais eficientes em termos computacionais: primeiro, uma convolução em profundidade, com profundidade de 1 (n ✕ n ✕ 1) e, depois, convolução pontual, com comprimento e largura 1 (1 ✕ 1).

Para saber mais, consulte Xception: aprendizado profundo com convoluções separáveis por profundidade (em inglês).

rótulo derivado

Sinônimo de marcador de proxy.

dispositivo

#TensorFlow
#GoogleCloud

Um termo sobrecarregado com as duas definições possíveis a seguir:

  1. Uma categoria de hardware que pode executar uma sessão do TensorFlow, incluindo CPUs, GPUs e TPUs.
  2. Ao treinar um modelo de ML em chips de acelerador (GPUs ou TPUs), a parte do sistema que realmente manipula tensores e embeddings. O dispositivo é executado em chips de acelerador. Por outro lado, o host geralmente é executado em uma CPU.

privacidade diferencial

Em machine learning, uma abordagem de anonimização para evitar que dados sensíveis (por exemplo, informações pessoais de um indivíduo) incluídos no conjunto de treinamento de um modelo sejam expostos. Essa abordagem garante que o model não aprenda ou se lembre muito de um indivíduo específico. Isso é feito por meio da amostragem e da adição de ruído durante o treinamento do modelo para ocultar pontos de dados individuais, reduzindo o risco de exposição de dados de treinamento confidenciais.

A privacidade diferencial também é usada fora do machine learning. Por exemplo, os cientistas de dados às vezes usam a privacidade diferencial para proteger a privacidade individual ao calcular estatísticas de uso do produto para diferentes informações demográficas.

redução de dimensão

Diminuir o número de dimensões usadas para representar um recurso específico em um vetor de recurso, normalmente convertendo em um vetor de embedding.

dimensões

Termo sobrecarregado com qualquer uma das seguintes definições:

  • O número de níveis de coordenadas em um Tensor. Exemplo:

    • Um escalar tem dimensões zero, por exemplo, ["Hello"].
    • Um vetor tem uma dimensão, por exemplo, [3, 5, 7, 11].
    • Uma matriz tem duas dimensões. Por exemplo, [[2, 4, 18], [5, 7, 14]].

    É possível especificar exclusivamente uma célula específica em um vetor unidimensional com uma coordenada. São necessárias duas coordenadas para especificar com exclusividade uma determinada célula em uma matriz bidimensional.

  • O número de entradas em um vetor de recurso.

  • O número de elementos em uma camada de incorporação.

comandos diretos

#language
#IAgenerativa

Sinônimo de comando zero-shot.

atributo discreto

#fundamentals

Um recurso com um conjunto finito de valores possíveis. Por exemplo, um atributo com valores que só podem ser animal, vegetal ou mineral é um atributo discreto (ou categórico).

Contraste com o recurso contínuo.

modelo discriminativo

Um model que prevê model de um conjunto de um ou mais model. Mais formalmente, os modelos discriminativos definem a probabilidade condicional de uma saída, de acordo com os recursos e pesos, ou seja:

p(output | features, weights)

Por exemplo, um modelo que prevê se um e-mail é spam a partir de atributos e pesos é um modelo discriminativo.

A grande maioria dos modelos de aprendizado supervisionado, incluindo os de classificação e regressão, é discriminativa.

Compare com o modelo generativo.

discriminador

Um sistema que determina se os exemplos são reais ou falsos.

Como alternativa, o subsistema dentro de uma rede adversária generativa que determina se os exemplos criados pelo gerador são reais ou falsos.

impacto diferente

#fairness

Tomar decisões sobre pessoas que afetam diferentes subgrupos populacionais de maneira desproporcional. Isso geralmente se refere a situações em que um processo de tomada de decisão algorítmico prejudica ou beneficia alguns subgrupos mais do que outros.

Por exemplo, suponha que um algoritmo que determina a qualificação de um Lilliputian para um empréstimo imobiliário em miniatura tem mais probabilidade de classificá-lo como "não qualificado" se o endereço de correspondência dele contiver um determinado código postal. Se os Lilliputians de Big-Endian tiverem mais probabilidade de ter endereços de correspondência com esse código postal do que Little-Endian Lilliputians, esse algoritmo poderá resultar em impacto diferente.

Contraste com o tratamento de disparidade, que se concentra em disparidades que resultam quando as características de um subgrupo são entradas explícitas em um processo de tomada de decisões algorítmico.

tratamento desigual

#fairness

Considerar os atributos sensíveis dos participantes em um processo de tomada de decisão algorítmico, de modo que diferentes subgrupos de pessoas sejam tratados de maneira diferente.

Por exemplo, considere um algoritmo que determina a qualificação de Lilliputians para um empréstimo imobiliário em miniatura com base nos dados fornecidos no pedido de empréstimo. Se o algoritmo usa a afiliação de um Lilliputian como Big-Endian ou Little-Endian como entrada, ele está aplicando um tratamento diferente nessa dimensão.

Contraste com o impacto desigual, que se concentra em disparidades nos impactos sociais das decisões algorítmicas em subgrupos, independentemente de esses subgrupos serem entradas do modelo.

destilação

#IAgenerativa

O processo de reduzir o tamanho de um model (conhecido como model) em um modelo menor (conhecido como model) que emula as previsões do modelo original da maneira mais fiel possível. Ela é útil porque o modelo menor tem dois benefícios principais em relação ao modelo maior (o professor):

  • Tempo de inferência mais rápido
  • Redução do uso de memória e energia

No entanto, as previsões do aluno geralmente não são tão boas quanto as do professor.

A extração treina o modelo estudante para minimizar uma função de perda com base na diferença entre os resultados das previsões dos modelos estudante e professor.

Compare e compare a destilação com os seguintes termos:

Distribuição

A frequência e o intervalo de valores diferentes para um determinado recurso ou rótulo. Uma distribuição captura a probabilidade de um valor específico.

A imagem a seguir mostra histogramas de duas distribuições diferentes:

  • À esquerda, a distribuição da lei de poder em relação ao número de pessoas que têm essa riqueza.
  • À direita, uma distribuição normal da altura em relação ao número de pessoas que têm essa altura.

Dois histogramas. Um histograma mostra uma distribuição da lei da potência com riqueza no eixo X e número de pessoas tendo essa riqueza no eixo Y. A maioria das pessoas tem pouquíssima riqueza, e algumas pessoas têm muita riqueza. O outro histograma mostra uma distribuição normal
          com altura no eixo X e número de pessoas com essa altura
          no eixo y. A maioria das pessoas está aglomerada perto da média.

Entender a distribuição de cada recurso e rótulo pode ajudar a determinar como normalizar valores e detectar outliers.

A frase fora da distribuição refere-se a um valor que não aparece no conjunto de dados ou é muito raro. Por exemplo, uma imagem do planeta Saturno seria considerada fora de distribuição em um conjunto de dados composto de imagens de gatos.

clustering dividido

#clustering

Consulte clustering hierárquico.

redução de amostragem

#image

Termo sobrecarregado que pode significar:

  • Reduzir a quantidade de informações em um recurso para treinar um modelo com mais eficiência. Por exemplo, antes de treinar um modelo de reconhecimento de imagem, é necessário reduzir a amostragem de imagens de alta resolução para um formato de resolução menor.
  • Treinamento em uma porcentagem desproporcionalmente baixa de exemplos de classe super-representados para melhorar o treinamento de modelos em classes sub-representadas. Por exemplo, em um conjunto de dados com desequilíbrio de classe, os modelos tendem a aprender muito sobre a classe principal e não o suficiente sobre a classe minoritária. A redução de amostragem ajuda a equilibrar a quantidade de treinamento nas classes de maioria e minoria.

DQN

#rl

Abreviação de Deep Q-Network.

regularização de dropout

Uma forma de regularização útil no treinamento de redes neurais. A regularização de dropout remove uma seleção aleatória de um número fixo de unidades em uma camada de rede para uma única etapa de gradiente. Quanto mais unidades forem descartadas, mais forte será a regularização. Isso é análogo ao treinamento da rede para emular um ensemble exponencialmente grande de redes menores. Para detalhes completos, consulte Dropout: uma maneira simples de evitar o overfitting das redes neurais.

dinâmico

#fundamentals

Algo feito com frequência ou continuamente. Os termos dinâmico e on-line são sinônimos em machine learning. Veja a seguir usos comuns de dinâmico e on-line no machine learning:

  • Um modelo dinâmico (ou modelo on-line) é um modelo que é treinado de novo com frequência ou continuamente.
  • O treinamento dinâmico (ou treinamento on-line) é o processo de treinamento frequente ou contínuo.
  • A inferência dinâmica (ou inferência on-line) é o processo de geração de previsões sob demanda.

modelo dinâmico

#fundamentals

Um model que é retreinado com frequência (talvez até continuamente). Um modelo dinâmico é um "aprendizado ao longo da vida" que se adapta constantemente à evolução dos dados. Um modelo dinâmico também é conhecido como modelo on-line.

Contraste com o modelo estático.

E

execução rápida

#TensorFlow

Um ambiente de programação do TensorFlow em que as operations são executadas imediatamente. Por outro lado, as operações chamadas na execução de gráfico não são executadas até que sejam explicitamente avaliadas. A execução antecipada é uma interface imperativa, parecida com o código na maioria das linguagens de programação. Programas de execução áspera geralmente são muito mais fáceis de depurar do que programas de execução de gráfico.

parada antecipada

#fundamentals

Um método de regularização que envolve o encerramento do treinamento antes da perda do treinamento terminar. Na parada antecipada, você para intencionalmente o treinamento do modelo quando a perda em um conjunto de dados de validação começa a aumentar, ou seja, quando o desempenho da generalização piora.

distância da movimentação da Terra (EMD)

Uma medida da semelhança relativa de duas distribuições. Quanto menor a distância da movimentação da Terra, mais semelhantes são as distribuições.

editar distância

#language

Uma medida da semelhança entre duas strings de texto. Em machine learning, a edição da distância é útil porque é simples de calcular e é uma maneira eficaz de comparar duas strings conhecidas por serem semelhantes ou de encontrar strings semelhantes a uma determinada string.

Há várias definições para a distância de edição, cada uma usando operações de string diferentes. Por exemplo, a Distância de Levenshtein (link em inglês) considera o menor número de operações de exclusão, inserção e substituição.

Por exemplo, a distância de Levenshtein entre as palavras "coração" e "dardos" é 3 porque as três edições a seguir são as menos alterações para transformar uma palavra em outra:

  1. coração → deart (substitua "h" por "d")
  2. deart → dart (excluir "e")
  3. dart → darts (insert "s")

Notação Einsum

Uma notação eficiente para descrever como dois tensores são combinados. Os tensores são combinados ao multiplicar os elementos de um tensor pelos elementos do outro e, em seguida, somando os produtos. A notação Einsum usa símbolos para identificar os eixos de cada tensor. Esses mesmos símbolos são reorganizados para especificar a forma do novo tensor resultante.

NumPy fornece uma implementação comum de Einsum.

camada de embedding

#language
#fundamentals

Uma camada escondida especial que treina um recurso categórico de alta dimensão para aprender gradualmente um vetor de embedding de dimensão menor. Uma camada de incorporação permite que uma rede neural treine com muito mais eficiência do que o treinamento apenas com o atributo categórico de alta dimensão.

Por exemplo, a Terra atualmente suporta cerca de 73.000 espécies de árvores. Suponha que as espécies de árvores sejam um recurso no modelo. Portanto, a camada de entrada dele inclui um vetor one-hot com 73.000 elementos. Por exemplo, talvez baobab fosse representado algo assim:

Uma matriz de 73.000 elementos. Os primeiros 6.232 elementos contêm o valor
     0. O elemento seguinte contém o valor 1. Os 66.767 elementos finais contêm o valor zero.

Uma matriz de 73.000 elementos é muito longa. Se você não adicionar uma camada de embedding ao modelo, o treinamento será muito demorado,devido à multiplicação de 72.999 zeros. Talvez você escolha a camada de embedding para consistir em 12 dimensões. Consequentemente, a camada de embedding aprende gradualmente um novo vetor de embedding para cada espécie de árvore.

Em determinadas situações, o hash é uma alternativa razoável a uma camada de embedding.

espaço de embedding

#language

O espaço vetorial d-dimensional que contém um espaço vetorial de dimensão mais alta é mapeado para ele. O ideal é que o espaço de embedding contenha uma estrutura que produza resultados matemáticos significativos. Por exemplo, em um espaço de embedding ideal, a adição e subtração de embeddings pode resolver tarefas de analogia de palavras.

O produto de pontos de dois embeddings é uma medida da semelhança entre eles.

vetor de embedding

#language

De modo geral, uma matriz de números de ponto flutuante retirados de qualquer camada escondida que descreva as entradas dessa camada. Muitas vezes, um vetor de embedding é a matriz de números de ponto flutuante treinados em uma camada de embedding. Por exemplo, suponha que uma camada de embedding precise aprender um vetor de incorporação para cada uma das 73.000 espécies de árvores na Terra. Talvez a matriz a seguir seja o vetor de embedding de um baobá:

Uma matriz de 12 elementos, cada um contendo um número de ponto flutuante entre 0,0 e 1,0.

Um vetor de embedding não é um monte de números aleatórios. Uma camada de embedding determina esses valores por meio do treinamento, semelhante à maneira como uma rede neural aprende outros pesos durante o treinamento. Cada elemento da matriz é uma classificação, além de alguma característica de uma espécie de árvore. Qual elemento representa a característica de qual espécie de árvore? Isso é muito difícil para os humanos determinarem.

A parte matematicamente notável de um vetor de embedding é que itens semelhantes têm conjuntos semelhantes de números de ponto flutuante. Por exemplo, espécies de árvores semelhantes têm um conjunto mais semelhante de números de ponto flutuante do que espécies de árvores diferentes. As sequoias e as sequoias são espécies de árvores relacionadas, por isso têm um conjunto mais semelhante de números flutuantes do que as sequoias e coqueiros. Os números no vetor de embedding mudarão sempre que você treinar novamente o modelo, mesmo se ele for treinado outra vez com uma entrada idêntica.

função de distribuição cumulativa empírica (eCDF ou EDF)

Uma função de distribuição cumulativa com base em medições empíricas de um conjunto de dados real. O valor da função em qualquer ponto ao longo do eixo x é a fração de observações no conjunto de dados que são menores ou iguais ao valor especificado.

minimização do risco empírico (ERM)

Escolher a função que minimiza a perda no conjunto de treinamento. Compare a minimização do risco estrutural.

codificador

#language

Em geral, qualquer sistema de ML que converte de uma representação bruta, esparsa ou externa em uma representação mais processada, densa ou mais interna.

Codificadores são geralmente um componente de um modelo maior, em que frequentemente são pareados com um decodificador. Alguns Transformers emparelham codificadores com decodificadores, embora outros transformadores usem apenas o codificador ou apenas o decodificador.

Alguns sistemas usam a saída do codificador como entrada para uma rede de classificação ou regressão.

Em tarefas sequência para sequência, um codificador usa uma sequência de entrada e retorna um estado interno (um vetor). Em seguida, o decodificador usa esse estado interno para prever a próxima sequência.

Consulte Transformer para a definição de um codificador na arquitetura de transformador.

conjunto

Uma coleção de modelos treinados de forma independente, cujas previsões são calculadas ou agregadas. Em muitos casos, um ensemble produz previsões melhores do que um único modelo. Por exemplo, uma floresta aleatória é um ensemble criado a partir de várias árvores de decisão. Observe que nem todas as florestas de decisão são conjuntos.

entropia

#df

Em teoria da informação, é uma descrição da imprevisibilidade da distribuição de probabilidade. Por outro lado, a entropia também é definida pela quantidade de informações que cada exemplo contém. Uma distribuição tem a maior entropia possível quando todos os valores de uma variável aleatória são igualmente prováveis.

A entropia de um conjunto com dois valores possíveis "0" e "1" (por exemplo, os rótulos em um problema de classificação binária) tem a seguinte fórmula:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

onde:

  • H é a entropia.
  • p é a fração de exemplos "1".
  • q é a fração de exemplos "0". Observe que q = (1 - p)
  • log geralmente é log2. Nesse caso, a unidade de entropia é um pouco.

Por exemplo, suponha que:

  • 100 exemplos contêm o valor "1"
  • 300 exemplos contêm o valor "0"

Portanto, o valor de entropia é:

  • p = 0,25
  • q = 0,75
  • H = (-0,25)log2(0,25) - (0,75)log2(0,75) = 0,81 bits por exemplo

Um conjunto que é perfeitamente equilibrado (por exemplo, 200 "0" e 200 "1"s) teria uma entropia de 1,0 bit por exemplo. À medida que um conjunto se torna mais desequilibrado, a entropia dele se move em direção a 0,0.

Em árvores de decisão, a entropia ajuda a formular ganho de informações para ajudar o divisor a selecionar as condições durante o crescimento de uma árvore de decisão de classificação.

Comparar a entropia com:

A entropia é frequentemente chamada de entropia de Shannon.

de produção

#rl

No aprendizado por reforço, o mundo que contém o agente e permite que ele observe o estado desse mundo. Por exemplo, o mundo representado pode ser um jogo como o xadrez ou um mundo físico como um labirinto. Quando o agente aplica uma ação ao ambiente, o ambiente transita entre os estados.

episódio

#rl

No aprendizado por reforço, cada uma das tentativas repetidas do agente de aprender um ambiente.

época

#fundamentals

Um treinamento completo passa por todo o conjunto de treinamento, de modo que cada exemplo seja processado uma vez.

Um período representa as iterações de treinamento de N/tamanho do lote, em que N é o número total de exemplos.

Por exemplo, suponha que:

  • O conjunto de dados é composto por 1.000 exemplos.
  • O tamanho do lote é de 50 exemplos.

Portanto, um único período requer 20 iterações:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

política épsilon greedy

#rl

No aprendizado por reforço, uma política que segue uma política aleatória com probabilidade de épsilon ou uma política gananciosa. Por exemplo, se épsilon for 0,9, a política seguirá uma política aleatória 90% das vezes e uma política gananciosa 10% das vezes.

Ao longo de episódios sucessivos, o algoritmo reduz o valor de épsilon para mudar de uma política aleatória para uma gananciosa. Ao alterar a política, o agente primeiro explora aleatoriamente o ambiente e, em seguida, explora gananciosamente os resultados da exploração aleatória.

igualdade de oportunidade

#fairness

Uma métrica de imparcialidade para avaliar se um modelo está prevendo o resultado desejável igualmente bem para todos os valores de um atributo sensível. Em outras palavras, se o resultado desejado de um modelo for a classe positiva, a meta será que a taxa de verdadeiro positivo seja a mesma para todos os grupos.

A igualdade de oportunidade está relacionada à probabilidade igualitária, o que exige que ambos as taxas de verdadeiros positivos e as taxas de falsos positivos sejam as mesmas para todos os grupos.

Suponha que a Glubbdubdrib University admita liliputianos e brobdingnagians em um rigoroso programa de matemática. As escolas secundárias de Lilliputians oferecem um currículo robusto com aulas de matemática, e a grande maioria dos alunos se qualifica para o programa universitário. As escolas secundárias dos Brobdingnagians não oferecem aulas de matemática e, como resultado, muito menos alunos são qualificados. A igualdade de oportunidade é cumprida para o rótulo preferencial de "aceito" em relação à nacionalidade (liliputiano ou brobdingnagiano) se os alunos qualificados tiverem a mesma probabilidade de serem admitidos, independentemente de serem liliputianos ou brobdingnagianos.

Por exemplo, suponha que 100 Lilliputians e 100 Brobdingnagians se inscrevam na Glubbdubdrib University, e as decisões de admissão são tomadas da seguinte maneira:

Tabela 1. Candidatos liliputianos (90% são qualificados)

  Qualificado Não qualificado
Aceito 45 3
Recusado 45 7
Total 90 10
Porcentagem de estudantes qualificados admitidos: 45/90 = 50%
Porcentagem de estudantes não qualificados rejeitados: 7/10 = 70%
Porcentagem total de estudantes liliputianos admitidos: (45+3)/100 = 48%

 

Tabela 2. Candidatos a Brobdingnagian (10% qualificados):

  Qualificado Não qualificado
Aceito 5 9
Recusado 5 81
Total 10 90
Porcentagem de estudantes qualificados admitidos: 5/10 = 50%
Porcentagem de estudantes não qualificados rejeitados: 81/90 = 90%
Porcentagem total de estudantes Brobdingnagians admitidos: (5+9)/100 = 14%

Os exemplos anteriores atendem à igualdade de oportunidade de aceitação de estudantes qualificados, porque Liliputians e Brobdingnagians qualificados têm 50% de chance de serem admitidos.

Embora a igualdade de oportunidade seja satisfatória, as duas métricas de imparcialidade a seguir não são:

  • Paridade demográfica: a admissão na universidade é de 48% dos liliputianos, mas apenas 14% dos brobdingnagias são aceitos.
  • Chances iguais: embora os estudantes Liliputianos e Brobdingnagianos qualificados tenham a mesma chance de serem admitidos, a restrição extra de que Liliputianos e Brobdingnagians não qualificados têm a mesma chance de serem rejeitados não é satisfeita. Os liliputianos não qualificados têm uma taxa de rejeição de 70%, enquanto os não qualificados têm uma taxa de rejeição de 90%.

Consulte "Igualdade de oportunidade no aprendizado supervisionado" para uma discussão mais detalhada sobre a igualdade de oportunidade. Consulte também "Como atacar a discriminação com um machine learning mais inteligente" (em inglês) para uma visualização que explora as vantagens e desvantagens da otimização voltada à igualdade de oportunidade.

probabilidades iguais

#fairness

Uma métrica de imparcialidade para avaliar se um modelo está prevendo resultados igualmente bem para todos os valores de um atributo sensível em relação à classe positiva e à classe negativa, não apenas a uma ou a outra exclusivamente. Em outras palavras, a taxa de verdadeiro positivo e a taxa de falso negativo precisam ser as mesmas para todos os grupos.

A probabilidade igualitária está relacionada à igualdade de oportunidade, que se concentra apenas nas taxas de erro de uma única classe (positiva ou negativa).

Por exemplo, suponha que a Universidade Glubbdubdrib admita liliputianos e pinadores em um rigoroso programa de matemática. As escolas secundárias de Lilliputians oferecem um currículo robusto de aulas de matemática, e a grande maioria dos alunos está qualificada para o programa universitário. As escolas de ensino médio dos Brobdingnagians não oferecem aulas de matemática e, como resultado, muito menos alunos são qualificados. As probabilidades iguais são satisfeitas, desde que não importe se um candidato é liliputiano ou brobdingnagian, se ele for qualificado, a probabilidade de ser admitido no programa é igual e, se ele não for qualificado, também terá a mesma probabilidade de ser rejeitado.

Suponha que 100 Liliputianos e 100 Brobdingnagians se inscrevam na Universidade Glubbdubdrib, e as decisões de admissão são tomadas da seguinte maneira:

Tabela 3. Candidatos liliputianos (90% são qualificados)

  Qualificado Não qualificado
Aceito 45 2
Recusado 45 8
Total 90 10
Porcentagem de estudantes qualificados admitidos: 45/90 = 50%
Porcentagem de estudantes não qualificados rejeitados: 8/10 = 80%
Porcentagem total de estudantes liliputianos admitidos: (45+2)/100 = 47%

 

Tabela 4. Candidatos a Brobdingnagian (10% qualificados):

  Qualificado Não qualificado
Aceito 5 18
Recusado 5 72
Total 10 90
Porcentagem de estudantes qualificados admitidos: 5/10 = 50%
Porcentagem de estudantes não qualificados rejeitados: 72/90 = 80%
Porcentagem total de estudantes Brobdingnagians admitidos: (5+18)/100 = 23%

As probabilidades equalizadas são satisfeitas porque os estudantes qualificados de Lilliputian e Brobdingnagian têm 50% de chance de serem aceitos, e Lilliputian e Brobdingnagian não qualificados têm 80% de chance de serem rejeitados.

As probabilidades igualitárias são definidas formalmente em "Igualdade de oportunidade no aprendizado supervisionado" da seguinte forma: "previsor eval atende a probabilidades equalizadas em relação ao atributo protegido A e resultado Y se ø e A são independentes, condicionais em Y".

Estimator

#TensorFlow

Uma API TensorFlow obsoleta. Use tf.keras em vez dos estimadores.

Avaliação

O processo de medição da qualidade das previsões de um modelo de machine learning. Ao desenvolver um modelo, você normalmente aplica métricas de avaliação não apenas no conjunto de treinamento, mas também em um conjunto de validação e um conjunto de teste. Também é possível usar métricas de avaliação para comparar modelos diferentes.

exemplo.

#fundamentals

Os valores de uma linha de features e possivelmente um label. Os exemplos no aprendizado supervisionado se enquadram em duas categorias gerais:

  • Um exemplo rotulado consiste em um ou mais recursos e um rótulo. Os exemplos rotulados são usados durante o treinamento.
  • Um exemplo não rotulado consiste em um ou mais recursos, mas nenhum rótulo. Exemplos não rotulados são usados durante a inferência.

Por exemplo, suponha que você esteja treinando um modelo para determinar a influência das condições climáticas nos resultados das avaliações dos alunos. Aqui estão três exemplos rotulados:

Recursos Rótulo
Temperatura Umidade Pressão Pontuação do teste
15 47 998 Boa
19 34 1020 Excelente
18 92 1012 Ruim

Aqui estão três exemplos sem rótulos:

Temperatura Umidade Pressão  
12 62 1014  
21 47 1017  
19 41 1021  

A linha de um conjunto de dados é normalmente a origem bruta de um exemplo. Ou seja, um exemplo normalmente consiste em um subconjunto das colunas no conjunto de dados. Além disso, os atributos em um exemplo também podem incluir atributos sintéticos, como cruzamentos de atributos.

repetição da experiência

#rl

No aprendizado por reforço, uma técnica de DQN (em inglês) usada para reduzir correlações temporais nos dados de treinamento. O agente armazena as transições de estado em um buffer de repetição e, em seguida, faz amostragem de transições do buffer de repetição para criar dados de treinamento.

viés do experimentador

#fairness

Consulte o viés de confirmação.

problema de gradiente em explosão

#seq

A tendência dos gradientes em redes neurais profundas (especialmente as redes neurais recorrentes) de se tornarem surpreendentemente íngremes (altas). Gradientes íngremes geralmente causam atualizações muito grandes nos pesos de cada em uma rede neural profunda.

É difícil ou impossível treinar os modelos que sofrem do problema de gradiente em explosão. O recorte de gradiente (link em inglês) pode mitigar esse problema.

Compare com o problema de extinção do gradiente.

F

F1

Uma métrica de classificação binária "de visualização completa" que depende de precisão e recall. Aqui está a fórmula:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

Por exemplo, considerando o seguinte:

  • precisão = 0,6
  • recall = 0,4
$$F{_1} = \frac{\text{2 * 0.6 * 0.4}} {\text{0.6 + 0.4}} = 0.48$$

Quando a precisão e o recall são bastante semelhantes (como no exemplo anterior), F1 é próximo da média. Quando a precisão e o recall são significativamente diferentes, F1 está mais próximo do valor mais baixo. Exemplo:

  • precisão = 0,9
  • recall = 0,1
$$F{_1} = \frac{\text{2 * 0.9 * 0.1}} {\text{0.9 + 0.1}} = 0.18$$

restrição de imparcialidade

#fairness
Aplicar uma restrição a um algoritmo para garantir que uma ou mais definições de imparcialidade sejam atendidas. Exemplos de restrições de imparcialidade incluem:

métrica de imparcialidade

#fairness

Uma definição matemática de "imparcialidade" que é mensurável. Estas são algumas métricas de imparcialidade mais usadas:

Muitas métricas de imparcialidade são mutuamente exclusivas. Consulte incompatibilidade de métricas de imparcialidade.

falso negativo (FN)

#fundamentals

Um exemplo em que o modelo prevê por engano a classe negativa. Por exemplo, o modelo prevê que uma mensagem de e-mail específica não é spam (a classe negativa), mas essa mensagem é, na verdade, spam.

taxa de falso negativo

A proporção de exemplos positivos reais para os quais o modelo previu erroneamente a classe negativa. A fórmula a seguir calcula a taxa de falso negativo:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

falso positivo (FP)

#fundamentals

Um exemplo em que o modelo prevê por engano a classe positiva. Por exemplo, o modelo prevê que uma determinada mensagem de e-mail é spam (a classe positiva), mas que ela não é spam.

taxa de falsos positivos (FPR)

#fundamentals

A proporção de exemplos negativos reais para os quais o modelo previu erroneamente a classe positiva. A fórmula a seguir calcula a taxa de falso positivo:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

A taxa de falsos positivos é o eixo X em uma curva ROC.

recurso

#fundamentals

Uma variável de entrada para um modelo de machine learning. Um exemplo consiste em um ou mais recursos. Por exemplo, suponha que você esteja treinando um modelo para determinar a influência das condições climáticas nas notas dos alunos. A tabela a seguir mostra três exemplos, cada um contendo três recursos e um rótulo:

Recursos Rótulo
Temperatura Umidade Pressão Pontuação do teste
15 47 998 92
19 34 1020 84
18 92 1012 87

Contraste com rótulo.

cruzamento de atributos

#fundamentals

Um atributo sintético formado pelo "cruzamento" de atributos categóricos ou agrupados.

Por exemplo, considere um modelo de "previsão de humor" que representa a temperatura em um dos quatro buckets a seguir:

  • freezing
  • chilly
  • temperate
  • warm

E representa a velocidade do vento em um dos três buckets a seguir:

  • still
  • light
  • windy

Sem cruzamentos de atributos, o modelo linear é treinado de forma independente em cada um dos sete vários buckets anteriores. Assim, o modelo é treinado em freezing, por exemplo, independentemente do treinamento em windy.

Como alternativa, você pode criar um cruzamento de atributos de temperatura e velocidade do vento. Esse recurso sintético teria os 12 valores possíveis abaixo:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Graças aos cruzamentos de atributos, o modelo pode aprender diferenças de humor entre um dia freezing-windy e um dia freezing-still.

Se você criar um atributo sintético a partir de dois atributos que tenham muitos buckets diferentes, o cruzamento de atributos resultante terá um grande número de combinações possíveis. Por exemplo, se um atributo tiver 1.000 buckets e o outro recurso tiver 2.000 buckets, o cruzamento de atributos resultante terá 2.000.000 buckets.

Formalmente, um cruzamento é um produto cartesiano.

Os cruzamentos de atributos são usados principalmente com modelos lineares e raramente com redes neurais.

e engenharia de atributos.

#fundamentals
#TensorFlow

Um processo que envolve as seguintes etapas:

  1. Determinar quais recursos podem ser úteis no treinamento de um modelo.
  2. Converter dados brutos do conjunto de dados em versões eficientes desses atributos.

Por exemplo, você pode determinar que temperature pode ser um recurso útil. Em seguida, teste o agrupamento por classes para otimizar o que o modelo pode aprender com diferentes intervalos de temperature.

A engenharia de atributos às vezes é chamada de extração de atributos ou recursos.

extração de atributos

Termo sobrecarregado com uma das seguintes definições:

importâncias dos atributos

#df

Sinônimo de importâncias de variáveis.

conjunto de atributos

#fundamentals

O grupo de atributos em que o modelo de machine learning é treinado. Por exemplo, CEP, tamanho e condição da propriedade podem incluir um conjunto de atributos simples para um modelo que prevê preços de imóveis.

especificação de atributos

#TensorFlow

Descreve as informações necessárias para extrair dados de recursos do buffer de protocolo tf.Example. Como o buffer de protocolo tf.Example é apenas um contêiner de dados, é preciso especificar o seguinte:

  • Os dados a serem extraídos (ou seja, as chaves dos atributos)
  • O tipo de dados (por exemplo, float ou int)
  • O tamanho (fixo ou variável)

vetor de recurso

#fundamentals

A matriz de valores de feature que compreende um exemplo. O vetor de recurso é inserido durante o treinamento e a inferência. Por exemplo, o vetor de recurso de um modelo com dois recursos discretos pode ser:

[0.92, 0.56]

Quatro camadas: uma de entrada, duas escondidas e uma final.
          A camada de entrada contém dois nós, um com o valor
          0,92 e outro com o valor 0,56.

Cada exemplo fornece valores diferentes para o vetor de atributo. Portanto, o vetor de atributos do próximo exemplo pode ser semelhante a:

[0.73, 0.49]

A engenharia de atributos determina como representar os atributos no vetor. Por exemplo, um recurso categórico binário com cinco valores possíveis pode ser representado com codificação one-hot. Nesse caso, a parte do vetor de atributo de um exemplo específico consistiria em quatro zeros e um único 1,0 na terceira posição, da seguinte maneira:

[0.0, 0.0, 1.0, 0.0, 0.0]

Como outro exemplo, suponha que seu modelo tenha três atributos:

  • Um recurso categórico binário com cinco valores possíveis representados com codificação one-hot. Por exemplo: [0.0, 1.0, 0.0, 0.0, 0.0]
  • outro recurso categórico binário com três valores possíveis representados com codificação one-hot. Por exemplo: [0.0, 0.0, 1.0]
  • um recurso de ponto flutuante. Por exemplo: 8.3.

Nesse caso, o vetor de recurso de cada exemplo seria representado por nove valores. Considerando os valores de exemplo na lista anterior, o vetor de atributo seria:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

funcionalidades

O processo de extração de recursos de uma fonte de entrada, como um documento ou vídeo, e mapeamento deles em um vetor de atributos.

Alguns especialistas em ML usam funcionalidades como sinônimo de engenharia de atributos ou extração de atributos.

federated learning

Uma abordagem de machine learning distribuído que treina modelos de machine learning usando exemplos descentralizados que residem em dispositivos como smartphones. No aprendizado federado, um subconjunto de dispositivos faz o download do modelo atual de um servidor de coordenação central. Os dispositivos usam os exemplos armazenados para fazer melhorias no modelo. Em seguida, os dispositivos fazem upload das melhorias do modelo, mas não dos exemplos de treinamento, para o servidor de coordenação, onde são agregados a outras atualizações para produzir um modelo global aprimorado. Após a agregação, as atualizações do modelo computadas pelos dispositivos não são mais necessárias e podem ser descartadas.

Como os exemplos de treinamento nunca são enviados, o aprendizado federado segue os princípios de privacidade da coleta e minimização de dados com foco.

Para mais informações sobre o aprendizado federado, consulte este tutorial.

ciclo de feedback

#fundamentals

No machine learning, uma situação em que as previsões de um modelo influenciam os dados de treinamento para o mesmo modelo ou outro. Por exemplo, um modelo que recomenda filmes influenciará os filmes que as pessoas veem, o que, por sua vez, influenciará os modelos subsequentes de recomendação de filmes.

rede neural feedforward (FFN, na sigla em inglês)

Uma rede neural sem conexões cíclicas ou recursivas. Por exemplo, as redes neurais profundas tradicionais são redes neurais feedforward. Compare com as redes neurais recorrentes, que são cíclicas.

aprendizado few-shot

Uma abordagem de machine learning, geralmente usada para classificação de objetos, projetada para treinar classificadores eficazes de apenas um pequeno número de exemplos de treinamento.

Consulte também aprendizado one-shot e zero-shot.

comandos few-shot

#language
#IAgenerativa

Um comando que contém mais de um exemplo ("alguns") demonstrando como o modelo de linguagem grande precisa responder. Por exemplo, o prompt longo a seguir contém dois exemplos que mostram um modelo de linguagem grande como responder a uma consulta.

Partes de um comando Observações
Qual é a moeda oficial do país especificado? A pergunta que você quer que o LLM responda.
França: EUR Um exemplo.
Reino Unido: GBP Outro exemplo.
Índia: A consulta real.

Os comandos few-shot geralmente produzem resultados mais desejáveis do que os comandos zero-shot e one-shot. No entanto, os comandos few-shot requerem um comando mais longo.

Os comandos few-shot são uma forma de aprendizado few-shot aplicada ao aprendizado baseado em comandos.

Violino

#language

Uma biblioteca de configuração que prioriza o Python e define os valores de funções e classes sem código ou infraestrutura invasivos. No caso de Pax (e outras bases de código de ML), essas funções e classes representam modelos e hiperparâmetros de treinamento.

O Fiddle pressupõe que as bases de código de machine learning são normalmente divididas em:

  • Código da biblioteca, que define as camadas e os otimizadores.
  • O código "cola" do conjunto de dados, que chama as bibliotecas e conecta tudo.

O Fiddle captura a estrutura de chamada do código agrupador de forma não avaliada e mutável.

ajuste

#language
#image
#IAgenerativa

Uma segunda passagem de treinamento específica para uma tarefa realizada em um modelo pré-treinado para refinar os parâmetros dele para um caso de uso específico. Por exemplo, a sequência de treinamento completa de alguns modelos de linguagem grandes é a seguinte:

  1. Pré-treinamento:treine um modelo de linguagem grande em um conjunto de dados geral amplo, como todas as páginas da Wikipédia em inglês.
  2. Ajuste:treine o modelo pré-treinado para executar uma tarefa específica, como responder a consultas médicas. O ajuste fino normalmente envolve centenas ou milhares de exemplos focados na tarefa específica.

Como outro exemplo, a sequência de treinamento completa para um modelo de imagem grande é esta:

  1. Pré-treinamento:treine um modelo de imagem grande em um amplo conjunto de dados geral, como todas as imagens no Wikimedia commons.
  2. Ajuste: treine o modelo pré-treinado para executar uma tarefa específica, como gerar imagens de orcas.

O ajuste fino pode envolver qualquer combinação das seguintes estratégias:

  • Modificar todos os parâmetros atuais do modelo pré-treinado Às vezes, isso é chamado de ajuste total.
  • Modificar apenas alguns dos parâmetros atuais do modelo pré-treinado (normalmente, as camadas mais próximas da camada de saída), mantendo os outros parâmetros atuais inalterados (normalmente, as camadas mais próximas da camada de entrada). Consulte ajuste com eficiência de parâmetros.
  • Adicionar mais camadas, normalmente sobre as camadas mais próximas da camada de saída.

O ajuste é uma forma de aprendizado por transferência. Assim, o ajuste pode usar uma função de perda diferente ou um tipo de modelo diferente daqueles usados para treinar o modelo pré-treinado. Por exemplo, é possível ajustar um modelo de imagem grande pré-treinado para produzir um modelo de regressão que retorne o número de pássaros em uma imagem de entrada.

Compare os ajustes com os seguintes termos:

Flax

#language

Uma biblioteca de código aberto de alto desempenho para aprendizado profundo criada com base no JAX. O Flax oferece funções para treinamento de redes neurais, bem como métodos para avaliar o desempenho delas.

Formador de linho

#language

Uma biblioteca de código aberto Transformer, criada no Flax, projetada principalmente para processamento de linguagem natural e pesquisa multimodal.

esquecer portão

#seq

A parte de uma célula de memória de curto prazo longa que regula o fluxo de informações pela célula. As portas de esquecimento mantêm o contexto decidindo quais informações serão descartadas do estado da célula.

softmax completa

Sinônimo de softmax.

Compare com a amostragem de candidatos.

camada totalmente conectada

Uma camada escondida em que cada está conectado a todos os na camada escondida subsequente.

Uma camada totalmente conectada também é conhecida como camada densa.

transformação de função

Uma função que usa uma função como entrada e retorna uma função transformada como saída. O JAX usa transformações de função.

G

GAN (na sigla em inglês)

Abreviação de rede adversária generativa.

generalização

#fundamentals

A capacidade de um modelo de fazer previsões corretas sobre dados novos que não foram analisados. Um modelo que pode generalizar é o oposto de um modelo com overfitting.

curva de generalização

#fundamentals

Um gráfico de perda de treinamento e perda de validação como uma função do número de iterações.

Uma curva de generalização pode ajudar a detectar um possível overfitting. Por exemplo, a curva de generalização a seguir sugere overfitting porque a perda de validação se torna significativamente maior do que a perda de treinamento.

Um gráfico cartesiano em que o eixo y é rotulado como perda e o eixo x
          são iterações. Dois gráficos aparecem. Um gráfico mostra a
          perda de treinamento e o outro, a perda de validação.
          Os dois gráficos começam de maneira semelhante, mas a perda de treinamento eventualmente cai muito menos do que a de validação.

modelo linear generalizado

Uma generalização de modelos de regressão de mínimos quadrados, baseados em ruído gaussiano, para outros tipos de modelos baseados em outros tipos de ruído, como ruído de Poisson ou ruído categórico. Exemplos de modelos lineares generalizados incluem:

Os parâmetros de um modelo linear generalizado podem ser encontrados por meio da otimização convexa.

Os modelos lineares generalizados exibem as seguintes propriedades:

  • A previsão média do modelo de regressão de mínimos quadrados ideal é igual ao rótulo médio nos dados de treinamento.
  • A probabilidade média prevista pelo modelo de regressão logística ideal é igual ao rótulo médio nos dados de treinamento.

A potência de um modelo linear generalizado é limitada pelos atributos. Ao contrário de um modelo profundo, um modelo linear generalizado não pode "aprender novos atributos".

rede adversária generativa (GAN, na sigla em inglês)

Um sistema para criar novos dados em que um gerador cria dados e um discriminador determina se esses dados criados são válidos ou inválidos.

IA generativa

#language
#image
#IAgenerativa

Um campo transformador emergente sem definição formal. Dito isso, a maioria dos especialistas concorda que os modelos de IA generativa podem criar ("gerar") conteúdo que é:

  • complexo
  • coerentes
  • original

Por exemplo, um modelo de IA generativa pode criar ensaios ou imagens sofisticados.

Algumas tecnologias anteriores, como LSTMs e RNNs, também podem gerar conteúdo original e coerente. Alguns especialistas veem essas tecnologias anteriores como IA generativa, enquanto outros sentem que a verdadeira IA generativa requer resultados mais complexos do que as tecnologias anteriores podem produzir.

Compare com o ML preditivo.

modelo generativo

Na prática, um modelo que realiza uma das seguintes ações:

  • Cria (gera) novos exemplos do conjunto de dados de treinamento. Por exemplo, um modelo generativo pode criar poesias após o treinamento em um conjunto de dados de poemas. A parte gerador de uma rede adversária generativa se encaixa nessa categoria.
  • Determina a probabilidade de um novo exemplo vir do conjunto de treinamento ou ter sido criado com o mesmo mecanismo que criou o conjunto de treinamento. Por exemplo, após o treinamento em um conjunto de dados composto por frases em inglês, um modelo generativo poderia determinar a probabilidade de que a nova entrada seja uma frase válida em inglês.

Um modelo generativo pode, teoricamente, discernir a distribuição de exemplos ou atributos específicos em um conjunto de dados. Ou seja:

p(examples)

Os modelos de aprendizado não supervisionados são generativos.

Compare os modelos discriminativos.

generator

O subsistema dentro de uma rede adversária generativa que cria novos exemplos.

Compare com o modelo discriminativo.

impureza de gini

#df

Uma métrica semelhante à entropia. Os divisores usam valores derivados da impureza do gini ou da entropia para compor condições de classificação de árvores de decisão. O ganho de informação é derivado da entropia. Não há um termo equivalente universalmente aceito para a métrica derivada da impureza de gini. No entanto, essa métrica sem nome é tão importante quanto o ganho de informações.

A impureza de Gini também é chamada de índice de gini ou simplesmente gini.

conjunto de dados de ouro

Um conjunto de dados selecionados manualmente que captura informações empíricas. As equipes podem usar um ou mais conjuntos de dados de ouro para avaliar a qualidade de um modelo.

Alguns conjuntos de dados dourados capturam subdomínios diferentes de informações empíricas. Por exemplo, um conjunto de dados dourado para classificação de imagens pode capturar condições de iluminação e resolução de imagens.

GPT (Transformer Generative Pre-trained)

#language

Uma família de modelos de linguagem grandes baseados em Transformer desenvolvidos pela OpenAI.

As variantes da GPT podem ser aplicadas a várias modalidades, incluindo:

  • geração de imagens (por exemplo, ImageGPT)
  • de texto para imagem (por exemplo, DALL-E).

gradient

O vetor de derivadas parciais em relação a todas as variáveis independentes. Em machine learning, o gradiente é o vetor de derivadas parciais da função de modelo. O gradiente aponta na direção da subida mais íngreme.

acúmulo de gradiente

Uma técnica de backpropagação que atualiza os parâmetros apenas uma vez por época, e não uma vez por iteração. Após o processamento de cada minilote, a acumulação de gradiente simplesmente atualiza um total contínuo de gradientes. Em seguida, após processar o último minilote na época, o sistema finalmente atualiza os parâmetros com base no total de todas as mudanças do gradiente.

O acúmulo de gradiente é útil quando o tamanho do lote é muito grande em comparação com a quantidade de memória disponível para treinamento. Quando a memória é um problema, a tendência natural é reduzir o tamanho do lote. No entanto, a redução do tamanho do lote na retropropagação normal aumenta o número de atualizações de parâmetros. O acúmulo de gradiente permite que o modelo evite problemas de memória, mas ainda treine com eficiência.

árvores otimizadas com gradiente (GBT)

#df

Um tipo de floresta de decisão em que:

aumento do gradiente

#df

Um algoritmo de treinamento em que modelos fracos são treinados para melhorar iterativamente a qualidade (reduzir a perda) de um modelo forte. Por exemplo, um modelo fraco pode ser linear ou de árvore de decisão pequena. O modelo forte se torna a soma de todos os modelos fracos treinados anteriormente.

Na forma mais simples de otimização de gradiente, em cada iteração, um modelo fraco é treinado para prever o gradiente de perda do modelo forte. Em seguida, a saída do modelo forte é atualizada subtraindo o gradiente previsto, semelhante ao gradiente descendente.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

onde:

  • $F_{0}$ é o modelo forte inicial.
  • $F_{i+1}$ é o próximo modelo forte.
  • $F_{i}$ é o modelo forte atual.
  • $\xi$ é um valor entre 0,0 e 1,0 chamado redução, que é análogo à taxa de aprendizado no gradiente descendente.
  • $f_{i}$ é o modelo fraco treinado para prever o gradiente de perda de $F_{i}$.

As variações modernas de aumento de gradiente também incluem a segunda derivada (hessian) da perda no cálculo.

As árvores de decisão costumam ser usadas como modelos fracos na intensificação do gradiente. Consulte árvores otimizadas com gradiente (decisão).

recorte de gradiente

#seq

Um mecanismo usado com frequência para mitigar o problema do gradiente em explosão ao limitar (recortar) artificialmente o valor máximo dos gradientes ao usar o gradiente descendente para treinar um modelo.

gradiente descendente

#fundamentals

É uma técnica matemática para minimizar a perda. O gradiente descendente ajusta de forma iterativa os pesos e os vieses, encontrando gradualmente a melhor combinação para minimizar a perda.

O gradiente descendente é muito mais antigo do que o aprendizado de máquina.

gráfico

#TensorFlow

No TensorFlow, uma especificação de computação. Os nós no gráfico representam operações. As bordas são direcionadas e representam a transmissão do resultado de uma operação (um Tensor) como um operando para outra operação. Use o TensorBoard para visualizar um gráfico.

execução de gráfico

#TensorFlow

Um ambiente de programação do TensorFlow em que o programa constrói primeiro um gráfico e depois o executa todo ou parte dele. A execução do gráfico é o modo de execução padrão no TensorFlow 1.x.

Já a execução antecipada é diferente.

política gananciosa

#rl

No aprendizado por reforço, uma política que sempre escolhe a ação com o retorno mais alto esperado.

informações empíricas

#fundamentals

Realidade.

O que realmente aconteceu.

Por exemplo, considere um modelo de classificação binária que prevê se um estudante no primeiro ano de universidade se formará dentro de seis anos. A informação empírica deste modelo é se o aluno se formou ou não em seis anos.

viés de atribuição a grupos

#fairness

Supondo que o que é verdadeiro para um indivíduo também é verdadeiro para todos esse grupo. Os efeitos do viés de atribuição a grupos podem ser agravados se uma amostragem por conveniência for usada para a coleta de dados. Em uma amostra não representativa, atribuições que não refletem a realidade podem ser feitas.

Consulte também Viés de homogeneidade externa ao grupo e viés de dentro do grupo.

H

alucinação artificial

#language

A produção de saída que parece plausível, mas factualmente incorreta por um modelo de IA generativa que alega estar fazendo uma declaração sobre o mundo real. Por exemplo, um modelo de IA generativa que afirma que Barack Obama morreu em 1865 está alucinando.

hash

Em machine learning, um mecanismo para agrupar dados categóricos por classes, especialmente quando o número de categorias é grande, mas o número de categorias realmente exibidas no conjunto de dados é comparativamente pequeno.

Por exemplo, a Terra é o lar de cerca de 73.000 espécies de árvores. É possível representar cada uma das 73 mil espécies de árvores em 73 mil buckets categóricos separados. Como alternativa, se apenas 200 dessas espécies de árvores realmente aparecerem em um conjunto de dados, você poderia usar hash para dividir as espécies de árvores em talvez 500 buckets.

Um único bucket pode conter várias espécies de árvores. Por exemplo, hashing poderia colocar baobab e bordo vermelho (duas espécies geneticamente diferentes) no mesmo bucket. Independentemente disso, o hash ainda é uma boa maneira de mapear grandes conjuntos categóricos para o número de buckets selecionado. O hash transforma um atributo categórico com um grande número de valores possíveis em um número muito menor de valores agrupando os valores de maneira determinista.

heurística

Uma solução simples e rápida para um problema. Por exemplo, "Com uma heurística, alcançamos 86% de precisão. Quando mudamos para uma rede neural profunda, a precisão subiu para 98%."

camada escondida

#fundamentals

Uma camada em uma rede neural entre a camada de entrada (os recursos) e a camada de saída (a previsão). Cada camada escondida consiste em um ou mais neurônios. Por exemplo, a seguinte rede neural contém duas camadas escondidas, a primeira com três neurônios e a segunda com dois:

Quatro camadas. A primeira é uma camada de entrada que contém dois atributos. A segunda camada é escondida, contendo três neurônios. A terceira camada é escondida, contendo dois neurônios. A quarta camada é a final. Cada recurso contém três bordas, cada uma apontando para um neurônio diferente na segunda camada. Cada um dos neurônios da segunda camada contém duas arestas, cada uma apontando para um neurônio diferente na terceira camada. Cada um dos neurônios da terceira camada contém uma borda, cada uma apontando para a camada final.

Uma rede neural profunda contém mais de uma camada escondida. Por exemplo, a ilustração anterior é uma rede neural profunda porque o modelo contém duas camadas ocultas.

clustering hierárquico

#clustering

Uma categoria de algoritmos de clustering que cria uma árvore de clusters. O clustering hierárquico é adequado para dados hierárquicos, como taxonomias botânicas. Há dois tipos de algoritmos de clustering hierárquico:

  • O clustering aglomerativo primeiro atribui cada exemplo ao próprio cluster e mescla de forma iterativa os clusters mais próximos para criar uma árvore hierárquica.
  • O clustering divisor primeiro agrupa todos os exemplos em um cluster e, em seguida, o divide iterativamente em uma árvore hierárquica.

Compare com o clustering com base em centroides.

perda de articulação

Uma família de funções de perda para classificação projetada para encontrar o limite de decisão o mais distante possível de cada exemplo de treinamento, maximizando assim a margem entre os exemplos e o limite. KSVMs usam perda de articulação (ou uma função relacionada, como perda de articulação quadrada). Na classificação binária, a função de perda de articulação é definida da seguinte maneira:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

em que y é o rótulo verdadeiro, -1 ou +1, e y' é a saída bruta do modelo do classificador:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Consequentemente, um gráfico de perda da articulação versus (y * y') é semelhante ao seguinte:

Gráfico cartesiano que consiste em dois segmentos de reta unidos. O primeiro segmento de linha começa em (-3, 4) e termina em (1, 0). O segmento da segunda linha começa em (1, 0) e continua indefinidamente com uma inclinação de 0.

viés histórico

#fairness

Um tipo de viés que já existe no mundo e chegou a um conjunto de dados. Esses vieses têm uma tendência a refletir estereótipos culturais, desigualdades demográficas e preconceitos contra determinados grupos sociais.

Por exemplo, considere um modelo de classificação que prevê se um solicitante de empréstimo vai insistir em um empréstimo, que foi treinado com dados históricos de inadimplência dos anos 1980 de bancos locais em duas comunidades diferentes. Se candidatos anteriores da Comunidade A estavam seis vezes mais propensos a não pagar os empréstimos do que os da Comunidade B, ele pode aprender um viés histórico, fazendo com que ele seja menos propenso a aprovar empréstimos na Comunidade A, mesmo que as condições históricas que resultaram nas taxas de inadimplência mais altas da comunidade não sejam mais relevantes.

dados de validação

Exemplos não usados intencionalmente ("afastados") durante o treinamento. O conjunto de dados de validação e o conjunto de dados de teste são exemplos de dados de validação. Os dados de validação ajudam a avaliar a capacidade do modelo de generalizar para outros dados além dos dados em que foi treinado. A perda no conjunto de validação fornece uma estimativa melhor da perda em um conjunto de dados não visto do que no conjunto de treinamento.

anfitrião

#TensorFlow
#GoogleCloud

Ao treinar um modelo de ML em chips de acelerador (GPUs ou TPUs), a parte do sistema que controla ambos os itens a seguir:

  • O fluxo geral do código.
  • A extração e transformação do pipeline de entrada.

O host normalmente é executado em uma CPU, não em um chip de acelerador. O dispositivo manipula tensores nos chips de acelerador.

hiperparâmetro

#fundamentals

As variáveis que você ou um serviço de ajuste de hiperparâmetros ajustam durante execuções sucessivas de treinamento de um modelo. Por exemplo, a taxa de aprendizado é um hiperparâmetro. É possível definir a taxa de aprendizado como 0,01 antes de uma sessão de treinamento. Se você determinar que 0,01 é muito alto, defina a taxa de aprendizado como 0,003 na próxima sessão de treinamento.

Por outro lado, os parâmetros são os vários pesos e viés que o modelo aprende durante o treinamento.

hiperplano

Um limite que separa um espaço em dois subespaços. Por exemplo, uma linha é um hiperplano em duas dimensões e um plano é um hiperplano em três dimensões. Mais normalmente no machine learning, um hiperplano é o limite que separa um espaço de alta dimensão. As máquinas de vetor de suporte do kernel usam hiperplanos para separar classes positivas de classes negativas, geralmente em um espaço dimensional muito alto.

I

i.i.d.

Abreviação de distribuído de forma independente e idêntica.

Reconhecimento de imagem

#image

Processo que classifica objetos, padrões ou conceitos em uma imagem. O reconhecimento de imagem também é conhecido como classificação de imagem.

Para mais informações, consulte Prática de ML: classificação de imagens.

conjunto de dados desequilibrado

Sinônimo de conjunto de dados desequilibrado de classe.

viés implícito

#fairness

Fazer automaticamente uma associação ou suposição com base nos modelos mentais e memórias da pessoa. O viés implícito pode afetar os seguintes itens:

  • Como os dados são coletados e classificados.
  • Como os sistemas de machine learning são projetados e desenvolvidos.

Por exemplo, ao criar um classificador para identificar fotos de casamento, um engenheiro pode usar a presença de um vestido branco em uma foto como atributo. No entanto, os vestidos brancos foram comuns apenas durante certas eras e em certas culturas.

Consulte também viés de confirmação.

imputação

Forma abreviada de imputação de valor.

incompatibilidade das métricas de imparcialidade

#fairness

Ideia de que algumas noções de imparcialidade são mutuamente incompatíveis e não podem ser satisfeitas simultaneamente. Como resultado, não há uma métrica universal única para quantificar a imparcialidade que possa ser aplicada a todos os problemas de ML.

Embora isso possa parecer desencorajador, a incompatibilidade das métricas de imparcialidade não implica que os esforços relacionados a imparcialidade sejam insatisfatórios. Em vez disso, ele sugere que a imparcialidade precisa ser definida contextualmente para um determinado problema de ML, com o objetivo de evitar danos específicos aos casos de uso dele.

Consulte "Sobre a (im)possibilidade da imparcialidade" para uma discussão mais detalhada sobre esse tópico.

aprendizado em contexto

#language
#IAgenerativa

Sinônimo de comandosfew-shot.

distribuídos de modo independente e idêntico

#fundamentals

Dados extraídos de uma distribuição que não muda e em que cada valor desenhado não depende de valores que foram desenhados anteriormente. Um i.i.d. é o gás ideal (em inglês) do machine learning, uma construção matemática útil, mas quase nunca exatamente encontrada no mundo real. Por exemplo, a distribuição de visitantes a uma página da Web pode ocorrer em um breve período. Ou seja, a distribuição não muda durante esse período e a visita de uma pessoa é geralmente independente da visita de outra. No entanto, se você expandir essa janela de tempo, poderão aparecer diferenças sazonais nos visitantes da página da Web.

Consulte também não estacionário.

imparcialidade individual

#fairness

Uma métrica de imparcialidade que verifica se indivíduos semelhantes são classificados de maneira semelhante. Por exemplo, a Brobdingnagian Academy pode querer satisfazer a imparcialidade individual, garantindo que dois alunos com notas idênticas e pontuações padronizadas nos testes tenham a mesma probabilidade de serem admitidos.

A imparcialidade individual depende totalmente de como você define "similaridade" (nesse caso, notas e pontuações de testes). Você pode correr o risco de introduzir novos problemas de imparcialidade se sua métrica de similaridade não passar informações importantes (como o rigor do currículo de um estudante).

Consulte "Imparcialidade por meio da consciência" para uma discussão mais detalhada sobre imparcialidade individual.

inferência

#fundamentals

Em machine learning, o processo de fazer previsões aplicando um modelo treinado a exemplos não rotulados.

A inferência tem um significado um pouco diferente nas estatísticas. Consulte o artigo da Wikipédia sobre inferência estatística para saber mais.

caminho de inferência

#df

Em uma árvore de decisão, durante a inferência, a rota que um exemplo específico segue da raiz para outras condições, terminando com uma folha. Por exemplo, na árvore de decisão abaixo, as setas mais grossas mostram o caminho de inferência de um exemplo com estes valores de atributos:

  • x = 7
  • y = 12
  • z = -3

O caminho de inferência na ilustração a seguir passa por três condições antes de chegar à folha (Zeta).

Uma árvore de decisão composta de quatro condições e cinco folhas.
          A condição raiz é (x > 0). Como a resposta é &quot;Sim&quot;, o caminho de inferência viaja da raiz até a próxima condição (y > 0).
          Como a resposta é &quot;Sim&quot;, o caminho de inferência vai para a
          próxima condição (z > 0). Como a resposta é não, o caminho de inferência
          vai até o nó terminal, que é a folha (Zeta).

As três setas grossas mostram o caminho de inferência.

ganho de informações

#df

Em florestas de decisão, é a diferença entre a entropia de um nó e a soma ponderada (por número de exemplos) da entropia dos nós filhos. A entropia de um nó é a entropia dos exemplos nesse nó.

Por exemplo, considere os seguintes valores de entropia:

  • entropia do nó pai = 0,6
  • entropia de um nó filho com 16 exemplos relevantes = 0,2
  • entropia de outro nó filho com 24 exemplos relevantes = 0,1

Portanto, 40% dos exemplos estão em um nó filho e 60% no outro nó filho. Assim:

  • soma de entropia ponderada dos nós filhos = (0,4 * 0,2) + (0,6 * 0,1) = 0,14

Assim, o ganho de informação é:

  • ganho de informações = entropia do nó pai - soma da entropia ponderada dos nós filhos
  • ganho de informação = 0,6 - 0,14 = 0,46

A maioria dos divisores procura criar condições que maximizem o ganho de informações.

viés de grupo

#fairness

Mostrar parcialidade pelo próprio grupo ou características próprias. Se os testadores ou avaliadores forem amigos, familiares ou colegas do desenvolvedor de machine learning, o viés de grupo poderá invalidar o teste do produto ou o conjunto de dados.

O viés em grupo é uma forma de viés de atribuição a grupo. Confira também viés de homogeneidade externa ao grupo.

gerador de entrada

Um mecanismo pelo qual os dados são carregados em uma rede neural.

Um gerador de entrada pode ser considerado um componente responsável pelo processamento de dados brutos em tensores que são iterados para gerar lotes para treinamento, avaliação e inferência.

camada de entrada

#fundamentals

A camada de uma rede neural que contém o vetor de atributos. Ou seja, a camada de entrada fornece exemplos de treinamento ou inferência. Por exemplo, a camada de entrada na rede neural a seguir consiste em dois recursos:

Quatro camadas: uma de entrada, duas escondidas e uma final.

condição inserida

#df

Em uma árvore de decisão, uma condição que testa a presença de um item em um conjunto de itens. Por exemplo, esta é uma condição inserida:

  house-style in [tudor, colonial, cape]

Durante a inferência, se o valor do feature de estilo de casa for tudor ou colonial ou cape, essa condição será avaliada como Sim. Se o valor do recurso de estilo interno for outro (por exemplo, ranch), essa condição será avaliada como No.

As condições inseridas geralmente levam a árvores de decisão mais eficientes do que condições que testam atributos de codificação one-hot.

instância

Sinônimo de example.

ajuste de instruções

#IAgenerativa

Uma forma de ajuste que melhora a capacidade de um modelo de IA generativa de seguir as instruções. O ajuste de instruções envolve o treinamento de um modelo em uma série de comandos de instrução, geralmente abrangendo uma ampla variedade de tarefas. O modelo ajustado por instruções resultante tende a gerar respostas úteis para comandos zero-shot em várias tarefas.

Compare com:

interpretabilidade

#fundamentals

capacidade de explicar ou apresentar o raciocínio de um modelo de ML em termos compreensíveis para um ser humano.

A maioria dos modelos de regressão linear, por exemplo, é altamente interpretável. Você só precisa observar os pesos treinados para cada atributo. Florestas de decisão também são altamente interpretáveis. No entanto, alguns modelos exigem uma visualização sofisticada para se tornarem interpretáveis.

Use a Ferramenta de aprendizado de interpretabilidade (LIT, na sigla em inglês) para interpretar modelos de ML.

concordância entre avaliadores

Uma medida da frequência com que os avaliadores humanos concordam ao realizar uma tarefa. Se os avaliadores discordarem, talvez as instruções da tarefa precisem ser melhoradas. Também chamado de contrato entre anotador ou confiabilidade entre avaliadores. Veja também o kappa de Cohen, que é uma das medidas de concordância entre avaliadores mais conhecidas.

interseção sobre união (IoU)

#image

A interseção de dois conjuntos dividida pela união. Nas tarefas de detecção de imagens de machine learning, a IoU é usada para medir a precisão da caixa delimitadora prevista do modelo em relação à caixa delimitadora de informações empíricas. Nesse caso, a IoU das duas caixas é a proporção entre a área sobreposta e a área total. O valor dela varia de 0 (sem sobreposição da caixa delimitadora prevista e da caixa delimitadora de informações empíricas) a 1 (a caixa delimitadora prevista e a caixa delimitadora de informações empíricas têm exatamente as mesmas coordenadas).

Por exemplo, na imagem abaixo:

  • A caixa delimitadora prevista (as coordenadas que delimitam onde o modelo prevê a mesa noturna na pintura) é destacada em roxo.
  • A caixa delimitadora de informações empíricas (as coordenadas que delimitam onde a mesa noite na pintura está realmente localizada) é destacada em verde.

Van Gogh pintando o quarto de Vincent em Arles, com duas caixas delimitadoras
          diferentes ao redor da mesa de cabeceira ao lado da cama. A caixa delimitadora de informações empíricas (em verde) circunda perfeitamente a tabela noturna. A
          caixa delimitadora prevista (em roxo) está deslocada 50% para baixo e à direita
          da caixa delimitadora de informações empíricas. Ela abrange o quarto inferior direito
          da tabela noturna, mas deixa de fora o restante da tabela.

Aqui, a interseção das caixas delimitadoras para previsão e informações empíricas (abaixo à esquerda) é 1, e a união das caixas delimitadoras para previsão e informações empíricas (abaixo à direita) é 7, então a IoU é \(\frac{1}{7}\).

A mesma imagem acima, mas com cada caixa delimitadora dividida em quatro quadrantes. Há sete quadrantes no total, já que o quadrante inferior direito da caixa delimitadora de informações empíricas e o quadrante superior esquerdo da caixa delimitadora prevista se sobrepõem. Essa seção sobreposta (destacada em verde) representa a interseção e tem uma área de 1. A mesma imagem acima, mas com cada caixa delimitadora dividida em quatro quadrantes. Há sete quadrantes no total, já que o quadrante inferior direito da caixa delimitadora de informações empíricas e o quadrante superior esquerdo da caixa delimitadora prevista se sobrepõem.
          Todo o interior cercado pelas duas caixas delimitadoras
          (destacadas em verde) representa a união e tem
          uma área de 7.

IoU

Abreviação de interseção sobre união.

matriz de itens

#recsystems

Em sistemas de recomendação, uma matriz de vetores de embedding gerada pela fatoração de matrizes que contém indicadores latentes sobre cada item. Cada linha da matriz de itens contém o valor de um único atributo latente para todos os itens. Por exemplo, considere um sistema de recomendação de filmes. Cada coluna na matriz de item representa um único filme. Os sinais latentes podem representar gêneros ou ser mais difíceis de interpretar que envolvem interações complexas entre gênero, estrelas, idade do filme ou outros fatores.

A matriz de itens tem o mesmo número de colunas que a matriz de destino que está sendo fatorada. Por exemplo, considerando um sistema de recomendação de filmes que avalia 10 mil títulos de filmes, a matriz de itens terá 10 mil colunas.

items

#recsystems

Em um sistema de recomendação, são as entidades que um sistema recomenda. Por exemplo, vídeos são os itens que uma loja de vídeos recomenda, enquanto os livros são os itens que uma livraria recomenda.

iteração

#fundamentals

Uma única atualização dos parâmetros de um modelo (os pesos e os vieses do modelo) durante o treinamento. O tamanho do lote determina quantos exemplos o modelo processa em uma única iteração. Por exemplo, se o tamanho do lote for 20, o modelo processará 20 exemplos antes de ajustar os parâmetros.

Ao treinar uma rede neural, uma única iteração envolve as duas passagens a seguir:

  1. Uma passagem direta para avaliar a perda em um único lote.
  2. Uma passagem para trás (backpropagação) para ajustar os parâmetros do modelo com base na perda e na taxa de aprendizado.

J

JAX

Uma biblioteca de computação de matriz que reúne a álgebra linear acelerada (XLA, na sigla em inglês) (link em inglês) e a diferenciação automática para computação numérica de alto desempenho. O JAX fornece uma API simples e poderosa para escrever código numérico acelerado com transformações combináveis. O JAX fornece recursos como:

  • grad (diferenciação automática)
  • jit (compilação just-in-time)
  • vmap (vetorização ou agrupamento automático)
  • pmap (carregamento em paralelo)

JAX é uma linguagem para expressar e compor transformações de código numérico, análogo, mas muito maior em escopo, à biblioteca NumPy (em inglês) do Python. Na verdade, a biblioteca .numpy no JAX é uma versão funcional equivalente, mas totalmente reescrita da biblioteca NumPy do Python.

O JAX é particularmente adequado para acelerar muitas tarefas de machine learning, transformando os modelos e os dados em um formato adequado para paralelismo entre os chips de acelerador da GPU e TPU.

Flax, Optax, Pax e muitas outras bibliotecas são criadas na infraestrutura do JAX.

K

Keras

Uma API de machine learning em Python conhecida. O Keras é executado em vários frameworks de aprendizado profundo, incluindo o TensorFlow, em que é disponibilizado como tf.keras.

Máquinas de vetores de suporte com kernel (KSVMs)

Algoritmo de classificação que busca maximizar a margem entre classes positivas e classes negativas mapeando vetores de dados de entrada para um espaço dimensional maior. Por exemplo, considere um problema de classificação em que o conjunto de dados de entrada tem cem atributos. Para maximizar a margem entre classes positivas e negativas, uma KSVM pode mapear internamente esses recursos em um espaço com um milhão de dimensões. As KSVMs usam uma função de perda chamada perda de articulação.

pontos-chave

#image

As coordenadas de elementos específicos em uma imagem. Por exemplo, para um modelo de reconhecimento de imagem que distingue espécies de flores, os pontos-chave podem ser o centro de cada pétala, o caule, o estame e assim por diante.

validação cruzada do k-fold

Um algoritmo para prever a capacidade de um modelo de generalizar para novos dados. O k em k-fold refere-se ao número de grupos iguais em que você divide os exemplos de um conjunto de dados, ou seja, você treina e testa seu modelo k vezes. Para cada rodada de treinamento e teste, um grupo diferente é o conjunto de teste, e todos os grupos restantes se tornam o conjunto de treinamento. Após k rodadas de treinamento e teste, você calcula a média e o desvio padrão das métricas de teste escolhidas.

Por exemplo, suponha que seu conjunto de dados seja composto por 120 exemplos. Suponha ainda que você decida definir k como 4. Portanto, depois de embaralhar os exemplos, você divide o conjunto de dados em quatro grupos iguais de 30 exemplos e realiza quatro rodadas de treinamento/teste:

Um conjunto de dados dividido em quatro grupos iguais de exemplos. Na primeira rodada,
          os três primeiros grupos são usados para treinamento, e o último,
          para testes. Na rodada 2, os dois primeiros grupos e o último
          grupo são usados para treinamento, enquanto o terceiro grupo é usado para
          testes. Na terceira rodada, o primeiro e os dois últimos grupos são
          usados para treinamento, enquanto o segundo grupo é usado para testes.
          Na rodada 4, o primeiro grupo é usado para testes, e os três últimos grupos são usados para treinamento.

Por exemplo, Erro quadrático médio (EQM) pode ser a métrica mais significativa para um modelo de regressão linear. Portanto, você encontraria o desvio médio e padrão do MSE nas quatro rodadas.

k-means

#clustering

Um algoritmo de clustering conhecido que agrupa exemplos em aprendizado não supervisionado. O algoritmo k-means faz o seguinte:

  • Determina iterativamente os melhores pontos centrais de k (conhecidos como centróides).
  • Atribui cada exemplo ao centroide mais próximo. Aqueles exemplos mais próximos do mesmo centroide pertencem ao mesmo grupo.

O algoritmo k-means escolhe locais do centroide para minimizar o quadrado cumulativo das distâncias de cada exemplo até o centroide mais próximo.

Por exemplo, considere o seguinte gráfico de altura para largura de cães:

Um gráfico cartesiano com várias dezenas de pontos de dados.

Se k=3, o algoritmo k-means determinará três centroides. Cada exemplo é atribuído ao seu centroide mais próximo, produzindo três grupos:

O mesmo gráfico cartesiano da ilustração anterior, mas com três centroides adicionados.
          Os pontos de dados anteriores são agrupados em três grupos distintos, com cada grupo representando os pontos de dados mais próximos de um centroide específico.

Imagine que um fabricante queira determinar os tamanhos ideais de blusas pequenas, médias e grandes para cães. Os três centroides identificam a altura e a largura médias de cada cachorro nesse cluster. Portanto, o fabricante provavelmente deveria basear os tamanhos de suéteres nesses três centroides. Observe que o centroide de um cluster normalmente não é um exemplo no cluster.

As ilustrações anteriores mostram k-means para exemplos com apenas dois recursos (altura e largura). O k-means pode agrupar exemplos em muitos atributos.

k-mediana

#clustering

Um algoritmo de clustering intimamente relacionado a k-means. A diferença prática entre os dois é a seguinte:

  • Em k-means, os centroides são determinados minimizando-se a soma dos quadrados da distância entre um candidato centroide e cada um dos exemplos dele.
  • Na k-median, os centroides são determinados pela minimização da soma da distância entre um candidato centroide e cada um dos seus exemplos.

As definições de distância também são diferentes:

  • O k-means depende da distância euclidiana do centroide até um exemplo. Em duas dimensões, a distância euclidiana significa usar o teorema de Pitágoras para calcular a hipotenusa. Por exemplo, a distância k-means entre (2,2) e (5,-2) seria:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • A k-median depende da distância de Manhattan do centroide até um exemplo. Essa distância é a soma dos deltas absolutos em cada dimensão. Por exemplo, a distância k-mediana entre (2,2) e (5,-2) seria:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

Regularização L0

#fundamentals

Um tipo de regularização que penaliza o número total de pesos diferentes de zero em um modelo. Por exemplo, um modelo com 11 ponderações diferentes de zero seria penalizado mais do que um modelo semelhante com 10 pesos diferentes de zero.

A regularização L0 às vezes é chamada de regularização L0-norm.

Perda de L1

#fundamentals

Uma função de perda que calcula o valor absoluto da diferença entre os valores reais de rótulo e os valores previstos por um modelo. Por exemplo, este é o cálculo da perda de L1 para um lote de cinco exemplos:

Valor real do exemplo Valor previsto do modelo Valor absoluto do delta
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = perda de L1

A perda de L1 é menos sensível a outliers do que a L2 perda.

O erro médio absoluto é a perda média de L1 por exemplo.

Regularização L1

#fundamentals

Um tipo de regularização que penaliza as ponderações em proporção à soma do valor absoluto delas. A regularização L1 ajuda a direcionar os pesos de atributos irrelevantes ou pouco relevantes para exatamente 0. Um recurso com um peso de 0 é efetivamente removido do modelo.

Contraste com a regularização L2.

Perda L2

#fundamentals

Uma função de perda que calcula o quadrado da diferença entre os valores reais de rótulo e os valores previstos por um modelo. Por exemplo, este é o cálculo da perda de L2 para um lote de cinco exemplos:

Valor real do exemplo Valor previsto do modelo Quadrado do delta
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = perda de L2

Devido ao quadrado, a perda de L2 amplifica a influência dos outliers. Ou seja, a perda de L2 reage mais fortemente a previsões ruins do que a perda de L1. Por exemplo, a perda L1 do lote anterior seria 8 em vez de 16. Observe que um único ponto fora da curva representa 9 dos 16.

Modelos de regressão normalmente usam perda L2 como função de perda.

O Erro quadrático médio é a perda média de L2 por exemplo. Perda ao quadrado é outro nome para a perda L2.

Regularização L2

#fundamentals

Um tipo de regularização que penaliza as ponderações em proporção à soma dos quadrados delas. A regularização L2 ajuda a gerar pesos outlier (aqueles com valores altos ou negativos altos ou baixos) mais próximos de 0, mas não exatamente de 0. Atributos com valores muito próximos de 0 permanecem no modelo, mas não influenciam muito a previsão dele.

A regularização L2 sempre melhora a generalização em modelos lineares.

Contraste com a regularização L1.

o rótulo.

#fundamentals

No machine learning supervisionado, a parte "resposta" ou "resultado" de um exemplo.

Cada exemplo rotulado consiste em um ou mais recursos e um rótulo. Por exemplo, em um conjunto de dados de detecção de spam, o rótulo provavelmente seria "spam" ou "não spam". Em um conjunto de dados de chuva, o rótulo pode ser a quantidade de chuva que caiu durante um determinado período.

exemplo rotulado

#fundamentals

Um exemplo que contém um ou mais recursos e um rótulo. Por exemplo, a tabela a seguir mostra três exemplos rotulados de um modelo de avaliação de casas, cada um com três recursos e um rótulo:

Número de quartos Número de banheiros Idade da casa Preço da casa (rótulo)
3 2 15 US$ 345.000
2 1 72 US$ 179.000
4 2 34 US$ 392.000

No machine learning supervisionado, os modelos são treinados com base em exemplos rotulados e fazem previsões em exemplos não rotulados.

Comparar exemplos rotulados com exemplos sem rótulos.

vazamento de rótulo

Uma falha no design do modelo em que um recurso é um proxy para o rótulo. Por exemplo, considere um modelo de classificação binária que prevê se um cliente em potencial comprará ou não um produto específico. Suponha que um dos recursos do modelo seja um booleano chamado SpokeToCustomerAgent. Suponha que um agente de cliente só seja atribuído depois que o cliente em potencial realmente comprar o produto. Durante o treinamento, o modelo aprenderá rapidamente a associação entre SpokeToCustomerAgent e o rótulo.

Lambda

#fundamentals

Sinônimo de taxa de regularização.

Lambda é um termo sobrecarregado. Aqui, vamos nos concentrar na definição do termo na regularização (em inglês).

LaMDA (Language Model for Dialogue Applications)

#language

Um modelo de linguagem grande com base em Transformer (em inglês) desenvolvido pelo Google e treinado em um grande conjunto de dados de diálogos que pode gerar respostas de conversa realistas.

LaMDA: nossa tecnologia de conversa inova oferece uma visão geral.

pontos de referência

#image

Sinônimo de pontos-chave.

modelo de linguagem

#language

Um model que estima a probabilidade de um model ou sequência de tokens ocorrer em uma sequência mais longa.

modelo de linguagem grande

#language

Um termo informal sem definição estrita que geralmente significa um modelo de linguagem com um grande número de parâmetros. Alguns modelos de linguagem grandes têm mais de 100 bilhões de parâmetros.

espaço latente

#language

Sinônimo de embedding Space.

layer

#fundamentals

Um conjunto de neurônios em uma rede neural. Três tipos comuns de camadas são:

Por exemplo, a ilustração a seguir mostra uma rede neural com uma camada de entrada, duas camadas ocultas e uma camada de saída:

Uma rede neural com uma camada de entrada, duas camadas escondidas e uma camada final. A camada de entrada consiste em dois atributos. A primeira camada escondida consiste em três neurônios, e a segunda, dois. A camada final consiste em um único nó.

No TensorFlow, as camadas também são funções do Python que usam Tensors e opções de configuração como entrada e produzem outros tensores como saída.

API Layers (tf.layers)

#TensorFlow

Uma API do TensorFlow para criar uma rede neural profunda como uma composição de camadas. A API Layers permite criar diferentes tipos de camadas, como:

A API Layers segue as convenções de API de camadas do Keras. Ou seja, exceto por um prefixo diferente, todas as funções na API Layers têm os mesmos nomes e assinaturas que as contrapartes delas na API layers do Keras.

folha

#df

Qualquer endpoint em uma árvore de decisão. Ao contrário de uma condição, uma folha não realiza um teste. Em vez disso, uma folha é uma previsão possível. Uma folha também é o do terminal de um caminho de inferência.

Por exemplo, a seguinte árvore de decisão contém três folhas:

Uma árvore de decisão com duas condições que levam a três folhas.

Ferramenta de aprendizado de interpretabilidade (LIT)

Uma ferramenta visual e interativa de compreensão de modelos e visualização de dados.

É possível usar a LIT de código aberto para interpretar modelos ou visualizar texto, imagem e dados tabulares.

taxa de aprendizado

#fundamentals

Um número de ponto flutuante que informa ao algoritmo do gradiente descendente como ajustar os pesos e as tendências em cada iteração. Por exemplo, uma taxa de aprendizado de 0,3 ajustaria os pesos e as tendências três vezes mais poderosamente do que uma taxa de aprendizado de 0,1.

A taxa de aprendizado é um hiperparâmetro fundamental. Se você definir a taxa de aprendizado muito baixa, o treinamento levará muito tempo. Se você definir a taxa de aprendizado muito alta, o gradiente descendente geralmente terá problemas para alcançar a convergência.

regressão dos mínimos quadrados

Um modelo de regressão linear treinado pela minimização da perda L2.

linear

#fundamentals

Uma relação entre duas ou mais variáveis que podem ser representadas exclusivamente por adição e multiplicação.

O gráfico de uma relação linear é uma linha.

Contraste com não linear.

modelo linear

#fundamentals

Um model que atribui uma model por model para fazer model. Os modelos lineares também incorporam um viés. Por outro lado, a relação entre os recursos e as previsões em modelos profundos geralmente é não linear.

Os modelos lineares geralmente são mais fáceis de treinar e mais interpretáveis do que os profundos. No entanto, os modelos profundos podem aprender relações complexas entre os recursos.

Regressão linear e regressão logística são dois tipos de modelos lineares.

regressão linear

#fundamentals

Um tipo de modelo de machine learning em que as duas condições a seguir são verdadeiras:

  • O modelo é linear.
  • A previsão é um valor de ponto flutuante. Essa é a parte de regressão da regressão linear.

Comparar a regressão linear com a regressão logística. Além disso, compare a regressão com a classificação.

LIT

É a abreviação de Ferramenta de Interpretabilidade de Linguagem (LIT, na sigla em inglês), conhecida anteriormente como ferramenta de interpretabilidade de linguagem.

LLM

#language

Abreviação de modelo de linguagem grande (em inglês).

regressão logística

#fundamentals

Um tipo de modelo de regressão que prevê uma probabilidade. Os modelos de regressão logística têm as seguintes características:

  • O rótulo é categórico. O termo "regressão logística" geralmente se refere à regressão logística binária, ou seja, a um modelo que calcula as probabilidades de rótulos com dois valores possíveis. Uma variante menos comum, a regressão logística multinomial, calcula as probabilidades de rótulos com mais de dois valores possíveis.
  • A função de perda durante o treinamento é Log Perda. É possível colocar várias unidades de perda de registro em paralelo para rótulos com mais de dois valores possíveis.
  • O modelo tem uma arquitetura linear, e não uma rede neural profunda. No entanto, o restante dessa definição também se aplica aos modelos profundos que preveem probabilidades de rótulos categóricos.

Por exemplo, considere um modelo de regressão logística que calcula a probabilidade de um e-mail de entrada ser spam ou não spam. Durante a inferência, suponha que o modelo prevê 0,72. Portanto, o modelo está estimando:

  • 72% de chance do e-mail ser spam.
  • 28% de chance de o e-mail não ser spam.

Um modelo de regressão logística usa a seguinte arquitetura de duas etapas:

  1. O modelo gera uma previsão bruta (y') aplicando uma função linear de atributos de entrada.
  2. O modelo usa essa previsão bruta como entrada para uma função sigmoide, que converte a previsão bruta em um valor entre 0 e 1, excluindo esses dois valores.

Como qualquer modelo de regressão, um modelo de regressão logística prevê um número. No entanto, esse número normalmente se torna parte de um modelo de classificação binária da seguinte maneira:

  • Se o número previsto for maior que o limite de classificação, o modelo de classificação binária prevê a classe positiva.
  • Se o número previsto for menor que o limiar de classificação, o modelo de classificação binária prevê a classe negativa.

logits

Vetor de previsões brutas (não normalizadas) geradas por um modelo de classificação que, normalmente, é passado para uma função de normalização. Se o modelo estiver resolvendo um problema de classificação multiclasse, os logits geralmente se tornarão uma entrada para a função softmax. Em seguida, a função softmax gera um vetor de probabilidades (normalizadas) com um valor para cada classe possível.

Log Perda

#fundamentals

A função de perda usada na regressão logística binária.

log-chance

#fundamentals

O logaritmo das probabilidades de algum evento.

Memória de longo e curto prazo (LSTM, na sigla em inglês)

#seq

Um tipo de célula em uma rede neural recorrente usada para processar sequências de dados em aplicativos, como reconhecimento de escrita manual, tradução automática e legendagem de imagens. Os LSTMs abordam o problema de desaparecimento do gradiente que ocorre ao treinar RNNs devido a longas sequências de dados, mantendo o histórico em um estado de memória interna com base em novas entradas e contextos de células anteriores na RNN.

LoRA

#language
#IAgenerativa

Abreviação de Adaptabilidade de classificação baixa.

perda

#fundamentals

Durante o treinamento de um modelo supervisionado, uma medida da distância entre a previsão de um modelo e o rótulo.

Uma função de perda calcula a perda.

agregador de perdas

Um tipo de algoritmo de machine learning que melhora o desempenho de um modelo combinando as previsões de vários modelos e usando essas previsões para fazer uma única previsão. Como resultado, um agregador de perda pode reduzir a variação das previsões e melhorar a precisão delas.

curva de perda

#fundamentals

Um gráfico de perda como uma função do número de iterações de treinamento. O gráfico a seguir mostra uma curva de perda típica:

Um gráfico cartesiano de iterações de perda versus treinamento, mostrando uma
          queda rápida na perda nas iterações iniciais, seguida por uma queda gradual e, em seguida, uma inclinação
          plana durante as iterações finais.

As curvas de perda podem ajudar a determinar quando o modelo está convergente ou com overfitting.

As curvas de perda podem plotar todos os tipos de perda a seguir:

Consulte também a curva de generalização.

função de perda

#fundamentals

Durante o treinamento ou teste, uma função matemática que calcula a perda em um lote de exemplos. Uma função de perda retorna uma perda menor para modelos que fazem boas previsões do que para os que fazem previsões ruins.

Normalmente, o objetivo do treinamento é minimizar a perda que uma função de perda retorna.

Existem muitos tipos diferentes de funções de perda. Escolha a função de perda apropriada para o tipo de modelo que você está criando. Exemplo:

superfície de perda

Um gráfico de peso(s) em comparação com a perda. O objetivo do gradiente descendente é encontrar os pesos em que a superfície de perda está no mínimo local.

Adaptabilidade de baixa classificação (LoRA)

#language
#IAgenerativa

Um algoritmo para executar ajustes eficientes de parâmetros que ajustam apenas um subconjunto dos parâmetros de um modelo de linguagem grande. A LoRA oferece os seguintes benefícios:

  • Ajuste mais rapidamente do que as técnicas que exigem o ajuste de todos os parâmetros de um modelo.
  • Reduz o custo computacional de inferência no modelo ajustado.

Um modelo ajustado com o LoRA mantém ou melhora a qualidade de suas previsões.

A LoRA permite várias versões especializadas de um modelo.

LSTM

#seq

Abreviação de Memória de curto prazo longa.

M

machine learning

#fundamentals

Um programa ou sistema que treina um modelo a partir de dados de entrada. O modelo treinado pode fazer previsões úteis com base em dados novos (nunca vistos antes) extraídos da mesma distribuição usada para treinar o modelo.

Machine learning também se refere ao campo de estudo relacionado a esses programas ou sistemas.

classe majoritária

#fundamentals

O rótulo mais comum em um conjunto de dados desequilibrado de classe. Por exemplo, considerando um conjunto de dados que contém 99% de rótulos negativos e 1% de rótulos positivos, os rótulos negativos são a classe majoritária.

Compare com a classe minoritária.

Processo de decisão de Markov (MDP)

#rl

Um gráfico que representa o modelo de tomada de decisão em que decisões (ou ações) são tomadas para navegar por uma sequência de estados pressupondo que a propriedade Markov é válida. No aprendizado por reforço, essas transições entre estados retornam uma recompensa numérica.

Propriedade de Markov

#rl

Uma propriedade de determinados ambientes, em que as transições de estado são totalmente determinadas pelas informações implícitas no estado atual e na ação do agente.

modelo de linguagem mascarada

#language

Um modelo de linguagem que prevê a probabilidade de tokens candidatos preencherem espaços em branco em uma sequência. Por exemplo, um modelo de linguagem mascarada pode calcular probabilidades de palavras candidatas para substituir o sublinhado na seguinte frase:

O(a) ____ de chapéu veio de volta.

Geralmente, a literatura usa a string "MASK" em vez de um sublinhado. Exemplo:

A "MÁSCARA" no chapéu voltou.

A maioria dos modelos modernos de linguagem mascarada é bidirecional.

matplotlib

Biblioteca de plotagem 2D do Python (em inglês) de código aberto. O matplotlib ajuda a visualizar diferentes aspectos do machine learning.

fatoração de matrizes

#recsystems

Em matemática, um mecanismo para encontrar as matrizes cujo produto escalar se aproxima de uma matriz de destino.

Nos sistemas de recomendação, a matriz de destino geralmente contém as classificações dos usuários em itens. Por exemplo, a matriz de destino de um sistema de recomendação de filmes pode ser semelhante a esta, em que os números inteiros positivos são classificações do usuário e 0 significa que o usuário não classificou o filme:

  Casablanca A história da Filadélfia Pantera Negra Mulher-Maravilha Ficção pulp
Usuário 1 5,0 3.0 0,0 2.0 0,0
Usuário 2 4.0 0,0 0,0 1.0 5,0
Usuário 3 3.0 1.0 4.0 5.0 0,0

O sistema de recomendação de filmes visa prever classificações de usuários para filmes sem classificação. Por exemplo, o Usuário 1 vai gostar de Pantera Negra?

Uma abordagem para sistemas de recomendação é usar fatoração de matrizes para gerar as duas matrizes a seguir:

  • Uma matriz de usuários, moldada como o número de usuários X o número de dimensões de embedding.
  • Uma matriz de itens, formada pelo número de dimensões de incorporação X o número de itens.

Por exemplo, usar a fatoração de matrizes nos nossos três usuários e cinco itens pode gerar as seguintes matrizes de usuários e de itens:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

O produto escalar da matriz de usuário e da matriz de item produz uma matriz de recomendação que contém não apenas as classificações originais dos usuários, mas também previsões para os filmes que cada usuário não viu. Por exemplo, considere a classificação do Usuário 1 de Casablanca, que foi 5,0. Espera-se que o produto escalar correspondente a essa célula na matriz de recomendação esteja em torno de 5, 0 e seja:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

E o mais importante: o Usuário 1 vai gostar de Pantera Negra? Utilizar o produto escalar correspondente à primeira linha e à terceira coluna gera uma classificação prevista de 4,3:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

A fatoração de matrizes normalmente produz matrizes de usuários e de itens que, juntas, são significativamente mais compactas do que a matriz de destino.

Erro médio absoluto (MAE)

A perda média por exemplo quando a perda L1 é usada. Calcule o Erro absoluto médio da seguinte forma:

  1. Calcule a perda L1 de um lote.
  2. Divida a perda de L1 pelo número de exemplos no lote.

Por exemplo, considere o cálculo de perda L1 no seguinte lote de cinco exemplos:

Valor real do exemplo Valor previsto do modelo Perda (diferença entre o real e o previsto)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = perda de L1

Portanto, a perda de L1 é 8 e o número de exemplos é 5. Portanto, o erro médio absoluto é:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

Contraste o Erro absoluto médio com o Erro quadrático médio e a Raiz do erro quadrático médio.

Erro quadrático médio (EQM)

A perda média por exemplo quando a perda L2 é usada. Calcule o Erro quadrático médio da seguinte forma:

  1. Calcule a perda L2 de um lote.
  2. Divida a perda de L2 pelo número de exemplos no lote.

Por exemplo, considere a perda no lote de cinco exemplos a seguir:

Valor real Previsão do modelo Perda Perda quadrada
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = perda de L2

Portanto, o Erro quadrático médio é:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

O Erro quadrático médio é um otimizador de treinamento conhecido, especialmente para regressão linear.

Compare o Erro quadrático médio com o Erro quadrático médio e a Raiz do erro quadrático médio.

O TensorFlow Playground usa o erro quadrático médio para calcular os valores de perda.

malha

#TensorFlow
#GoogleCloud

Na programação paralela de ML, um termo associado à atribuição de dados e modelo a chips de TPU e à definição de como esses valores serão fragmentados ou replicados.

"Malha" é um termo sobrecarregado que pode significar:

  • Um layout físico de chips de TPU.
  • Uma construção lógica abstrata para mapear os dados e o modelo para os chips de TPU.

Em ambos os casos, uma malha é especificada como uma forma.

metaaprendizado

#language

Um subconjunto de machine learning que descobre ou melhora um algoritmo de aprendizado. Um sistema de metaaprendizagem também pode tentar treinar um modelo para aprender rapidamente uma nova tarefa com uma pequena quantidade de dados ou com a experiência adquirida em tarefas anteriores. Os algoritmos de metaaprendizado geralmente tentam fazer o seguinte:

  • Melhorar ou aprender recursos projetados manualmente, como um inicializador ou um otimizador.
  • Maior eficiência em termos de dados e computação.
  • Melhorar a generalização.

O metaaprendizado está relacionado ao aprendizado few-shot.

metric

#TensorFlow

Uma estatística que importa para você.

Um objetivo é uma métrica que um sistema de machine learning tenta otimizar.

API Metrics (tf.metrics)

Uma API do TensorFlow para avaliar modelos. Por exemplo, tf.metrics.accuracy determina com que frequência as previsões de um modelo correspondem aos rótulos.

minilote

#fundamentals

Um pequeno subconjunto selecionado aleatoriamente de um lote processado em uma iteração. O tamanho do lote de um minilote geralmente está entre 10 e 1.000 exemplos.

Por exemplo, suponha que todo o conjunto de treinamento (o lote completo) seja composto por 1.000 exemplos. Suponha que você defina o tamanho do lote de cada minilote como 20. Portanto, cada iteração determina a perda em 20 aleatórias dos 1.000 exemplos e, em seguida, ajusta os pesos e vieses de acordo.

É muito mais eficiente calcular a perda em um minilote do que a perda em todos os exemplos do lote completo.

gradiente descendente estocástico de minilote

Um algoritmo de gradiente descendente que usa minilotes. Em outras palavras, o gradiente descendente estocástico de minilote estima o gradiente com base em um pequeno subconjunto dos dados de treinamento. O gradiente descendente estocástico regular usa um minilote de tamanho 1.

perda minimax

Uma função de perda para redes adversárias generativas com base na entropia cruzada entre a distribuição dos dados gerados e reais.

A perda Minimax é usada no primeiro artigo para descrever redes adversárias generativas.

classe minoritária

#fundamentals

O rótulo menos comum em um conjunto de dados com desequilíbrio de classe. Por exemplo, considerando um conjunto de dados que contém 99% de rótulos negativos e 1% de rótulos positivos, os rótulos positivos são a classe minoritária.

Compare com a classe principal.

ML

Abreviação de machine learning.

MNIST

#image

Um conjunto de dados de domínio público compilado por LeCun, Cortes e Burges que contém 60.000 imagens, cada uma mostrando como um ser humano gravou manualmente um dígito específico de 0 a 9. Cada imagem é armazenada como uma matriz 28x28 de números inteiros, em que cada número inteiro é um valor em escala de cinza entre 0 e 255.

O MNIST é um conjunto de dados canônico para machine learning, frequentemente usado para testar novas abordagens de machine learning. Para mais detalhes, consulte o artigo Banco de dados MNIST de dígitos escritos à mão (em inglês).

modality

#language

Uma categoria de dados de alto nível. Por exemplo, números, texto, imagens, vídeo e áudio são cinco modalidades diferentes.

model

#fundamentals

Em geral, qualquer construção matemática que processe dados de entrada e retorne a saída. Em outras palavras, um modelo é o conjunto de parâmetros e estrutura necessários para que um sistema faça previsões. No machine learning supervisionado, um modelo usa um exemplo como entrada e infere uma previsão como saída. Com o machine learning supervisionado, os modelos são um pouco diferentes. Exemplo:

  • Um modelo de regressão linear consiste em um conjunto de pesos e um viés.
  • Um modelo de rede neural consiste em:
  • Um modelo de árvore de decisão consiste em:
    • A forma da árvore, ou seja, o padrão em que as condições e as folhas estão conectadas.
    • As condições e as saídas.

É possível salvar, restaurar ou fazer cópias de um modelo.

O machine learning não supervisionado também gera modelos, normalmente uma função que pode mapear um exemplo de entrada para o cluster mais apropriado.

capacidade do modelo

a complexidade dos problemas que um modelo pode aprender. Quanto mais complexos os problemas que um modelo pode aprender, maior a capacidade dele. A capacidade de um modelo normalmente aumenta com o número de parâmetros dele. Para uma definição formal da capacidade do classificador, consulte a dimensão do VC.

cascata de modelos

#IAgenerativa

Um sistema que escolhe o model ideal para uma consulta de inferência específica.

Imagine um grupo de modelos, variando de muito grandes (muitos parâmetros) a muito menores (muito menos parâmetros). Modelos muito grandes consomem mais recursos computacionais no tempo de inferência do que modelos menores. No entanto, modelos muito grandes normalmente podem inferir solicitações mais complexas do que modelos menores. A cascata de modelos determina a complexidade da consulta de inferência e escolhe o modelo apropriado para realizar a inferência. A principal motivação da cascata de modelos é reduzir os custos de inferência, geralmente selecionando modelos menores e selecionando apenas um modelo maior para consultas mais complexas.

Imagine que um modelo pequeno é executado em um smartphone e uma versão maior desse modelo é executada em um servidor remoto. Uma boa cascata de modelos reduz o custo e a latência, permitindo que o modelo menor processe solicitações simples e chamando apenas o modelo remoto para lidar com solicitações complexas.

Consulte também modelo de roteador.

paralelismo de modelos

#language

Uma maneira de escalonar o treinamento ou a inferência que coloca diferentes partes de um model em model diferentes. O paralelismo de modelos permite que modelos grandes demais caibam em um único dispositivo.

Para implementar o paralelismo de modelos, um sistema normalmente faz o seguinte:

  1. Ela fragmenta (divide) o modelo em partes menores.
  2. distribui o treinamento dessas partes menores em vários processadores. Cada processador treina a própria parte do modelo.
  3. Combina os resultados para criar um único modelo.

O paralelismo de modelos atrasa o treinamento.

Consulte também paralelismo de dados.

modelo de roteador

#IAgenerativa

O algoritmo que determina o model ideal para model na model. Um roteador de modelo em si é normalmente um modelo de machine learning que aprende gradualmente a escolher o melhor modelo para uma determinada entrada. No entanto, um roteador de modelo às vezes pode ser um algoritmo mais simples e que não é de machine learning.

treinamento de modelo

O processo de determinar o melhor model.

Momentum

Algoritmo sofisticado de gradiente descendente em que uma etapa de aprendizado depende não apenas da derivada na etapa atual, mas também das derivadas das etapas que a precederam imediatamente. O momento envolve o cálculo de uma média móvel exponencialmente ponderada dos gradientes ao longo do tempo, análogo ao momentum na física. O momento às vezes impede que o aprendizado fique preso nos mínimos locais.

classificação multiclasse

#fundamentals

No aprendizado supervisionado, é um problema de classificação em que o conjunto de dados contém mais de duas classes de rótulos. Por exemplo, os rótulos no conjunto de dados Iris precisam ser de uma destas três classes:

  • Íris setosa
  • Iris virginica
  • Íris versicolor

Um modelo treinado com o conjunto de dados Iris que prevê o tipo Íris em novos exemplos está realizando uma classificação multiclasse.

Por outro lado, problemas de classificação que distinguem exatamente duas classes são modelos de classificação binária. Por exemplo, um modelo de e-mail que prevê spam ou não spam é um modelo de classificação binária.

Em problemas de clustering, a classificação multiclasse se refere a mais de dois clusters.

regressão logística multiclasse

Uso da regressão logística em problemas de classificação multiclasse.

autoatenção com várias cabeças

#language

Uma extensão de autoatenção que aplica o mecanismo várias vezes para cada posição na sequência de entrada.

Os Transformers introduziram a autoatenção de várias cabeças.

modelo multimodal

#language

Um modelo com entradas e/ou saídas que incluem mais de uma modalidade. Por exemplo, considere um modelo que usa uma imagem e uma legenda de texto (duas modalidades) como recursos e gera uma pontuação indicando a adequação da legenda de texto à imagem. Portanto, as entradas desse modelo são multimodais, e a saída é unimodal.

classificação multinomial

Sinônimo de classificação multiclasse.

regressão multinomial

Sinônimo de regressão logística multiclasse.

multitarefa

Uma técnica de machine learning em que um único model é treinado para executar várias model.

Modelos multitarefa são criados por meio de treinamento com base em dados apropriados para cada uma das diferentes tarefas. Isso permite que o modelo aprenda a compartilhar informações entre as tarefas, o que ajuda o modelo a aprender de forma mais eficaz.

Um modelo treinado para várias tarefas geralmente tem habilidades de generalização aprimoradas e pode ser mais robusto no processamento de diferentes tipos de dados.

N

armadilha de NaN

Quando um número no modelo se torna um NaN durante o treinamento, o que faz com que muitos ou todos os outros números no modelo se tornem NaN.

NaN é uma abreviação de Not a Number.

processamento de linguagem natural

#language

Determinar as intenções de um usuário com base no que ele digitou ou disse. Por exemplo, um mecanismo de pesquisa usa processamento de linguagem natural para determinar o que o usuário está pesquisando com base no que ele digitou ou disse.

classe negativa

#fundamentals

Na classificação binária, uma classe é positiva e a outra é negativa. A classe positiva é a coisa ou o evento em que o modelo está testando, e a classe negativa é a outra possibilidade. Exemplo:

  • A classe negativa em um exame médico pode ser "não tumor".
  • A classe negativa em um classificador de e-mails pode ser "não é spam".

Compare com a classe positiva.

amostragem negativa

Sinônimo de amostragem de candidatos.

Pesquisa de arquitetura neural (NAS)

Uma técnica para projetar automaticamente a arquitetura de uma rede neural. Os algoritmos NAS reduzem o tempo e os recursos necessários para treinar uma rede neural.

A NAS normalmente usa:

  • Um espaço de pesquisa, que é um conjunto de arquiteturas possíveis.
  • Uma função de condicionamento físico, que é uma medida do desempenho de uma arquitetura específica em uma determinada tarefa.

Os algoritmos NAS geralmente começam com um pequeno conjunto de arquiteturas possíveis e expandem gradualmente o espaço de pesquisa à medida que o algoritmo aprende mais sobre quais arquiteturas são eficazes. Normalmente, a função de condicionamento físico é baseada no desempenho da arquitetura em um conjunto de treinamento, e o algoritmo é normalmente treinado usando uma técnica de aprendizado por reforço.

Os algoritmos NAS se mostraram eficazes na localização de arquiteturas de alto desempenho para várias tarefas, incluindo classificação de imagens, classificação de texto e tradução automática.

do feedforward

#fundamentals

Um model que contém pelo menos uma model. Uma rede neural profunda é um tipo de rede neural que contém mais de uma camada escondida. Por exemplo, o diagrama a seguir mostra uma rede neural profunda contendo duas camadas ocultas.

Uma rede neural com uma camada de entrada, duas camadas escondidas e uma camada final.

Cada neurônio de uma rede neural se conecta a todos os nós da próxima camada. Por exemplo, no diagrama anterior, observe que cada um dos três neurônios na primeira camada escondida se conecta separadamente aos dois neurônios na segunda camada escondida.

As redes neurais implementadas em computadores às vezes são chamadas de redes neurais artificiais para diferenciá-las das redes neurais encontradas em cérebros e outros sistemas nervosos.

Algumas redes neurais podem imitar relações não lineares extremamente complexas entre recursos diferentes e o rótulo.

Consulte também rede neural convolucional e rede neural recorrente.

neurônio

#fundamentals

Em machine learning, uma unidade distinta em uma camada escondida de uma rede neural. Cada neurônio executa a seguinte ação de duas etapas:

  1. Calcula a soma ponderada dos valores de entrada multiplicada pelos pesos correspondentes.
  2. Transmite a soma ponderada como entrada para uma função de ativação.

Um neurônio na primeira camada escondida aceita entradas dos valores de recursos na camada de entrada. Um neurônio em qualquer camada escondida além do primeiro aceita entradas dos neurônios da camada escondida anterior. Por exemplo, um neurônio na segunda camada escondida aceita entradas dos neurônios da primeira camada escondida.

A ilustração a seguir destaca dois neurônios e as entradas deles.

Uma rede neural com uma camada de entrada, duas camadas escondidas e uma camada final. Dois neurônios estão destacados: um na primeira camada escondida e outro na segunda. O neurônio destacado na primeira camada escondida recebe entradas dos dois atributos na camada de entrada. O neurônio destacado na segunda camada escondida recebe entradas de cada um dos três neurônios da primeira camada escondida.

Um neurônio de uma rede neural imita o comportamento dos neurônios no cérebro e em outras partes dos sistemas nervosos.

N-grama

#seq
#language

Uma sequência ordenada de N palavras. Por exemplo, truly madly é um bloco de 2 gramas. Como a ordem é relevante, loucamente é um 2-grama diferente de realmente louco.

N Nomes para esse tipo de N-grama Exemplos
2 bigrama ou 2 gramas ir, ir, almoçar, jantar
3 trigrama ou 3 gramas comeu demais, três ratos cegos, o pedágio
4 4 gramas caminhar no parque, poeira ao vento, o menino comeu lentilhas

Muitos modelos de compreensão de linguagem natural (link em inglês) dependem de N-gramas para prever a próxima palavra que o usuário digitará ou dirá. Por exemplo, suponha que um usuário digitou três cegos. Um modelo PLN baseado em trigramas provavelmente preveria que o usuário digitará ratos.

Compare os N-gramas com saco de palavras, que são conjuntos não ordenados de palavras.

PLN

#language

Abreviação de compreensão de linguagem natural (em inglês).

nó (árvore de decisão)

#df

Em uma árvore de decisão, qualquer condição ou folha.

Uma árvore de decisão com duas condições e três folhas.

nó (rede neural)

#fundamentals

Um neurônio em uma camada escondida.

nó (gráfico do TensorFlow)

#TensorFlow

Uma operação em um gráfico do TensorFlow.

ruído

Em termos gerais, qualquer coisa que oculte o sinal em um conjunto de dados. O ruído pode ser introduzido nos dados de várias maneiras. Exemplo:

  • Os avaliadores humanos cometem erros ao rotular.
  • Humanos e instrumentos gravam de maneira incorreta ou omitem os valores de atributos.

condição não binária

#df

Uma condição que contém mais de dois resultados possíveis. Por exemplo, a condição não binária a seguir contém três resultados possíveis:

Uma condição (number_of_legs = ?) que leva a três resultados
          possíveis. Um resultado (number_of_legs = 8) leva a uma folha
          chamada &quot;indexador&quot;. Um segundo resultado (number_of_legs = 4) leva a
          uma folha chamada &quot;cão&quot;. Um terceiro resultado (number_of_legs = 2) leva a uma folha chamada pinguim.

não linear

#fundamentals

Uma relação entre duas ou mais variáveis que não podem ser representadas exclusivamente por adição e multiplicação. Um relacionamento linear pode ser representado como uma linha, mas um não linear não pode ser representado como uma linha. Por exemplo, imagine dois modelos que relacionam um único atributo a um rótulo. O modelo à esquerda é linear e o modelo à direita é não linear:

Dois gráficos. Um gráfico é uma linha, portanto, trata-se de uma relação linear.
          O outro gráfico é uma curva, portanto, esta é uma relação não linear.

viés de não resposta

#fairness

Consulte o viés de seleção.

não estacionário

#fundamentals

Um recurso cujos valores mudam em uma ou mais dimensões, normalmente tempo. Por exemplo, considere os seguintes exemplos de não estacionário:

  • O número de trajes de banho vendidos em uma loja específica varia de acordo com a estação.
  • A quantidade de uma determinada fruta colhida em uma determinada região é zero durante grande parte do ano, mas grande por um breve período.
  • Devido às mudanças climáticas, as temperaturas médias anuais estão mudando.

Compare com a estacionidade.

normalização

#fundamentals

Em termos gerais, o processo de conversão do intervalo real de valores de uma variável em um intervalo padrão, como:

  • -1 a +1
  • 0 a 1
  • a distribuição normal

Por exemplo, suponha que o intervalo real de valores de um determinado recurso seja de 800 a 2.400. Como parte da engenharia de atributos, é possível normalizar os valores reais para um intervalo padrão, como -1 a +1.

A normalização é uma tarefa comum na engenharia de atributos. Em geral, os modelos são treinados mais rapidamente (e produzem previsões melhores) quando todos os atributos numéricos no vetor de atributos têm aproximadamente o mesmo intervalo.

detecção de novidades

É o processo para determinar se um novo exemplo (novo) vem da mesma distribuição do conjunto de treinamento. Em outras palavras, após o treinamento no conjunto de treinamento, a detecção de novidades determina se um novo exemplo (durante a inferência ou durante um treinamento extra) é um outlier.

Contraste com a detecção de outliers.

dados numéricos

#fundamentals

Atributos representados como inteiros ou números com valor real Por exemplo, um modelo de avaliação de casas provavelmente representaria o tamanho de uma casa (em pés quadrados ou metros quadrados) como dados numéricos. Representar um atributo como dados numéricos indica que os valores do atributo têm uma relação matemática com o rótulo. Ou seja, o número de metros quadrados de uma casa provavelmente tem alguma relação matemática com o valor da casa.

Nem todos os dados inteiros devem ser representados como dados numéricos. Por exemplo, códigos postais em algumas partes do mundo são números inteiros. No entanto, códigos postais inteiros não podem ser representados como dados numéricos em modelos. Isso ocorre porque um código postal de 20000 não é duas vezes (ou metade) potente do que um código postal de 10.000. Além disso, embora diferentes códigos postais corrijam a diferentes valores imobiliários, não podemos presumir que os valores imobiliários no código postal 20.000 sejam duas vezes mais valiosos que os valores imobiliários no código postal 10000. Os códigos postais precisam ser representados como dados categóricos.

Às vezes, os atributos numéricos são chamados de atributos contínuos.

NumPy

Uma biblioteca matemática de código aberto que fornece operações de matriz eficientes no Python. A pandas é criada com base no NumPy.

O

objetivo

Uma métrica que seu algoritmo está tentando otimizar.

função objetiva

A fórmula matemática ou métrica que um modelo pretende otimizar. Por exemplo, a função objetiva da regressão linear geralmente é perda quadrática média. Portanto, ao treinar um modelo de regressão linear, o treinamento visa minimizar a perda quadrática média.

Em alguns casos, o objetivo é maximizar a função objetiva. Por exemplo, se a função objetiva é acurácia, a meta é maximizar a acurácia.

Consulte também perda.

condição oblíqua

#df

Em uma árvore de decisão, uma condição que envolve mais de um recurso. Por exemplo, se altura e largura forem ambas elementos, o seguinte será uma condição oblíqua:

  height > width

Contraste com a condição de alinhamento do eixo.

offline

#fundamentals

Sinônimo de estática.

inferência off-line

#fundamentals

O processo de um modelo que gera um lote de previsões e, em seguida, armazena em cache (salvando) essas previsões. Assim, os apps podem acessar a previsão inferida no cache em vez de executar novamente o modelo.

Por exemplo, considere um modelo que gera previsões do tempo local (previsões) uma vez a cada quatro horas. Após a execução de cada modelo, o sistema armazena em cache todas as previsões meteorológicas locais. Os apps de clima recuperam as previsões do cache.

A inferência off-line também é chamada de inferência estática.

Isso é diferente da inferência on-line.

codificação one-hot

#fundamentals

Representação de dados categóricos como um vetor em que:

  • Um elemento é definido como 1.
  • Todos os outros elementos são definidos como 0.

A codificação one-hot é normalmente usada para representar strings ou identificadores que têm um conjunto finito de valores possíveis. Por exemplo, suponha que um determinado recurso categórico chamado Scandinavia tenha cinco valores possíveis:

  • "Dinamarca"
  • "Suécia"
  • "Noruega"
  • "Finlândia"
  • "Islândia"

A codificação one-hot pode representar cada um dos cinco valores da seguinte maneira:

country Vetor
"Dinamarca" 1 0 0 0 0
"Suécia" 0 1 0 0 0
"Noruega" 0 0 1 0 0
"Finlândia" 0 0 0 1 0
"Islândia" 0 0 0 0 1

Graças à codificação one-hot, um modelo pode aprender conexões diferentes com base em cada um dos cinco países.

Representar um atributo como dados numéricos é uma alternativa à codificação one-hot. Infelizmente, representar numericamente os países escandinavos não é uma boa escolha. Por exemplo, considere a seguinte representação numérica:

  • "Dinamarca" é 0
  • "Suécia" é 1
  • "Noruega" está 2
  • "Finlândia" tem 3 anos
  • "Islândia" tem 4 anos

Com a codificação numérica, um modelo interpreta os números brutos matematicamente e tenta treinar com eles. No entanto, a Islândia não é o dobro (ou metade disso) do que a Noruega. Por isso, o modelo chegaria a algumas conclusões estranhas.

aprendizado one-shot

Uma abordagem de machine learning, geralmente usada para classificação de objetos, projetada para aprender classificadores eficazes com um único exemplo de treinamento.

Consulte também aprendizado few-shot e zero-shot.

comandos one-shot

#language
#IAgenerativa

Um comando com um exemplo que demonstra como o modelo de linguagem grande precisa responder. Por exemplo, o comando a seguir contém um exemplo que mostra um modelo de linguagem grande como ele deve responder a uma consulta.

Partes de um comando Observações
Qual é a moeda oficial do país especificado? A pergunta que você quer que o LLM responda.
França: EUR Um exemplo.
Índia: A consulta real.

Compare os comandos one-shot com os seguintes termos:

um-contra-todos

#fundamentals

Dado um problema de classificação com N classes, uma solução que consiste em N classificadores binários separados, um classificador binário para cada resultado possível. Por exemplo, considerando um modelo que classifica exemplos como animal, vegetal ou mineral, uma solução do tipo "um contra todos" forneceria os três classificadores binários separados a seguir:

  • animal versus não animal
  • vegetal versus não vegetal
  • mineral versus não mineral

online

#fundamentals

Sinônimo de dynamic.

inferência on-line

#fundamentals

Gerar previsões sob demanda. Por exemplo, suponha que um app transmita a entrada para um modelo e emita uma solicitação de previsão. Um sistema que usa inferência on-line responde à solicitação executando o modelo e retornando a previsão ao aplicativo.

Isso é diferente da inferência off-line.

operação (op)

#TensorFlow

No TensorFlow, qualquer procedimento que crie, manipule ou destrua um Tensor. Por exemplo, uma multiplicação de matriz é uma operação que toma dois tensores como entrada e gera um tensor como saída.

Optax

Uma biblioteca de processamento e otimização de gradientes para JAX. A Optax facilita a pesquisa fornecendo elementos básicos que podem ser recombinados de maneiras personalizadas para otimizar modelos paramétricos, como redes neurais profundas. Outras metas incluem:

  • Fornecer implementações eficientes, bem testadas e legíveis dos componentes principais.
  • Melhorar a produtividade, possibilitando a combinação de ingredientes de baixo nível em otimizadores personalizados (ou outros componentes de processamento de gradiente).
  • Acelerar a adoção de novas ideias, facilitando a contribuição para qualquer pessoa.

otimizador

Uma implementação específica do algoritmo de gradiente descendente. Otimizadores populares incluem:

  • AdaGrad, que significa "descendente ADAptive GRADient".
  • Adam, que significa "ADAptive with Momentum".

viés de homogeneidade externa ao grupo

#fairness

A tendência de ver os membros de fora do grupo como mais semelhantes do que os membros do grupo ao comparar atitudes, valores, traços de personalidade e outras características. Em grupo refere-se a pessoas com quem você interage regularmente, e fora do grupo refere-se a pessoas com quem você não interage regularmente. Se você criar um conjunto de dados pedindo que as pessoas forneçam atributos sobre grupos externos, esses atributos podem ser menos sutis e mais estereotipados do que os atributos que os participantes listam para pessoas do grupo.

Por exemplo, os liliputianos podem descrever as casas de outros liliputianos em detalhes, citando pequenas diferenças em estilos arquitetônicos, janelas, portas e tamanhos. No entanto, os mesmos liliputianos podem simplesmente declarar que os Brobdingnagians vivem em casas idênticas.

O viés de homogeneidade externa ao grupo é uma forma de viés de atribuição a grupo.

Consulte também o viés de grupo.

detecção de outliers

Processo de identificação de outliers em um conjunto de treinamento.

Mas não a detecção de novidades.

as exceções

Valores distantes da maioria dos outros valores. Em machine learning, qualquer uma das seguintes opções são outliers:

  • Dados de entrada com valores que estão a mais de aproximadamente três desvios padrão da média.
  • Pesos com valores absolutos altos.
  • Valores previstos relativamente distantes dos valores reais.

Por exemplo, suponha que widget-price seja um recurso de um determinado modelo. Suponha que o widget-price médio seja de 7 euros com um desvio padrão de 1 euro. Os exemplos que contêm um widget-price de 12 euros ou 2 euros serão considerados outliers, já que cada um desses preços está cinco desvios padrão da média.

Os pontos fora da curva geralmente são causados por erros de digitação ou outros erros de entrada. Em outros casos, outliers não são erros. Afinal, valores a cinco desvios padrão de distância da média são raros, mas quase impossíveis.

Os outliers costumam causar problemas no treinamento do modelo. O recorte é uma maneira de gerenciar outliers.

avaliação pronta para uso (avaliação OOB)

#df

Um mecanismo para avaliar a qualidade de uma floresta de decisão testando cada árvore de decisão em relação aos exemplos não usados durante o treinamento dessa árvore de decisão. Por exemplo, no diagrama a seguir, observe que o sistema treina cada árvore de decisão em cerca de dois terços dos exemplos e, em seguida, avalia em relação ao um terço restante dos exemplos.

Uma floresta de decisão composta de três árvores de decisão.
          Uma árvore de decisão é treinada em dois terços dos exemplos e, em seguida, usa o terço restante para a avaliação OOB.
          Uma segunda árvore de decisão treina em dois terços dos exemplos
          diferentes da árvore de decisão anterior e, em seguida,
          usa um terço diferente para a avaliação OOB em relação à
          árvore de decisão anterior.

A avaliação completa é uma aproximação eficiente e conservadora em termos de computação do mecanismo de validação cruzada. Na validação cruzada, um modelo é treinado para cada rodada de validação cruzada. Por exemplo, 10 modelos são treinados em uma validação cruzada de 10 vezes. Com a avaliação OOB, um único modelo é treinado. Como os bagging retêm alguns dados de cada árvore durante o treinamento, a avaliação OOB pode usar esses dados para aproximar a validação cruzada.

camada final

#fundamentals

A camada "final" de uma rede neural. A camada final contém a previsão.

A ilustração a seguir mostra uma pequena rede neural profunda com uma camada de entrada, duas camadas ocultas e uma de saída:

Uma rede neural com uma camada de entrada, duas camadas escondidas e uma camada final. A camada de entrada consiste em dois atributos. A primeira camada escondida consiste em três neurônios, e a segunda, dois. A camada final consiste em um único nó.

overfitting

#fundamentals

Criar um model que corresponda aos model com tanta precisão que o modelo não faça previsões corretas com base nos novos dados.

A regularização pode reduzir o overfitting. Treinar em um conjunto de treinamento grande e diversificado também pode reduzir o overfitting.

sobreamostragem

Reutilizar os exemplos de uma classe minoritária em um conjunto de dados com desequilíbrio de classes para criar um conjunto de treinamento mais equilibrado.

Por exemplo, considere um problema de classificação binária em que a proporção entre a classe principal e a classe minoritária é de 5.000:1. Se o conjunto de dados tiver um milhão de exemplos, o conjunto terá apenas cerca de 200 exemplos da classe minoritária, o que pode ser poucos exemplos para um treinamento eficaz. Para superar essa deficiência, você pode fazer uma amostragem excessiva desses 200 exemplos várias vezes, possivelmente produzindo exemplos suficientes para um treinamento útil.

Você precisa ter cuidado com o overfitting durante a sobreamostragem.

Contraste com subamostragem.

P

dados empacotados

Uma abordagem para armazenar dados com mais eficiência.

Os dados empacotados armazenam dados usando um formato compactado ou de alguma outra maneira que permita que eles sejam acessados com mais eficiência. Os dados empacotados minimizam a quantidade de memória e computação necessárias para acessá-los, resultando em um treinamento mais rápido e uma inferência de modelo mais eficiente.

Os dados empacotados geralmente são usados com outras técnicas, como aumento de dados e regularização, melhorando ainda mais o desempenho dos modelos.

pandas

#fundamentals

Uma API de análise de dados orientada por colunas, criada com base em numpy. Muitos frameworks de machine learning, incluindo o TensorFlow, oferecem suporte a estruturas de dados do pandas como entradas. Consulte a documentação do Pandas para mais detalhes.

parâmetro

#fundamentals

Os pesos e vieses que um modelo aprende durante o treinamento. Por exemplo, em um modelo de regressão linear, os parâmetros consistem no viés (b) e em todos os pesos (w1, w2 e assim por diante) na seguinte fórmula:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Por outro lado, hiperparâmetros são os valores que você (ou um serviço de ajuste de hiperparâmetros) fornece ao modelo. Por exemplo, a taxa de aprendizado é um hiperparâmetro.

ajuste de eficiência de parâmetros

#language
#IAgenerativa

Um conjunto de técnicas para ajustar um grande modelo de linguagem pré-treinado (PLM, na sigla em inglês) de forma mais eficiente do que o ajuste completo. O ajuste com eficiência de parâmetros normalmente ajusta muito menos parâmetros do que o ajuste completo. No entanto, geralmente produz um modelo de linguagem grande com desempenho tão bom (ou quase tão bom) quanto um modelo de linguagem grande criado com base no ajuste completo.

Compare e contraste o ajuste com eficiência de parâmetros com:

Esse recurso também é conhecido como ajustes finos com eficiência de parâmetros.

Servidor de parâmetros (PS)

#TensorFlow

Um job que monitora os parâmetros de um modelo em uma configuração distribuída.

atualização de parâmetros

Operação de ajuste dos parâmetros de um modelo durante o treinamento, normalmente em uma única iteração do gradiente descendente.

derivada parcial

Uma derivada em que todas as variáveis, exceto uma, são consideradas constantes. Por exemplo, a derivada parcial de f(x, y) em relação a x é a derivada de f considerada uma função apenas de x, ou seja, mantendo y constante. A derivada parcial de f em relação a x se concentra apenas em como x está mudando e ignora todas as outras variáveis na equação.

viés de participação

#fairness

Sinônimo de viés de não resposta. Consulte o viés de seleção.

estratégia de particionamento

O algoritmo pelo qual as variáveis são divididas entre servidores de parâmetros.

Pax

Um framework de programação projetado para treinar modelos de rede neural em grande escala e tão grandes que abrangem vários chips de acelerador de TPU ou pods.

O Pax é baseado no Flax, que é baseado no JAX.

Diagrama indicando a posição do Pax na pilha de software.
          O Pax foi desenvolvido com base no JAX. O próprio Pax consiste em três camadas. A camada inferior contém o TensorStore e o Flax.
          A camada intermediária contém Optax e Flaxformer. A camada superior contém a biblioteca Praxis Modeling. O Fiddle foi desenvolvido
          com base no Pax.

Perceptron

Um sistema (hardware ou software) que recebe um ou mais valores de entrada, executa uma função na soma ponderada das entradas e calcula um único valor de saída. Em machine learning, a função normalmente não é linear, como ReLU, sigmoid ou tanh. Por exemplo, o perceptron a seguir depende da função sigmoide para processar três valores de entrada:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

Na ilustração a seguir, o perceptron recebe três entradas, cada uma sendo modificada por um peso antes de entrar nele:

Um perceptron que recebe três entradas, cada uma multiplicada por pesos separados. O perceptron gera um valor único.

Perceptrons são os neurônios em redes neurais.

desempenho

Termo sobrecarregado com os seguintes significados:

  • O significado padrão na engenharia de software. Ou seja: com que rapidez (ou eficiência) esse software é executado?
  • o significado dentro do machine learning Aqui, o desempenho responde a seguinte pergunta: quão correto é este model? Ou seja, qual é a qualidade das previsões do modelo?

importâncias das variáveis de troca

#df

Um tipo de importância variável que avalia o aumento no erro de previsão de um modelo depois de trocar os valores do atributo. A importância da variável de troca é uma métrica que não depende do modelo.

perplexidade

Uma medida de como um model está realizando a tarefa. Por exemplo, suponha que sua tarefa seja ler as primeiras letras de uma palavra que um usuário está digitando no teclado de um smartphone e oferecer uma lista de possíveis palavras de conclusão. A perplexidade, P, para essa tarefa, é aproximadamente o número de palpites que você precisa oferecer para que a lista contenha a palavra real que o usuário está tentando digitar.

A perplexidade está relacionada à entropia cruzada da seguinte maneira:

$$P= 2^{-\text{cross entropy}}$$

pipeline

A infraestrutura em torno de um algoritmo de machine learning. Um pipeline inclui coletar os dados, colocá-los em arquivos de dados de treinamento, treinar um ou mais modelos e exportá-los para produção.

pipeline

#language

Uma forma de paralelismo de modelos em que o processamento de um modelo é dividido em estágios consecutivos, e cada um é executado em um dispositivo diferente. Enquanto uma etapa processa um lote, a anterior pode funcionar no próximo.

Consulte também o treinamento por etapas.

pjit

Uma função JAX que divide o código para execução em vários ícones de acelerador. O usuário passa uma função para o pjit, que retorna uma função que tem a semântica equivalente, mas é compilada em um cálculo de XLA que é executado em vários dispositivos (como GPUs ou núcleos de TPU).

O pjit permite que os usuários fragmentem cálculos sem reescrevê-los usando o particionador SPMD.

A partir de março de 2023, o pjit foi mesclado com o jit. Consulte Matrizes distribuídas e carregamento em paralelo automático para mais detalhes.

PLM

#language
#IAgenerativa

Abreviação de modelo de linguagem pré-treinado (em inglês).

pmap

Uma função JAX que executa cópias de uma função de entrada em vários dispositivos de hardware subjacentes (CPUs, GPUs ou TPUs), com valores de entrada diferentes. O pmap depende de SPMD.

policy

#rl

No aprendizado por reforço, o mapeamento probabilístico de um agente de estados para ações.

pool

#image

Reduzir uma ou mais matrizes criadas por uma camada convolucional anterior para uma matriz menor. O agrupamento geralmente envolve a obtenção do valor máximo ou médio da área reunida. Por exemplo, suponha que temos a seguinte matriz 3x3:

A matriz 3x3 [[5,3,1], [8,2,5], [9,4,3]].

Uma operação de pooling, assim como uma operação convolucional, divide essa matriz em fatias e, em seguida, desliza essa operação convolucional por strides. Por exemplo, suponha que a operação de pool divida a matriz convolucional em fatias 2x2 com um salto de 1x1. Como ilustrado no diagrama a seguir, ocorrem quatro operações de pool. Imagine que cada operação de pooling escolhe o valor máximo dos quatro nessa fração:

A matriz de entrada é 3x3 com os valores: [[5,3,1], [8,2,5], [9,4,3]].
          A submatriz 2x2 no canto superior esquerdo da matriz de entrada é [[5,3], [8,2]], portanto, a operação de pooling no canto superior esquerdo gera o valor 8 (que é o máximo de 5, 3, 8 e 2). A submatriz 2x2 do canto superior direito da matriz de entrada é [[3,1], [2,5]], portanto, a operação de pooling no canto superior direito gera o valor 5. A submatriz 2x2 no canto inferior esquerdo da matriz de entrada é [[8,2], [9,4]], portanto, a operação de pooling no canto inferior esquerdo gera o valor 9. A submatriz 2x2 do canto inferior direito da matriz de entrada é [[2,5], [4,3]], portanto, a operação de pooling no canto inferior direito gera o valor 5. Em resumo, a operação de pooling gera a matriz 2x2
          [[8,5], [9,5]].

O agrupamento ajuda a aplicar a invariância transacional na matriz de entrada.

O pooling para aplicativos de visão é conhecido mais formalmente como pooling espacial. Os aplicativos de série temporal geralmente se referem ao pool como pooling temporal. Menos formalmente, o pooling é chamado de subamostragem ou redução da amostragem.

codificação posicional

#language

Uma técnica para adicionar informações sobre a posição de um token em uma sequência ao embedding do token. Os modelos de transformador usam a codificação posicional para entender melhor a relação entre diferentes partes da sequência.

Uma implementação comum da codificação posicional usa uma função senoidal. Especificamente, a frequência e a amplitude da função senoidal são determinadas pela posição do token na sequência. Essa técnica permite que um modelo de transformador aprenda a atender a diferentes partes da sequência com base na posição delas.

classe positiva

#fundamentals

A turma em que você está testando.

Por exemplo, a classe positiva em um modelo de câncer pode ser “tumor”. A classe positiva em um classificador de e-mail pode ser "spam".

Compare com a classe negativa.

pós-processamento

#fairness
#fundamentals

Ajustar a saída de um modelo após a execução dele. O pós-processamento pode ser usado para impor restrições de imparcialidade sem modificar os modelos em si.

Por exemplo, é possível aplicar o pós-processamento a um classificador binário definindo um limite de classificação de modo que a igualdade de oportunidade seja mantida para alguns atributos ao verificar se a taxa de verdadeiro positivo é a mesma para todos os valores desse atributo.

PR AUC (área sob a curva PR)

Área sob a curva de precisão-recall interpolada, obtida pela plotagem de pontos (recall, precisão) para valores diferentes do limite de classificação. Dependendo de como ela é calculada, a AUC da PR pode ser equivalente à precisão média do modelo.

Praxe

Uma biblioteca de ML principal e de alto desempenho do Pax. Ela é frequentemente chamada de "biblioteca de camadas".

O Praxis contém não apenas as definições da classe Layer, mas também a maioria dos componentes de suporte, incluindo:

Praxis fornece as definições para a classe Model.

precision

Uma métrica para modelos de classificação que responde à seguinte pergunta:

Quando o modelo previu a classe positiva, que porcentagem das previsões estava correta?

Aqui está a fórmula:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

onde:

  • "verdadeiro positivo" significa que o modelo previu corretamente a classe positiva.
  • Um falso positivo significa que o modelo previu por engano a classe positiva.

Por exemplo, imagine que um modelo fez 200 previsões positivas. Dessas 200 previsões positivas:

  • 150 eram verdadeiros positivos.
  • 50 eram falsos positivos.

Neste caso:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

Compare com acurácia e recall.

curva de precisão/recall

Uma curva de precisão versus recall em diferentes limites de classificação.

previsão.

#fundamentals

A saída de um modelo. Exemplo:

  • A previsão de um modelo de classificação binária é a classe positiva ou a classe negativa.
  • A previsão de um modelo de classificação multiclasse é uma classe.
  • A previsão de um modelo de regressão linear é um número.

viés de previsão

Um valor que indica a distância entre a média das previsões e a média dos rótulos no conjunto de dados.

Não confunda com o termo de viés em modelos de machine learning ou com viés na ética e imparcialidade.

ML preditivo

Qualquer sistema padrão de machine learning (clássico).

O termo ML preditivo não tem uma definição formal. Em vez disso, o termo distingue uma categoria de sistemas de ML não baseada na IA generativa.

paridade preditiva

#fairness

Uma métrica de imparcialidade que verifica se, para um determinado classificador, as taxas de precisão são equivalentes para os subgrupos em consideração.

Por exemplo, um modelo que prevê a aceitação na faculdade atenderia à paridade preditiva da nacionalidade se a taxa de precisão fosse a mesma para liliputianos e brobdingnagians.

A paridade preditiva também é chamada de paridade de taxa preditiva.

Consulte "Explicações sobre imparcialidade" (seção 3.2.1) para uma discussão mais detalhada sobre paridade preditiva.

paridade de taxa preditiva

#fairness

Outro nome para paridade preditiva.

pré-processamento

#fairness
Processar dados antes de serem usados para treinar um modelo. O pré-processamento pode ser tão simples quanto remover palavras de um corpus de texto em inglês que não ocorrem no dicionário inglês ou pode ser tão complexo quanto reexpressar pontos de dados de uma maneira que elimina o máximo possível de atributos correlacionados a atributos confidenciais. O pré-processamento pode ajudar a atender às restrições de imparcialidade.

modelo pré-treinado

#language
#image
#IAgenerativa

Modelos ou componentes de modelo (como um vetor de incorporação) que já foram treinados. Às vezes, você alimenta vetores de embedding pré-treinados em uma rede neural. Outras vezes, o modelo treinará os próprios vetores de embedding em vez de depender dos embeddings pré-treinados.

O termo modelo de linguagem pré-treinado refere-se a um modelo de linguagem grande que passou pelo pré-treinamento.

pré-treinamento

#language
#image
#IAgenerativa

O treinamento inicial de um modelo em um grande conjunto de dados. Alguns modelos pré-treinados são gigantes desajeitados e normalmente precisam ser refinados com treinamento adicional. Por exemplo, especialistas em ML podem pré-treinar um modelo de linguagem grande em um grande conjunto de dados de texto, como todas as páginas em inglês na Wikipédia. Após o pré-treinamento, o modelo resultante pode ser refinado ainda mais usando qualquer uma das técnicas a seguir:

crença a priori

O que você acredita sobre os dados antes de começar o treinamento. Por exemplo, a regularização L2 depende de uma crença anterior de que os pesos precisam ser pequenos e normalmente distribuídos em torno de zero.

modelo de regressão probabilística

Um modelo de regressão que usa não apenas os pesos de cada recurso, mas também a incerteza desses pesos. Um modelo de regressão probabilística gera uma previsão e a incerteza dessa previsão. Por exemplo, um modelo de regressão probabilística pode gerar uma previsão de 325 com um desvio padrão de 12. Para mais informações sobre modelos de regressão probabilística, consulte este Colab em tensorflow.org.

função da densidade de probabilidade

Uma função que identifica a frequência de amostras de dados com um valor específico exatamente. Quando os valores do conjunto de dados são números contínuos de ponto flutuante, correspondências exatas raramente ocorrem. No entanto, integrating uma função de densidade de probabilidade do valor x ao valor y produz a frequência esperada de amostras de dados entre x e y.

Por exemplo, considere uma distribuição normal com uma média de 200 e um desvio padrão de 30. Para determinar a frequência esperada de amostras de dados que estão no intervalo de 211,4 a 218,7, integre a função de densidade de probabilidade para uma distribuição normal de 211,4 a 218,7.

prompt

#language
#IAgenerativa

Qualquer texto inserido como entrada em um modelo de linguagem grande para condicionar o modelo a se comportar de uma determinada maneira. Os comandos podem ser curtos quanto uma frase ou arbitrariamente longos (por exemplo, o texto inteiro de um romance). Os comandos se enquadram em várias categorias, incluindo as mostradas na tabela a seguir:

Categoria da solicitação Exemplo Observações
Pergunta Qual é a velocidade de um pombo voar?
Instrução Escreva um poema engraçado sobre arbitragem. Um comando que pede ao modelo de linguagem grande para fazer algo.
Exemplo Converta o código Markdown em HTML. Por exemplo:
Markdown: * item de lista
HTML: <ul> <li>item da lista</li> </ul>
A primeira frase do comando de exemplo é uma instrução. O restante do comando é o exemplo.
Papel Explique por que o gradiente descendente é usado no treinamento de machine learning para um PhD em física. A primeira parte da frase é uma instrução, e a frase "para um PhD em física" é a parte da função.
Entrada parcial para o modelo concluir O primeiro-ministro do Reino Unido mora Um comando de entrada parcial pode terminar abruptamente (como neste exemplo) ou com um sublinhado.

Um modelo de IA generativa pode responder a comandos com texto, código, imagens, embeddings, vídeos... quase tudo.

aprendizado baseado em comandos

#language
#IAgenerativa

Um recurso de determinados modelos que permite adaptar o comportamento em resposta a uma entrada de texto arbitrária (comandos). Em um paradigma de aprendizado baseado em prompt típico, um modelo de linguagem grande responde a uma solicitação gerando texto. Por exemplo, suponha que um usuário digite o seguinte comando:

Resumir a terceira lei de Newton.

Um modelo capaz de aprendizado baseado em comandos não é treinado especificamente para responder ao comando anterior. Em vez disso, o modelo "sabe" muitos fatos sobre física, muito sobre regras gerais de linguagem e muito sobre o que constitui respostas geralmente úteis. Esse conhecimento é suficiente para fornecer uma resposta útil. Feedback humano adicional ("Essa resposta foi muito complicada" ou "O que é uma reação?") permite que alguns sistemas de aprendizado baseados em comandos melhorem a utilidade das respostas gradualmente.

design de comandos

#language
#IAgenerativa

Sinônimo de engenharia de comando.

engenharia de comando

#language
#IAgenerativa

A arte de criar comandos que recebem as respostas pretendidas de um modelo de linguagem grande. Os humanos fazem a engenharia de comando. Escrever comandos bem estruturados é essencial para garantir respostas úteis de modelos de linguagem grandes. Ela depende de muitos fatores, incluindo:

  • O conjunto de dados usado para pré-treinar e possivelmente ajustar o modelo de linguagem grande.
  • A temperatura e outros parâmetros de decodificação que o modelo usa para gerar respostas.

Consulte Introdução à criação de comandos para conferir mais detalhes sobre como escrever comandos úteis.

Design de comandos é sinônimo de engenharia de comando.

ajuste de comandos

#language
#IAgenerativa

Um mecanismo de ajuste eficiente de parâmetros que aprende um "prefixo" que o sistema anexa ao comando real.

Uma variação do ajuste de prompts, às vezes chamado de ajuste de prefixo, é incluir o prefixo em todas as camadas. Por outro lado, a maior parte do ajuste de comandos adiciona apenas um prefixo à camada de entrada.

rótulos de proxy

#fundamentals

Dados usados para aproximar rótulos não disponíveis diretamente em um conjunto de dados.

Por exemplo, suponha que você precise treinar um modelo para prever o nível de estresse dos funcionários. O conjunto de dados contém muitos recursos preditivos, mas não contém um rótulo chamado nível de estresse. Sem se intimidar, você escolhe "acidentes no local de trabalho" como identificador do nível de estresse. Afinal, funcionários sob alto estresse enfrentam mais acidentes do que funcionários calmos. Ou eles têm? Talvez os acidentes de trabalho aumentem e diminuam por vários motivos.

Como segundo exemplo, suponha que você queira que está chovendo? seja um rótulo booleano para seu conjunto de dados, mas seu conjunto de dados não contém dados de chuva. Se fotos estiverem disponíveis, estabeleça fotos de pessoas carregando guarda-chuvas como um rótulo substituto de está chovendo? Esse é um bom identificador de proxy? Possivelmente, mas as pessoas de algumas culturas são mais propensas a carregar guarda-chuvas para se proteger do sol do que da chuva.

Os rótulos de proxy geralmente são imperfeitos. Quando possível, escolha rótulos reais em vez de rótulos de proxy. Dito isso, quando um rótulo real estiver ausente, escolha-o com muito cuidado, escolhendo o menos horrível candidato a rótulo de proxy.

proxy (atributos confidenciais)

#fairness
Um atributo usado como substituto de um atributo sensível. Por exemplo, o CEP de uma pessoa pode ser usado como proxy de renda, raça ou etnia.

função pura

Uma função com saídas baseadas apenas nas entradas e que não tem efeitos colaterais. Especificamente, uma função pura não usa nem altera nenhum estado global, como o conteúdo de um arquivo ou o valor de uma variável fora da função.

Funções puras podem ser usadas para criar código thread-safe, o que é útil ao fragmentar o código do model em vários model.

Os métodos de transformação de função do JAX exigem que as funções de entrada sejam funções puras.

P

Função Q

#rl

No aprendizado por reforço, a função que prevê o retorno esperado de executar uma ação em um estado e, em seguida, seguir uma determinada política.

A função Q também é conhecida como função de valor de ação de estado.

Aprendizado Q

#rl

No aprendizado por reforço, um algoritmo que permite que um agente aprenda a função Q ideal de um processo de decisão de Markov aplicando a equação de Bellman. O processo de decisão de Markov modela um ambiente.

quantil

Cada bucket no agrupamento por classes.

agrupamento por classes de quantil

Distribuir os valores de um atributo em buckets para que cada bucket contenha o mesmo (ou quase o mesmo) número de exemplos. Por exemplo, a figura a seguir divide 44 pontos em 4 buckets, cada um contendo 11 pontos. Para que cada bucket na figura contenha o mesmo número de pontos, alguns buckets abrangem uma largura diferente de valores x.

44 pontos de dados divididos em 4 buckets de 11 pontos cada.
          Embora cada bucket contenha o mesmo número de pontos de dados,
 alguns contêm um intervalo maior de valores de recursos do que outros.

quantização

Termo sobrecarregado que pode ser usado de qualquer uma das seguintes maneiras:

  • Implementar o agrupamento por classes de quantil em um recurso específico.
  • transformar dados em zeros e uns para acelerar o armazenamento, o treinamento e a inferência. Como os dados booleanos são mais robustos em relação a ruídos e erros do que outros formatos, a quantização pode melhorar a precisão do modelo. As técnicas de quantização incluem arredondamento, truncamento e agrupamento.
  • Redução do número de bits usados para armazenar os parâmetros de um modelo. Por exemplo, suponha que os parâmetros de um modelo sejam armazenados como números de ponto flutuante de 32 bits. A quantização converte esses parâmetros de 32 bits para 4, 8 ou 16 bits. A quantização reduz o seguinte:

    • Uso de computação, memória, disco e rede
    • Tempo para inferir uma predicação
    • Consumo de energia

    No entanto, a quantização às vezes diminui a exatidão das previsões de um modelo.

fila

#TensorFlow

Uma operação do TensorFlow que implementa uma estrutura de dados de fila. Usado normalmente na E/S.

R

RAG

#fundamentals

Abreviação de geração aumentada de recuperação.

floresta aleatória

#df

Um ensemble de árvores de decisão em que cada árvore de decisão é treinada com um ruído aleatório específico, como bagging.

As florestas aleatórias são um tipo de floresta de decisão.

política aleatória

#rl

No aprendizado por reforço, uma política que escolhe uma ação aleatoriamente.

classificação

Um tipo de aprendizado supervisionado que tem o objetivo de ordenar uma lista de itens.

classificação (ordinalidade)

A posição ordinal de uma classe em um problema de machine learning que categoriza as classes da mais alta para a mais baixa. Por exemplo, um sistema de classificação de comportamento pode classificar os prêmios de um cão do mais alto (um bife) para o mais baixo (couve murcha).

classificação (Tensor)

#TensorFlow

O número de dimensões em um Tensor. Por exemplo, um escalar tem classificação 0, um vetor tem classificação 1 e uma matriz tem classificação 2.

Não confunda com classificação (ordinalidade).

avaliador

#fundamentals

Uma pessoa que fornece rótulos para exemplos. "Anotador" é outro nome para avaliador.

recall

Uma métrica para modelos de classificação que responde à seguinte pergunta:

Quando as informações empíricas eram a classe positiva, qual porcentagem de previsões o modelo identificou corretamente como a classe positiva?

Aqui está a fórmula:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

onde:

  • "verdadeiro positivo" significa que o modelo previu corretamente a classe positiva.
  • um falso negativo significa que o modelo previu de maneira incorreta a classe negativa.

Por exemplo, suponha que seu modelo tenha feito 200 previsões em exemplos para os quais as informações empíricas eram a classe positiva. Dessas 200 previsões:

  • 180 eram verdadeiros positivos.
  • 20 eram falsos negativos.

Neste caso:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

sistema de recomendação

#recsystems

Um sistema que seleciona para cada usuário um conjunto relativamente pequeno de itens desejáveis de um grande corpus. Por exemplo, um sistema de recomendação de vídeos pode recomendar dois vídeos de um corpus de 100 mil vídeos, selecionando Casablanca e A história da Filadélfia para um usuário e Mulher Maravilha e Pantera Negra para outro. Um sistema de recomendação de vídeos pode basear as recomendações em fatores como:

  • Filmes que usuários semelhantes avaliaram ou assistiram.
  • Gênero, diretores, atores, público-alvo...

Unidade Linear Retificada (ReLU)

#fundamentals

Uma função de ativação com o seguinte comportamento:

  • Se a entrada for negativa ou zero, a saída será 0.
  • Se a entrada for positiva, a saída será igual à entrada.

Exemplo:

  • Se a entrada for -3, a saída será 0.
  • Se a entrada for +3, a saída será 3,0.

Veja um gráfico de ReLU:

Um gráfico cartesiano de duas linhas. A primeira linha tem um valor y constante de 0, percorrendo o eixo x de -infinito,0 a 0,-0.
          A segunda linha começa em 0,0. Essa linha tem uma inclinação de +1, portanto, ela vai de 0,0 a +infinito,+infinito.

ReLU é uma função de ativação muito conhecida. Apesar do comportamento simples, a ReLU ainda permite que uma rede neural aprenda relações não lineares entre atributos e o rótulo.

rede neural recorrente

#seq

Uma rede neural executada intencionalmente várias vezes, em que partes de cada execução são alimentadas na próxima execução. Especificamente, as camadas ocultas da execução anterior fornecem parte da entrada para a mesma camada escondida na próxima execução. As redes neurais recorrentes são particularmente úteis para avaliar sequências, de modo que as camadas escondidas possam aprender com as execuções anteriores da rede neural em partes anteriores da sequência.

Por exemplo, a figura a seguir mostra uma rede neural recorrente que é executada quatro vezes. Os valores aprendidos nas camadas escondidas da primeira execução se tornam parte da entrada para as mesmas camadas escondidas na segunda execução. Da mesma forma, os valores aprendidos na camada escondida na segunda execução se tornam parte da entrada para a mesma camada escondida na terceira execução. Dessa forma, a rede neural recorrente treina e prevê gradualmente o significado de toda a sequência em vez de apenas o significado de palavras individuais.

Uma RNN que é executada quatro vezes para processar quatro palavras de entrada.

modelo de regressão

#fundamentals

informalmente, um modelo que gera uma previsão numérica. Por outro lado, um modelo de classificação gera uma previsão de classe. Por exemplo, estes são todos modelos de regressão:

  • Um modelo que prevê o valor de uma determinada casa, como 423.000 euros.
  • Um modelo que prevê a expectativa de vida de uma determinada árvore, como 23,2 anos.
  • Um modelo que prevê a quantidade de chuva que vai cair em uma determinada cidade nas próximas seis horas, como 0,18 milímetros.

Dois tipos comuns de modelos de regressão são:

  • Regressão linear, que encontra a linha que melhor sede os valores de rótulo aos atributos.
  • Regressão logística, que gera uma probabilidade entre 0,0 e 1,0 que um sistema normalmente mapeia para uma previsão de classe.

Nem todo modelo que gera previsões numéricas é um modelo de regressão. Em alguns casos, uma previsão numérica é na verdade apenas um modelo de classificação que tem nomes de classes numéricas. Por exemplo, um modelo que prevê um código postal numérico é um modelo de classificação, não um modelo de regressão.

regularização

#fundamentals

Qualquer mecanismo que reduza o overfitting. Os tipos conhecidos de regularização incluem:

A regularização também pode ser definida como a penalidade na complexidade de um modelo.

taxa de regularização

#fundamentals

Um número que especifica a importância relativa da regularização durante o treinamento. Aumentar a taxa de regularização reduz o overfitting, mas pode reduzir a capacidade preditiva do modelo. Por outro lado, reduzir ou omitir a taxa de regularização aumenta o overfitting.

aprendizado por reforço (RL)

#rl

Uma família de algoritmos que aprende uma política ideal, com o objetivo de maximizar o retorno ao interagir com um ambiente. Por exemplo, o prêmio final da maioria dos jogos é a vitória. Os sistemas de aprendizado por reforço podem se tornar especialistas em jogos complexos avaliando sequências de movimentos anteriores que levaram a vitórias e sequências que levaram a perdas.

Aprendizado por reforço com feedback humano (RLHF)

#IAgenerativa
#rl

Usar feedback de avaliadores humanos para melhorar a qualidade das respostas de um modelo. Por exemplo, um mecanismo de RLHF pode pedir que os usuários avaliem a qualidade da resposta de um modelo com um emoji 👍 ou 👎. O sistema pode ajustar as respostas futuras com base nesse feedback.

ReLU

#fundamentals

Abreviação de Retified Linear Unit.

buffer de repetição

#rl

Em algoritmos do tipo DQN, a memória usada pelo agente para armazenar transições de estado para uso na repetição da experiência.

réplica

Uma cópia do conjunto de treinamento ou modelo, normalmente em outra máquina. Por exemplo, um sistema pode usar a seguinte estratégia para implementar o paralelismo de dados:

  1. colocar réplicas de um modelo atual em várias máquinas;
  2. Enviar diferentes subconjuntos do conjunto de treinamento para cada réplica.
  3. Agregue as atualizações de parâmetro.

viés de relatório

#fairness

A frequência com que as pessoas escrevem sobre ações, resultados ou propriedades não é um reflexo das frequências reais delas ou do grau em que uma propriedade é característica de uma classe de indivíduos. O viés de relatório pode influenciar a composição dos dados que os sistemas de machine learning aprendem.

Por exemplo, em livros, a palavra rindo é mais predominante do que respirada. Um modelo de machine learning que estima a frequência relativa de rir e respirar usando um corpus de livro provavelmente determinaria que rir é mais comum do que respirar.

representação de vetor

O processo de mapear dados para recursos úteis.

reclassificação

#recsystems

O estágio final de um sistema de recomendação, em que os itens pontuados podem ser reclassificados de acordo com algum outro algoritmo (normalmente, não ML). A reclassificação avalia a lista de itens gerados pela fase de pontuação, realizando ações como:

  • Eliminar os itens que o usuário já comprou.
  • Aumentar a pontuação de itens mais atualizados.

geração aumentada de recuperação (RAG, na sigla em inglês)

#fundamentals

Uma técnica para melhorar a qualidade da saída do modelo de linguagem grande (LLM, na sigla em inglês) ao fundamentá-la com fontes de conhecimento recuperadas após o treinamento do modelo. O RAG melhora a precisão das respostas do LLM, fornecendo ao LLM treinado acesso a informações recuperadas de bases de conhecimento ou documentos confiáveis.

Motivações comuns para usar a geração aumentada de recuperação incluem:

  • Aumentar a acurácia factual das respostas geradas de um modelo.
  • Dar ao modelo acesso ao conhecimento em que não foi treinado.
  • Alterar o conhecimento que o modelo usa.
  • Permitir que o modelo cite fontes.

Por exemplo, imagine que um app de química usa a API PaLM para gerar resumos relacionados às consultas dos usuários. Quando o back-end do app recebe uma consulta, ele:

  1. Procura ("recupera") dados relevantes para a consulta do usuário.
  2. Anexa ("aumenta") os dados de química relevantes à consulta do usuário.
  3. Instrui o LLM a criar um resumo com base nos dados anexados.

return

#rl

No aprendizado por reforço, com uma determinada política e um determinado estado, o retorno é a soma de todas as recompensas que o agente espera receber ao seguir a política do estado até o final do episódio. O agente considera a natureza atrasada das recompensas esperadas ao descontar recompensas de acordo com as transições de estado necessárias para receber a recompensa.

Portanto, se o fator de desconto for \(\gamma\)e \(r_0, \ldots, r_{N}\) indicar os prêmios até o final do episódio, o cálculo de retorno será este:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

recompensa (recompensar)

#rl

No aprendizado por reforço, é o resultado numérico de uma ação em um estado, conforme definido pelo ambiente.

regularização Ridge

Sinônimo de regularização L2. O termo regularização Rigidez é usado com mais frequência em contextos de estatística pura, enquanto a regularização L2 é usada com mais frequência em machine learning.

RNN

#seq

Abreviação de redes neurais recorrentes.

Curva ROC (característica de operação do receptor)

#fundamentals

Um gráfico de taxa de verdadeiro positivo em comparação com a taxa de falso positivo para diferentes limites de classificação na classificação binária.

A forma de uma curva ROC sugere a capacidade de um modelo de classificação binária de separar classes positivas de classes negativas. Suponha, por exemplo, que um modelo de classificação binária separe perfeitamente todas as classes negativas de todas as classes positivas:

Uma linha numérica com oito exemplos positivos à direita e sete exemplos negativos à esquerda.

A curva ROC do modelo anterior fica assim:

Uma curva ROC. O eixo x é a taxa de falso positivo, e o eixo y é a taxa de verdadeiro positivo. A curva tem um formato de L invertido. A curva começa em (0,0,0,0) e vai diretamente para (0,0,1,0). Em seguida, a curva vai de (0,0, 1,0) para (1,0, 1,0).

Em contraste, a ilustração abaixo mostra os valores brutos de regressão logística para um modelo péssimo que não consegue separar classes negativas de classes positivas:

Uma reta numérica com exemplos positivos e classes negativas
          completamente misturadas.

A curva ROC desse modelo tem a seguinte aparência:

Uma curva ROC, que é, na verdade, uma linha reta de (0,0,0,0) até (1,0,1,0).

Enquanto isso, no mundo real, a maioria dos modelos de classificação binária separa as classes positivas e negativas até certo ponto, mas elas não costumam ser perfeitamente. Assim, uma curva ROC típica fica entre os dois extremos:

Uma curva ROC. O eixo x é a taxa de falso positivo, e o eixo y é a taxa de verdadeiro positivo. A curva ROC se aproxima de um arco instável que atravessa os pontos da bússola de oeste para norte.

O ponto em uma curva ROC mais próximo de (0,0,1,0) identifica teoricamente o limiar de classificação ideal. No entanto, vários outros problemas reais influenciam a seleção do limiar de classificação ideal. Por exemplo, falsos negativos podem causar muito mais problemas do que falsos positivos.

Uma métrica numérica chamada AUC resume a curva ROC em um único valor de ponto flutuante.

solicitação de papéis

#language
#IAgenerativa

Uma parte opcional de um comando que identifica um público-alvo para a resposta de um modelo de IA generativa. Sem uma instrução de papel, um modelo de linguagem grande fornece uma resposta que pode ou não ser útil para a pessoa que faz as perguntas. Com uma instrução de papel, um modelo de linguagem grande pode responder de maneira mais apropriada e útil para um público-alvo específico. Por exemplo, a parte da solicitação de papel das solicitações a seguir está em negrito:

  • Resuma este artigo para um doutorado em economia.
  • Descreva como as marés funcionam para uma criança de dez anos de idade.
  • Explique a crise financeira de 2008. Fale como se estivesse falando com uma criança ou com um golden retriever.

root

#df

O inicial (a primeira condição) em uma árvore de decisão. Por convenção, os diagramas colocam a raiz no topo da árvore de decisão. Exemplo:

Uma árvore de decisão com duas condições e três folhas. A condição inicial (x > 2) é a raiz.

diretório raiz

#TensorFlow

O diretório especificado para hospedar subdiretórios do checkpoint do TensorFlow e arquivos de eventos de vários modelos.

Raiz do erro quadrático médio (RMSE)

#fundamentals

A raiz quadrada do Erro quadrático médio.

invariância rotacional

#image

Em um problema de classificação de imagens, a capacidade de um algoritmo de classificar imagens com sucesso, mesmo quando a orientação delas muda. Por exemplo, o algoritmo ainda pode identificar uma raquete de tênis, esteja ela apontando para cima, de lado ou para baixo. A invariância rotacional nem sempre é desejável. Por exemplo, um 9 de cabeça para baixo não deve ser classificado como 9.

Consulte também invariância translacional e invariância de tamanho.

R ao quadrado

Uma métrica de regressão que indica quanta variação em um rótulo se deve a um recurso individual ou a um conjunto de recursos. R ao quadrado é um valor entre 0 e 1, que pode ser interpretado da seguinte maneira:

  • Um R ao quadrado de 0 significa que nenhuma variação de um rótulo se deve ao conjunto de atributos.
  • Um R ao quadrado de 1 significa que toda a variação de um rótulo se deve ao conjunto de atributos.
  • Um R ao quadrado entre 0 e 1 indica até que ponto a variação do rótulo pode ser prevista a partir de um determinado atributo ou conjunto de atributos. Por exemplo, um R ao quadrado de 0,10 significa que 10% da variação no rótulo é devido ao conjunto de atributos, um R ao quadrado de 0,20 significa que 20% é devido ao conjunto de atributos e assim por diante.

R ao quadrado é o quadrado do coeficiente de correlação de Pearson entre os valores que um modelo previu e as informações empíricas (em inglês).

S

viés de amostragem

#fairness

Consulte o viés de seleção.

Amostragem com substituição

#df

Um método para escolher itens de um conjunto de itens candidatos em que o mesmo item pode ser escolhido várias vezes. A frase "com substituição" significa que, após cada seleção, o item selecionado é retornado ao conjunto de itens candidatos. O método inverso, amostragem sem substituição, significa que um item candidato só pode ser escolhido uma vez.

Por exemplo, considere o seguinte conjunto de frutas:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Suponha que o sistema escolha aleatoriamente fig como o primeiro item. Se estiver usando a amostragem com substituição, o sistema escolherá o segundo item do seguinte conjunto:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Sim, o mesmo conjunto de antes, então o sistema pode escolher fig de novo.

Se você usar amostragem sem substituição, uma amostra não poderá ser escolhida novamente depois de escolhida. Por exemplo, se o sistema escolher aleatoriamente fig como a primeira amostra, então fig não poderá ser selecionado de novo. Portanto, o sistema escolhe a segunda amostra do conjunto (reduzido) a seguir:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

O formato recomendado para salvar e recuperar modelos do TensorFlow. O SavedModel é um formato de serialização recuperável e neutro em relação à linguagem, que permite que sistemas e ferramentas de nível superior produzam, consumam e transformem modelos do TensorFlow.

Consulte o capítulo Como salvar e restaurar no Guia do programador do TensorFlow para ver os detalhes completos.

Econômico

#TensorFlow

Um objeto do TensorFlow responsável por salvar os checkpoints do modelo.

escalar

Um único número ou string que pode ser representado como um tensor de classificação 0. Por exemplo, cada linha de código a seguir cria um escalar no TensorFlow:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

escalonamento

Qualquer transformação ou técnica matemática que altera o intervalo de um valor de rótulo e/ou atributo. Algumas formas de escalonamento são muito úteis para transformações como a normalização.

Estas são algumas formas comuns de escalonamento útil em machine learning:

  • escalonamento linear, que normalmente usa uma combinação de subtração e divisão para substituir o valor original por um número entre -1 e +1 ou entre 0 e 1.
  • escala logarítmica, que substitui o valor original pelo logaritmo.
  • Normalização de pontuação Z, que substitui o valor original por um valor de ponto flutuante que representa o número de desvios padrão da média desse recurso.

scikit-learn

Uma plataforma de machine learning de código aberto. Consulte scikit-learn.org.

em lote

#recsystems

A parte de um sistema de recomendação que fornece um valor ou uma classificação para cada item produzido pela fase de geração de candidatos.

viés de seleção

#fairness

Erros nas conclusões extraídas dos dados de amostra devido a um processo de seleção que gera diferenças sistemáticas entre as amostras observadas nos dados e aquelas não observadas. Existem as seguintes formas de viés de seleção:

  • viés de cobertura: a população representada no conjunto de dados não corresponde à população sobre a qual o modelo de machine learning está fazendo previsões.
  • Viés de amostragem: os dados não são coletados aleatoriamente do grupo de destino.
  • viés de não resposta (também chamado de viés de participação): usuários de determinados grupos recusam pesquisas em taxas diferentes do que usuários de outros grupos.

Por exemplo, suponha que você esteja criando um modelo de machine learning que prevê o que as pessoas gostam de assistir a um filme. Para coletar dados de treinamento, você distribui uma pesquisa a todos na primeira fila de um cinema que exibe o filme. De imediato, essa pode parecer uma maneira razoável de coletar um conjunto de dados. No entanto, essa forma de coleta de dados pode introduzir as seguintes formas de viés de seleção:

  • Viés de cobertura: por amostragem de uma população que escolheu assistir o filme, as previsões do seu modelo podem não generalizar para pessoas que ainda não expressaram esse nível de interesse no filme.
  • Viés de amostragem: em vez de fazer uma amostragem aleatória da população pretendida (todas as pessoas no filme), você fez a amostragem apenas das pessoas na primeira fila. É possível que as pessoas sentadas na primeira fila estivessem mais interessadas no filme do que aquelas nas outras linhas.
  • viés de não resposta: em geral, pessoas com opiniões fortes tendem a responder a pesquisas opcionais com mais frequência do que pessoas com opiniões moderadas. Como a pesquisa de filmes é opcional, as respostas têm mais chances de formar uma distribuição bimodal do que uma distribuição normal (em forma de sino).

autoatenção (também chamada de camada de autoatenção)

#language

Uma camada de rede neural que transforma uma sequência de embeddings (por exemplo, token) em outra sequência de embeddings. Cada embedding na sequência de saída é construído integrando informações dos elementos da sequência de entrada por um mecanismo de atenção.

A parte self da autoatenção refere-se à sequência que vai a si mesma em vez de a algum outro contexto. A autoatenção é um dos principais elementos básicos dos Transformers e usa terminologia de pesquisa de dicionário, como "consulta", "chave" e "valor".

Uma camada de autoatenção começa com uma sequência de representações de entrada, uma para cada palavra. A representação de entrada de uma palavra pode ser uma incorporação simples. Para cada palavra em uma sequência de entrada, a rede pontua a relevância da palavra para cada elemento em toda a sequência de palavras. As pontuações de relevância determinam quanto a representação final da palavra incorpora as representações de outras palavras.

Por exemplo, considere a seguinte frase:

O animal não atravessou a rua porque estava muito cansado.

A ilustração a seguir (de Transformer: uma nova arquitetura de rede neural para compreensão da linguagem) mostra o padrão de atenção de uma camada de autoatenção para o pronome ele, com a escuridão de cada linha indicando o quanto cada palavra contribui para a representação:

A seguinte frase aparece duas vezes: o animal não atravessou a rua porque estava muito cansado. As linhas conectam o pronome em uma frase a cinco tokens (O, animal, rua, it e ponto) na outra frase.  A linha entre o pronome e a palavra animal é a mais forte.

A camada de autoatenção destaca as palavras relevantes para "ele". Nesse caso, a camada de atenção aprendeu a destacar palavras a que ela pode se referir, atribuindo o maior peso a animal.

Para uma sequência de n tokens, a autoatenção transforma uma sequência de embeddings n tempos separados, uma em cada posição na sequência.

Consulte também atenção e autoatenção de várias cabeças.

aprendizado autossupervisionado

Uma família de técnicas para converter um problema de machine learning não supervisionado em um problema de machine learning supervisionado criando rótulos alternativos a partir de exemplos não rotulados.

Alguns modelos baseados em Transformer, como o BERT, usam aprendizado autossupervisionado.

O treinamento autossupervisionado é uma abordagem de aprendizado semi-supervisionado.

autotreinamento

Uma variante do aprendizado autossupervisionado que é particularmente útil quando todas as condições a seguir são verdadeiras:

O autotreinamento funciona iterando as duas etapas a seguir até que o modelo pare de melhorar:

  1. Use o machine learning supervisionado para treinar um modelo com base nos exemplos rotulados.
  2. Use o modelo criado na Etapa 1 para gerar previsões (rótulos) nos exemplos não rotulados, movendo aqueles em que há alta confiança para os exemplos rotulados com o rótulo previsto.

Observe que cada iteração da Etapa 2 adiciona mais exemplos rotulados para a Etapa 1 de treinamento.

aprendizado semi-supervisionado

Treinar um modelo com dados em que alguns dos exemplos de treinamento têm rótulos, mas outros não. Uma técnica de aprendizado semi-supervisionado é inferir rótulos para os exemplos não rotulados e depois treiná-los para criar um novo modelo. O aprendizado semi-supervisionado pode ser útil se a obtenção de rótulos for cara, mas houver muitos exemplos não rotulados.

O autotreinamento é uma técnica de aprendizado semi-supervisionado.

atributo sensível

#fairness
Um atributo humano que pode receber consideração especial por motivos legais, éticos, sociais ou pessoais.

análise de sentimento

#language

Usar algoritmos estatísticos ou de machine learning para determinar a atitude geral de um grupo (positiva ou negativa) em relação a um serviço, produto, organização ou tópico. Por exemplo, usando compreensão de linguagem natural, um algoritmo poderia realizar uma análise de sentimento no feedback textual de um curso universitário para determinar o grau em que os alunos geralmente gostaram ou não do curso.

modelo sequencial

#seq

Um modelo com entradas que têm dependência sequencial. Por exemplo, prever o próximo vídeo assistido a partir de uma sequência de vídeos assistidos anteriormente.

tarefa sequência a sequência

#language

Uma tarefa que converte uma sequência de entrada de tokens em uma sequência de tokens de saída. Por exemplo, há dois tipos conhecidos de tarefas sequência para sequência:

  • Tradutores:
    • Exemplo de sequência de entrada: "Eu te amo".
    • Exemplo de sequência de saída: "Je t'aime".
  • Respostas a perguntas:
    • Exemplo de sequência de entrada: "Preciso do meu carro em Nova York?"
    • Exemplo de sequência de saída: "Não. Deixe o carro em casa."

do modelo

É o processo de disponibilizar um modelo treinado para fornecer previsões por meio de inferência on-line ou inferência off-line.

forma (Tensor)

O número de elementos em cada dimensão de um tensor. A forma é representada como uma lista de números inteiros. Por exemplo, o tensor bidimensional a seguir tem a forma de [3,4]:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

O TensorFlow usa o formato de linha principal (estilo C) para representar a ordem das dimensões. Por isso, a forma no TensorFlow é [3,4] em vez de [4,3]. Em outras palavras, em um TensorFlow Tensor bidimensional, o formato é [número de linhas, número de colunas].

fragmento

#TensorFlow
#GoogleCloud

Uma divisão lógica do conjunto de treinamento ou do modelo. Normalmente, algum processo cria fragmentos dividindo os exemplos ou parâmetros em (geralmente) blocos de tamanho igual. Cada fragmento é atribuído a uma máquina diferente.

A fragmentação de um modelo é chamada de paralelismo de modelos. A fragmentação de dados é chamada de paralelismo de dados.

redução

#df

Um hiperparâmetro na aumento de gradiente que controla o overfitting. A redução na otimização de gradiente é análoga à taxa de aprendizado no gradiente descendente. O encolhimento é um valor decimal entre 0,0 e 1,0. Um valor de redução menor reduz o overfitting mais do que um valor de redução maior.

função sigmoide

#fundamentals

Uma função matemática que "comprime" um valor de entrada em um intervalo restrito, normalmente de 0 a 1 ou de -1 a +1. Ou seja, é possível passar qualquer número (dois, um milhão, bilhões negativo ou qualquer outro) para um sigmoide e a saída ainda estará no intervalo restrito. Um gráfico da função de ativação sigmoide é semelhante a este:

Um gráfico curva bidimensional com valores x que abrangem o domínio -infinito a +positivo, enquanto os valores y abrangem o intervalo de quase 0 a quase 1. Quando x é 0, y é 0,5. A inclinação da curva é sempre positiva, com a maior inclinação em 0,0,5 e diminuindo gradualmente as inclinações à medida que o valor absoluto de x aumenta.

A função sigmoide tem vários usos no machine learning, incluindo:

medida de similaridade

#clustering

Nos algoritmos de clustering, a métrica usada para determinar a semelhança (a semelhança) entre dois exemplos.

um único programa / vários dados (SPMD)

Uma técnica de paralelismo em que o mesmo cálculo é executado em dados de entrada diferentes, em paralelo, em dispositivos distintos. O objetivo do SPMD é chegar a resultados mais rapidamente. É o estilo mais comum de programação paralela.

invariância de tamanho

#image

Em um problema de classificação de imagens, a capacidade de um algoritmo de classificar imagens com sucesso, mesmo quando o tamanho delas muda. Por exemplo, o algoritmo ainda poderá identificar um gato se ele consumir 2 milhões ou 200 mil pixels. Mesmo os melhores algoritmos de classificação de imagens ainda têm limites práticos para a invariância de tamanho. Por exemplo, é improvável que um algoritmo (ou humano) classifique corretamente uma imagem de gato que consome apenas 20 pixels.

Consulte também invariância translacional e invariância rotacional.

esboço

#clustering

No machine learning não supervisionado, uma categoria de algoritmos que realiza uma análise preliminar de similaridade em exemplos. Os algoritmos de esboço usam uma função hash sensível à localidade para identificar pontos que provavelmente serão semelhantes e, em seguida, agrupá-los em buckets.

O esboço diminui o cálculo necessário para cálculos de similaridade em grandes conjuntos de dados. Em vez de calcular a semelhança para cada par de exemplos no conjunto de dados, calculamos a similaridade apenas para cada par de pontos dentro de cada bucket.

Pular-grama

#language

Um n-grama que pode omitir (ou "pular") palavras do contexto original, o que significa que as palavras N podem não ter sido originalmente adjacentes. Mais precisamente, "k-skip-n-gram" é um "n-gram" que pode ter até k palavras ignoradas.

Por exemplo, "a rápida raposa marrom" tem os seguintes 2-gramas possíveis:

  • "a rápida"
  • "marrom rápido"
  • "raposa marrom"

Um "1-skip-2-gram" é um par de palavras que têm no máximo uma palavra entre elas. Portanto, "a raposa-marrom rápida" tem os seguintes 2-gramas de 1 pulo:

  • "marrom"
  • "raposa rápida"

Além disso, todos os 2-gramas também são 1-skip-2-grams, já que menos de uma palavra pode ser ignorada.

Skip-grams são úteis para entender melhor o contexto de uma palavra. No exemplo, "fox" foi diretamente associada a "quick" no conjunto de 1-skip-2-gramas, mas não no conjunto de 2-gramas.

Os Skip-grams ajudam a treinar modelos de incorporação de palavras (em inglês).

softmax

#fundamentals

Uma função que determina as probabilidades de cada classe possível em um modelo de classificação multiclasse. As probabilidades somam exatamente 1,0. Por exemplo, a tabela a seguir mostra como a softmax distribui várias probabilidades:

A imagem é um... Probabilidade
cachorro 0,85
cat 0,13
cavalo 0,02

A softmax também é chamada de softmax completa.

Compare com a amostragem de candidatos.

ajuste de comandos flexíveis

#language
#IAgenerativa

Uma técnica de ajuste de um modelo de linguagem grande para uma tarefa específica, sem ajustes que consomem muitos recursos. Em vez de treinar novamente todos os pesos do modelo, o ajuste de comandos flexíveis ajusta automaticamente um comando para atingir o mesmo objetivo.

Dado um comando de texto, o ajuste de comando flexível geralmente anexa mais embeddings de token ao comando e usa a retropropagação para otimizar a entrada.

Um prompt "rígido" contém tokens reais em vez de embeddings de token.

atributo esparso

#language
#fundamentals

Um atributo com valores predominantemente zero ou vazio. Por exemplo, um atributo que contém um único valor 1 e um milhão de valores 0 é esparso. Por outro lado, um recurso denso tem valores que principalmente não são zero nem estão vazios.

Em machine learning, um número surpreendente de atributos são atributos esparsos. Os atributos categóricos geralmente são esparsos. Por exemplo, das 300 espécies de árvores possíveis em uma floresta, um único exemplo pode identificar apenas um bordo. Ou, dos milhões de possíveis vídeos em uma biblioteca de vídeos, um único exemplo pode identificar apenas "Casablanca".

Em um modelo, você normalmente representa atributos esparsos com codificação one-hot. Se a codificação one-hot for grande, será possível colocar uma camada de incorporação sobre a codificação para maior eficiência.

representação esparsa

#language
#fundamentals

Armazenamento de apenas as posições de elementos diferentes de zero em um atributo esparso.

Por exemplo, suponha que um atributo categórico chamado species identifique as 36 espécies de árvores em uma floresta específica. Suponha ainda que cada exemplo identifique apenas uma espécie.

É possível usar um vetor one-hot para representar as espécies de árvores em cada exemplo. Um vetor one-hot conteria um único 1 (para representar as espécies de árvores específicas nesse exemplo) e 35 0s (para representar as 35 espécies de árvores que não nesse exemplo). Assim, a representação one-hot de maple pode ser semelhante a esta:

Um vetor em que as posições de 0 a 23 contêm o valor 0, a posição
          24 contém o valor 1 e as posições de 25 a 35 contêm o valor 0.

Como alternativa, a representação esparsa simplesmente identifica a posição da espécie específica. Se maple estiver na posição 24, a representação esparsa de maple será simplesmente:

24

Observe que a representação esparsa é muito mais compacta do que a representação one-hot.

vetor esparso

#fundamentals

Um vetor com valores que são principalmente zeros. Consulte também atributo esparso e esparsidade.

esparsidade

O número de elementos definidos como zero (ou nulo) em um vetor ou uma matriz dividido pelo número total de entradas nesse vetor ou matriz. Por exemplo, considere uma matriz de 100 elementos em que 98 células contêm zero. O cálculo de parsidade é o seguinte:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

A esparsidade do atributo se refere à esparsidade de um vetor de atributo. A esparsidade do modelo se refere à esparsidade dos pesos do modelo.

pool espacial

#image

Consulte pool.

dividir

#df

Em uma árvore de decisão, outro nome para uma condição.

divisor

#df

Ao treinar uma árvore de decisão, a rotina (e o algoritmo) responsável por encontrar a melhor condição em cada .

SPMD

Abreviação para um único programa / vários dados.

perda de articulação quadrática

O quadrado da perda da articulação. A perda de articulação quadrática penaliza os outliers mais severamente do que a perda de articulação normal.

perda quadrática

#fundamentals

Sinônimo de L2 perda.

treinamento em etapas

#language

É uma tática de treinar um modelo em uma sequência de estágios distintos. O objetivo pode ser acelerar o processo de treinamento ou melhorar a qualidade do modelo.

Veja abaixo uma ilustração da abordagem de empilhamento progressivo:

  • A fase 1 contém 3 camadas escondidas, a fase 2 contém 6 camadas escondidas e a fase 3 contém 12.
  • No estágio 2, o treinamento começa com os pesos aprendidos nas três camadas escondidas do estágio 1. No Estágio 3, o treinamento é iniciado com os pesos aprendidos nas seis camadas ocultas do Estágio 2.

Três fases, identificadas como Estágio 1, Estágio 2 e Estágio 3.
          Cada fase contém um número diferente de camadas: o Estágio 1 contém
          3 camadas, o Estágio 2 contém 6 camadas e o Estágio 3 contém 12 camadas.
          As três camadas do Estágio 1 se tornam as primeiras 3 camadas do Estágio 2.
          Da mesma forma, as seis camadas do Estágio 2 se tornam as primeiras 6 camadas do Estágio 3.

Consulte também pipeline.

state

#rl

No aprendizado por reforço, os valores de parâmetro que descrevem a configuração atual do ambiente, que o agente usa para escolher uma ação.

função de valor de ação de estado

#rl

Sinônimo de Q-function.

static

#fundamentals

Algo feito só uma vez, e não continuamente. Os termos estático e off-line são sinônimos. Veja a seguir usos comuns de estático e off-line no machine learning:

  • Modelo estático (ou modelo off-line) é um modelo treinado uma vez e usado por um tempo.
  • O treinamento estático, ou treinamento off-line, é o processo de treinamento de um modelo estático.
  • A inferência estática (ou inferência off-line) é um processo em que um modelo gera um lote de previsões por vez.

Contraste com dinâmico.

inferência estática

#fundamentals

Sinônimo de inferência off-line.

estacionidade

#fundamentals

Um recurso cujos valores não mudam em uma ou mais dimensões, normalmente tempo. Por exemplo, um atributo com valores que parecem ser os mesmos em 2021 e 2023 exibe estacionidade.

No mundo real, pouquíssimos atributos exibem estacaridade. Até mesmo atributos sinônimos de estabilidade (como o nível do mar) mudam com o tempo.

Compare com a não estacionário.

etapa

Passagens para frente e para trás de um lote.

Consulte retropropagação para mais informações sobre os passes para frente e para trás.

taxa de aprendizado

Sinônimo de taxa de aprendizado.

gradiente descendente estocástico (SGD)

#fundamentals

Um algoritmo de gradiente descendente em que o tamanho do lote é um. Em outras palavras, o SGD treina em um único exemplo escolhido de maneira uniforme e aleatória de um conjunto de treinamento.

stride

#image

Em uma operação de convolução ou pooling, é o delta em cada dimensão da próxima série de frações de entrada. Por exemplo, a animação a seguir demonstra um salto (1,1) durante uma operação de convolução. Portanto, a próxima fração de entrada começa uma posição à direita da fração de entrada anterior. Quando a operação atinge a borda direita, a próxima fatia está totalmente para a esquerda, mas uma posição para baixo.

Uma matriz de entrada 5x5 e um filtro convolucional 3x3. Como o salto é (1,1), um filtro convolucional será aplicado nove vezes. A primeira fração convolucional avalia a submatriz 3x3 do canto superior esquerdo da matriz de entrada. A segunda fração avalia a submatriz 3x3 da parte superior
     do meio. A terceira fração convolucional avalia a submatriz 3x3 do canto superior direito.  A quarta fatia avalia a submatriz 3x3 do meio esquerdo.
     A quinta fração avalia a submatriz 3x3 do meio. A sexta fração avalia a submatriz 3x3 do meio direito. A sétima fatia avalia a submatriz 3x3 do canto inferior esquerdo.  A oitava fração avalia a submatriz 3x3 do meio inferior. A nona fatia avalia a submatriz 3x3 do canto inferior direito.

O exemplo anterior demonstra uma passada bidimensional. Se a matriz de entrada for tridimensional, a passada também será tridimensional.

minimização do risco estrutural (SRM)

Um algoritmo que equilibra dois objetivos:

  • A necessidade de construir o modelo mais preditivo (por exemplo, menor perda).
  • A necessidade de manter o modelo o mais simples possível (por exemplo, forte regularização).

Por exemplo, uma função que minimiza a perda + regularização no conjunto de treinamento é um algoritmo de minimização do risco estrutural.

Contraste com a minimização do risco empírico.

subamostragem

#image

Consulte pool.

token de subpalavra

#language

Em modelos de linguagem, um token que é uma substring de uma palavra, que pode ser a palavra inteira.

Por exemplo, uma palavra como "itemize" pode ser dividida nas partes "item" (uma palavra raiz) e "ize" (um sufixo), cada uma representada pelo próprio token. A divisão de palavras incomuns nessas partes, chamadas de subpalavras, permite que os modelos de linguagem operem nas partes constituintes mais comuns, como prefixos e sufixos.

Por outro lado, palavras comuns como "ir" podem não ser divididas e podem ser representadas por um único token.

resumo

#TensorFlow

No TensorFlow, um valor ou conjunto de valores calculados em uma etapa específica, geralmente usado para rastrear métricas de modelo durante o treinamento.

machine learning supervisionado

#fundamentals

Treinar um model usando model e os model correspondentes. O machine learning supervisionado é análogo ao aprendizado de um assunto por meio do estudo de um conjunto de perguntas e suas respostas correspondentes. Depois de dominar o mapeamento entre perguntas e respostas, um estudante pode fornecer respostas para novas perguntas (nunca vistas antes) sobre o mesmo tópico.

Compare com o machine learning não supervisionado.

atributo sintético

#fundamentals

Um recurso que não está presente entre os recursos de entrada, mas é montado a partir de um ou mais deles. Os métodos para criar recursos sintéticos incluem:

  • Agrupamento por classes, um recurso contínuo em agrupamentos por classes.
  • criar um cruzamento de atributos.
  • Multiplicar (ou dividir) um valor de atributo por outros valores de atributo ou por si mesmo. Por exemplo, se a e b forem recursos de entrada, estes são exemplos de atributos sintéticos:
    • ab
    • a2
  • Aplica uma função transcendental a um valor de atributo. Por exemplo, se c for um recurso de entrada, estes são exemplos de atributos sintéticos:
    • sin(c)
    • ln(c)

Os recursos criados apenas pela normalização ou pelo escalonamento não são considerados recursos sintéticos.

T

T5

#language

Um modelo de aprendizado por transferência de texto para texto introduzido pela IA do Google em 2020. T5 é um modelo de codificador-decodificador baseado na arquitetura de Transformer, treinado em um conjunto de dados extremamente grande. Ele é eficaz em várias tarefas de processamento de linguagem natural, como geração de texto, tradução de idiomas e resposta a perguntas de maneira conversacional.

O T5 tem esse nome por causa dos cinco Ts em "Transformador de transferência de texto para texto".

Conexão T5X

#language

Um framework de machine learning de código aberto projetado para criar e treinar modelos de processamento de linguagem natural (PLN) em grande escala. T5 é implementado na base de código T5X, criada no JAX e no Flax.

Q-learning tabular

#rl

No aprendizado por reforço, implementar o Q-learning usando uma tabela para armazenar as funções Q para cada combinação de estado e ação.

destino

Sinônimo de rótulo.

rede de destino

#rl

Em Aprendizado Q profundo, uma rede neural que é uma aproximação estável da rede neural principal, em que ela implementa uma função Q ou uma política. Em seguida, é possível treinar a rede principal com os valores Q previstos pela rede de destino. Assim, você evita o ciclo de feedback que ocorre quando a rede principal é treinada com base nos valores Q previstos por ela mesma. Ao evitar esse feedback, a estabilidade do treinamento aumenta.

tarefa

Um problema que pode ser resolvido usando técnicas de machine learning, como:

temperatura

#language
#image
#IAgenerativa

Um hiperparâmetro que controla o grau de aleatoriedade da saída de um modelo. Temperaturas mais altas resultam em saídas mais aleatórias, enquanto as mais baixas resultam em saídas menos aleatórias.

A escolha da melhor temperatura depende do aplicativo específico e das propriedades preferidas da saída do modelo. Por exemplo, você provavelmente aumentaria a temperatura ao criar um aplicativo que gera resultados criativos. Por outro lado, você provavelmente diminuiria a temperatura ao criar um modelo que classifica imagens ou textos para melhorar a acurácia e a consistência do modelo.

A temperatura é frequentemente usada com a softmax.

dados temporais

Dados registrados em momentos diferentes. Por exemplo, as vendas de casacos de inverno registradas para cada dia do ano seriam dados temporais.

Rank 4

#TensorFlow

A principal estrutura de dados nos programas do TensorFlow. Os tensores são estruturas de dados N-dimensionais (em que N pode ser muito grande), geralmente escalares, vetores ou matrizes. Os elementos de um Tensor podem conter valores inteiros, de ponto flutuante ou de string.

TensorBoard

#TensorFlow

O painel que exibe os resumos salvos durante a execução de um ou mais programas do TensorFlow.

TensorFlow

#TensorFlow

Uma plataforma de machine learning distribuída e em grande escala. O termo também se refere à camada base da API na pilha do TensorFlow, que é compatível com a computação geral em gráficos do Dataflow.

Embora o TensorFlow seja usado principalmente para machine learning, ele também pode ser usado para tarefas não ML que exigem computação numérica com gráficos do Dataflow.

TensorFlow Playground

#TensorFlow

Um programa que visualiza como diferentes hiperparâmetros influenciam o treinamento do modelo (principalmente rede neural). Acesse http://playground.tensorflow.org para testar o TensorFlow Playground.

TensorFlow Serving

#TensorFlow

Uma plataforma para implantar modelos treinados em produção.

Unidade de Processamento de Tensor (TPU)

#TensorFlow
#GoogleCloud

Um circuito integrado específico de aplicativo (ASIC, na sigla em inglês) que otimiza o desempenho de cargas de trabalho de machine learning. Esses ASICs são implantados como vários chips de TPU em um dispositivo TPU.

Classificação do Tensor

#TensorFlow

Consulte classificação (Tensor).

Forma do tensor

#TensorFlow

O número de elementos que um Tensor contém em várias dimensões. Por exemplo, um Tensor [5, 10] tem a forma de 5 em uma dimensão e 10 em outra.

Tamanho do tensor

#TensorFlow

O número total de escalares que um Tensor contém. Por exemplo, um tensor [5, 10] tem o tamanho 50.

TensorStore

Uma biblioteca para ler e gravar grandes matrizes multidimensionais com eficiência.

condição de encerramento

#rl

No aprendizado por reforço, as condições que determinam quando um episódio termina, como quando o agente atinge um determinado estado ou excede um número limite de transições de estado. Por exemplo, no jogo da velha (também conhecido como zeros e cruzamentos), um episódio termina quando o jogador marca três espaços consecutivos ou quando todos os espaços são marcados.

teste

#df

Em uma árvore de decisão, outro nome para uma condição.

perda de teste

#fundamentals

Uma métrica que representa a perda de um modelo em relação ao conjunto de teste. Ao criar um model, você normalmente tenta minimizar a perda de teste. Isso ocorre porque uma baixa perda de teste é um indicador de qualidade mais forte do que uma baixa perda de treinamento ou baixa perda de validação.

Uma grande lacuna entre a perda de teste e a perda de treinamento ou de validação às vezes sugere que é preciso aumentar a taxa de regularização.

conjunto de teste

Um subconjunto do conjunto de dados reservado para testar um modelo treinado.

Tradicionalmente, você divide exemplos no conjunto de dados nos três subconjuntos distintos a seguir:

Cada exemplo em um conjunto de dados deve pertencer a apenas um dos subconjuntos anteriores. Por exemplo, um único exemplo não pode pertencer ao mesmo conjunto de treinamento e teste.

O conjunto de treinamento e o conjunto de validação estão intimamente ligados ao treinamento de um modelo. Como o conjunto de teste só é associado indiretamente ao treinamento, a perda de teste é uma métrica menos enviesada e de maior qualidade do que a perda de treinamento ou a perda de validação.

período do texto

#language

A extensão do índice da matriz associada a uma subseção específica de uma string de texto. Por exemplo, a palavra good na string Python s="Be good now" ocupa o período de texto de 3 a 6.

tf.Example

#TensorFlow

Um buffer de protocolo padrão para descrever dados de entrada para treinamento ou inferência de modelo de machine learning.

tf.keras

#TensorFlow

Uma implementação do Keras integrada ao TensorFlow.

limite (para árvores de decisão)

#df

Em uma condição de alinhamento em eixo, o valor com que um recurso está sendo comparado. Por exemplo, 75 é o valor limite nesta condição:

grade >= 75

análise de séries temporais

#clustering

Um subcampo de machine learning e estatísticas que analisa dados temporais. Muitos tipos de problemas de machine learning exigem análise de séries temporais, incluindo classificação, clustering, previsão e detecção de anomalias. Por exemplo, é possível usar a análise de série temporal para prever as vendas futuras de casacos de inverno por mês com base nos dados históricos de vendas.

período

#seq

Uma célula "não implantada" em uma rede neural recorrente. Por exemplo, a figura a seguir mostra três intervalos de tempo (identificados com os subscritos t-1, t e t+1):

Três etapas de tempo em uma rede neural recorrente. A saída da primeira etapa de tempo torna-se uma entrada para a segunda. A saída da segunda etapa de tempo torna-se uma entrada para a terceira.

token

#language

Em um modelo de linguagem, a unidade atômica em que o modelo está treinando e fazendo previsões. Um token costuma ser um dos seguintes:

  • Uma palavra. Por exemplo, a frase "cães como gatos" consiste em três tokens de palavras: "cachorros", "gosto" e "gatos".
  • um caractere. Por exemplo, a frase "peixe-bicicleta" consiste em tokens de nove caracteres. O espaço em branco conta como um dos tokens.
  • subpalavras, nas quais uma única palavra pode ser um único token ou vários tokens. Uma subpalavra consiste em uma palavra raiz, um prefixo ou um sufixo. Por exemplo, um modelo de linguagem que usa subpalavras como tokens pode ver a palavra "cães" como dois tokens (a palavra raiz "cão" e o sufixo plural "s"). Esse mesmo modelo de linguagem pode ver a única palavra "mais alto" como duas subpalavras (a palavra raiz "alto" e o sufixo "er").

Em domínios fora dos modelos de linguagem, os tokens podem representar outros tipos de unidades atômicas. Por exemplo, em visão computacional, um token pode ser um subconjunto de uma imagem.

Tower

Um componente de uma rede neural profunda que é, por si só, uma rede neural profunda. Em alguns casos, cada torre faz a leitura de uma fonte de dados independente, e essas torres permanecem independentes até que a saída delas seja combinada em uma camada final. Em outros casos, por exemplo, na pilha/torre do codificador e do decodificador de muitos transformadores, as torres têm conexões cruzadas.

TPU

#TensorFlow
#GoogleCloud

Abreviação de Unidade de Processamento de Tensor.

Chip de TPU

#TensorFlow
#GoogleCloud

Um acelerador de álgebra linear programável com memória de alta largura de banda on-chip otimizado para cargas de trabalho de machine learning. Vários chips de TPU são implantados em um dispositivo TPU.

Dispositivo TPU

#TensorFlow
#GoogleCloud

Uma placa de circuito impresso (PCB, na sigla em inglês) com vários chips de TPU, interfaces de rede de alta largura de banda e hardware de resfriamento de sistema.

Mestre da TPU

#TensorFlow
#GoogleCloud

O processo de coordenação central em execução em uma máquina host que envia e recebe dados, resultados, programas, desempenho e informações sobre a integridade do sistema para os workers da TPU. O mestre da TPU também gerencia a configuração e o encerramento de dispositivos TPU.

Nó da TPU

#TensorFlow
#GoogleCloud

Um recurso de TPU no Google Cloud com um tipo de TPU específico. O nó da TPU se conecta à rede VPC a partir de uma rede VPC com peering. Os nós da TPU são um recurso definido na API Cloud TPU.

Pod de TPU

#TensorFlow
#GoogleCloud

Uma configuração específica de dispositivos TPU em um data center do Google. Todos os dispositivos em um pod de TPU são conectados uns aos outros por uma rede dedicada de alta velocidade. Um pod de TPU é a maior configuração de dispositivos TPU disponíveis para uma versão específica de TPU.

Recurso da TPU

#TensorFlow
#GoogleCloud

Uma entidade de TPU no Google Cloud que você cria, gerencia ou consome. Por exemplo, os nós de TPU e os tipos de TPU são recursos de TPU.

Fração de TPU

#TensorFlow
#GoogleCloud

Uma fração de TPU é uma parte fracionária dos dispositivos TPU em um Pod de TPU. Todos os dispositivos em uma fração de TPU são conectados uns aos outros por uma rede dedicada de alta velocidade.

Tipo de TPU

#TensorFlow
#GoogleCloud

Uma configuração de um ou mais dispositivos TPU com uma versão de hardware de TPU específica. Você seleciona um tipo de TPU ao criar um nó de TPU no Google Cloud. Por exemplo, um tipo de TPU v2-8 é um dispositivo único TPU v2 com 8 núcleos. Um tipo de TPU v3-2048 tem 256 dispositivos TPU v3 em rede e um total de 2.048 núcleos. Os tipos de TPU são um recurso definido na API Cloud TPU.

Worker da TPU

#TensorFlow
#GoogleCloud

Um processo executado em uma máquina host e que executa programas de machine learning em dispositivos TPU.

Treinamento

#fundamentals

É o processo de determinar os parâmetros ideais (pesos e vieses) que compreende um modelo. Durante o treinamento, um sistema lê exemplos e ajusta os parâmetros gradualmente. O treinamento usa cada exemplo em qualquer lugar, de algumas vezes a bilhões de vezes.

perda de treinamento

#fundamentals

Uma métrica que representa a perda de um modelo durante uma iteração de treinamento específica. Por exemplo, suponha que a função de perda seja Erro quadrático médio. Talvez a perda de treinamento (o erro médio ao quadrado) da 10a iteração seja 2,2 e a perda de treinamento da 100a seja 1,9.

Uma curva de perda representa a perda de treinamento em comparação com o número de iterações. Uma curva de perda oferece as seguintes dicas sobre treinamento:

  • Uma inclinação decrescente indica que o modelo está melhorando.
  • Uma inclinação ascendente indica que o modelo está piorando.
  • Uma inclinação plana indica que o modelo atingiu a convergência.

Por exemplo, a seguinte curva de perda de certa forma idealizada mostra:

  • Uma inclinação para baixo acentuada durante as iterações iniciais, o que implica uma melhoria rápida do modelo.
  • Uma inclinação gradual (mas ainda decrescente) até perto do final do treinamento, o que implica melhoria contínua do modelo em um ritmo um pouco mais lento do que durante as iterações iniciais.
  • Uma inclinação plana no final do treinamento, o que sugere convergência.

O gráfico da perda de treinamento versus iterações. Essa curva de perda começa
com uma inclinação para baixo. A inclinação diminui gradualmente até chegar a zero.

Embora a perda de treinamento seja importante, consulte também a generalização.

desvio entre treinamento e disponibilização

#fundamentals

A diferença entre o desempenho de um modelo durante o treinamento e o mesmo desempenho durante a exibição.

conjunto de treinamento

#fundamentals

O subconjunto do conjunto de dados usado para treinar um modelo.

Tradicionalmente, os exemplos no conjunto de dados são divididos em três subconjuntos distintos:

O ideal é que cada exemplo no conjunto de dados pertença a apenas um dos subconjuntos anteriores. Por exemplo, um único exemplo não pode pertencer ao conjunto de treinamento e de validação.

trajetória

#rl

No aprendizado por reforço, uma sequência de tuplas que representam uma sequência de transições de estado do agente, em que cada tupla corresponde ao estado, ação, recompensa e próximo estado para uma determinada transição de estado.

aprendizado por transferência

Transferência de informações de uma tarefa de machine learning para outra. Por exemplo, no aprendizado de várias tarefas, um único modelo resolve várias tarefas, como um modelo profundo que tem diferentes nós de saída para tarefas distintas. O aprendizado por transferência pode envolver a transferência de conhecimento da solução de uma tarefa mais simples para uma mais complexa, ou envolver a transferência de conhecimento de uma tarefa em que há mais dados para outra em que há menos dados.

A maioria dos sistemas de machine learning resolve uma única tarefa. O aprendizado por transferência é um novo passo em direção à inteligência artificial, em que um único programa pode resolver várias tarefas.

Transformer

#language

Uma arquitetura de rede neural desenvolvida no Google que depende de mecanismos de autoatenção para transformar uma sequência de embeddings de entrada em uma sequência de embeddings de saída sem depender de convoluções ou redes neurais recorrentes. Um transformador pode ser visualizado como uma pilha de camadas de autoatenção.

Um transformador pode incluir qualquer um dos seguintes itens:

Um codificador transforma uma sequência de embeddings em uma nova sequência de mesmo comprimento. Um codificador inclui N camadas idênticas, cada uma contendo duas subcamadas. Essas duas subcamadas são aplicadas em cada posição da sequência de incorporação de entrada, transformando cada elemento da sequência em uma nova incorporação. A primeira subcamada do codificador agrega informações de toda a sequência de entrada. A segunda subcamada do codificador transforma as informações agregadas em um embedding de saída.

Um decodificador transforma uma sequência de embeddings de entrada em uma sequência de embeddings de saída, possivelmente com um comprimento diferente. Um decodificador também inclui N camadas idênticas com três subcamadas, duas delas semelhantes às subcamadas do codificador. A terceira subcamada do decodificador usa a saída do codificador e aplica o mecanismo de autoatenção para coletar informações dela.

A postagem do blog Transformer: uma nova arquitetura de rede neural para compreensão de linguagem oferece uma boa introdução aos transformadores.

invariância translacional

#image

Em um problema de classificação de imagens, a capacidade de um algoritmo de classificar imagens com sucesso, mesmo quando a posição dos objetos dentro dela muda. Por exemplo, o algoritmo ainda pode identificar um cachorro, esteja ele no centro ou na extremidade esquerda dele.

Consulte também invariância de tamanho e invariância rotacional.

trigrama

#seq
#language

Um N-grama em que N=3.

verdadeiro negativo (VN)

#fundamentals

Um exemplo em que o modelo prevê corretamente a classe negativa. Por exemplo, o modelo infere que determinada mensagem de e-mail não é spam e que ela não é spam.

verdadeiro positivo (VP)

#fundamentals

Um exemplo em que o modelo prevê corretamente a classe positiva. Por exemplo, o modelo infere que uma mensagem de e-mail específica é spam e que ela é realmente spam.

taxa de verdadeiro positivo (TPR)

#fundamentals

Sinônimo de recall. Ou seja:

$$\text{true positive rate} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}}$$

A taxa de verdadeiro positivo é o eixo y em uma curva ROC.

U

falta de reconhecimento (para um atributo sensível)

#fairness

Uma situação em que atributos confidenciais estão presentes, mas não estão incluídos nos dados de treinamento. Como os atributos sensíveis costumam ser correlacionados a outros atributos dos dados, um modelo treinado sem conhecimento sobre um atributo sensível ainda pode ter impacto desigual em relação a esse atributo ou violar outras restrições de imparcialidade.

underfitting

#fundamentals

Produzir um model com baixa capacidade preditiva porque ele não capturou totalmente a complexidade dos dados de treinamento. Muitos problemas podem causar underfitting, como estes:

subamostragem

Remover exemplos da classe principal de um conjunto de dados com desequilíbrio de classes para criar um conjunto de treinamento mais equilibrado.

Por exemplo, considere um conjunto de dados em que a proporção entre a classe majoritária e a classe minoritária é de 20:1. Para superar esse desequilíbrio de classe, crie um conjunto de treinamento que consista em todos os exemplos de classe minoritária, mas apenas em um décimo dos exemplos de classe majoritária, o que criaria uma proporção de classe de conjunto de treinamento de 2:1. Graças à subamostragem, esse conjunto de treinamento mais equilibrado pode produzir um modelo melhor. Como alternativa, esse conjunto de treinamento mais equilibrado pode conter exemplos insuficientes para treinar um modelo eficaz.

Contraste com overamostragem.

unidirecional

#language

Um sistema que avalia apenas o texto que antecede uma seção de destino do texto. Por outro lado, um sistema bidirecional avalia o texto que precede e segue uma seção de destino. Consulte bidirecional para mais detalhes.

modelo de linguagem unidirecional

#language

Um modelo de linguagem que baseia as probabilidades apenas nos tokens que aparecem antes, não depois, dos tokens de destino. Já está em contraste com o modelo de linguagem bidirecional.

exemplo sem rótulo

#fundamentals

Um exemplo que contém recursos, mas nenhum rótulo. Por exemplo, a tabela a seguir mostra três exemplos sem rótulos de um modelo de avaliação de casas, cada um com três recursos, mas nenhum valor de casa:

Número de quartos Número de banheiros Idade da casa
3 2 15
2 1 72
4 2 34

No machine learning supervisionado, os modelos são treinados com base em exemplos rotulados e fazem previsões em exemplos não rotulados.

No aprendizado semi-supervisionado e não supervisionado, os exemplos não rotulados são usados durante o treinamento.

Compare um exemplo não rotulado com um exemplo rotulado.

machine learning não supervisionado

#clustering
#fundamentals

Treinar um model para encontrar padrões em um conjunto de dados, normalmente um conjunto de dados não rotulado.

O uso mais comum do machine learning não supervisionado é o cluster de dados em grupos de exemplos semelhantes. Por exemplo, um algoritmo de machine learning não supervisionado pode agrupar músicas com base em várias propriedades da música. Os clusters resultantes podem se tornar uma entrada para outros algoritmos de machine learning (por exemplo, para um serviço de recomendação de músicas). O clustering pode ajudar quando não houver rótulos úteis ou escassos. Por exemplo, em domínios como antiabuso e fraude, os clusters podem ajudar os humanos a entender melhor os dados.

Compare com o aprendizado de máquina supervisionado.

estimativa de aumento

Uma técnica de modelagem, comumente usada no marketing, que modela o "efeito causal" (também conhecido como "impacto incremental") de um "tratamento" em um "indivíduo". Veja dois exemplos:

  • Os médicos podem usar a modelagem de aumento para prever a diminuição da mortalidade (efeito causal) de um procedimento médico (tratamento), dependendo da idade e do histórico médico de um paciente (indivíduo).
  • Os profissionais de marketing podem usar a modelagem de aumento para prever o aumento na probabilidade de uma compra (efeito causal) devido a um anúncio (tratamento) em uma pessoa (indivíduo).

A modelagem de aumento difere da classificação ou da regressão porque alguns rótulos (por exemplo, metade dos rótulos em tratamentos binários) sempre estão ausentes. Por exemplo, um paciente pode receber ou não um tratamento. Portanto, só podemos observar se o paciente será curado ou não em apenas uma dessas duas situações (mas nunca ambas). A principal vantagem de um modelo de aumento é que ele pode gerar previsões para a situação não observada (o contrafatual) e usá-lo para calcular o efeito causal.

levantando peso

Aplique um peso à classe downsampled igual ao fator que você usou para reduzir a amostragem.

matriz de usuários

#recsystems

Em sistemas de recomendação, um vetor de incorporação gerado pela fatoração de matriz que contém indicadores latentes sobre as preferências do usuário. Cada linha da matriz do usuário contém informações sobre a força relativa de vários sinais latentes para um único usuário. Por exemplo, considere um sistema de recomendação de filmes. Nesse sistema, os sinais latentes na matriz de usuários podem representar o interesse de cada usuário em gêneros específicos ou podem ser mais difíceis de interpretar que envolvem interações complexas com vários fatores.

A matriz do usuário tem uma coluna para cada atributo latente e uma linha para cada usuário. Ou seja, a matriz de usuário tem o mesmo número de linhas que a matriz de destino que está sendo fatorada. Por exemplo, considerando um sistema de recomendação de filmes para 1.000.000 de usuários, a matriz de usuários terá 1.000.000 de linhas.

V

da política.

#fundamentals

A avaliação inicial da qualidade de um modelo. A validação verifica a qualidade das previsões de um modelo em relação ao conjunto de validação.

Como o conjunto de validação é diferente do conjunto de treinamento, a validação ajuda a proteger contra overfitting.

Pense em avaliar o modelo em relação ao conjunto de validação como a primeira rodada de teste e avaliar o modelo em relação ao conjunto de teste como a segunda rodada.

perda de validação

#fundamentals

Uma métrica que representa a perda de um modelo no conjunto de validação durante uma iteração específica de treinamento.

Consulte também a curva de generalização.

conjunto de validação

#fundamentals

O subconjunto do conjunto de dados que realiza avaliação inicial em relação a um modelo treinado. Normalmente, você avalia o modelo treinado em relação ao conjunto de validação várias vezes antes de avaliar o modelo em relação ao conjunto de testes.

Tradicionalmente, você divide os exemplos do conjunto de dados nos três subconjuntos distintos a seguir:

O ideal é que cada exemplo no conjunto de dados pertença a apenas um dos subconjuntos anteriores. Por exemplo, um único exemplo não pode pertencer ao conjunto de treinamento e de validação.

imputação de valor

O processo de substituir um valor ausente por um substituto aceitável. Quando um valor está ausente, é possível descartar o exemplo inteiro ou usar a imputação de valor para recuperá-lo.

Por exemplo, considere um conjunto de dados contendo um recurso temperature que precisa ser registrado a cada hora. No entanto, a leitura de temperatura não estava disponível por uma hora específica. Veja uma seção do conjunto de dados:

Carimbo de data/hora Temperatura
1680561000 10
1680564600 12
1680568200 errando
1680571800 20
1680575400 21
1680579000 21

Um sistema pode excluir o exemplo ausente ou imputar a temperatura ausente como 12, 16, 18 ou 20, dependendo do algoritmo de imputação.

problema de evasão de gradiente

#seq

A tendência dos gradientes das primeiras camadas escondidas de algumas redes neurais profundas se tornam surpreendentemente planos (baixos). Gradientes cada vez menores resultam em mudanças cada vez menores nos pesos dos nós de uma rede neural profunda, levando a pouco ou nenhum aprendizado. É difícil ou impossível treinar os modelos que sofrem do problema de desaparecimento do gradiente. As células de Memória de curto prazo longa abordam esse problema.

Compare com o problema de gradiente em explosão.

importâncias de variáveis

#df

Um conjunto de pontuações que indica a importância relativa de cada recurso para o modelo.

Por exemplo, considere uma árvore de decisão que estima os preços de casas. Suponha que essa árvore de decisão use três atributos: tamanho, idade e estilo. Se um conjunto de importâncias de variáveis para os três atributos for calculado como {size=5.8, age=2.5, style=4.7}, o tamanho será mais importante para a árvore de decisão do que a idade ou o estilo.

Existem diferentes métricas de importância variáveis que podem informar especialistas em ML sobre diferentes aspectos dos modelos.

codificador automático variacional (VAE, na sigla em inglês)

#language

Um tipo de codificador automático que aproveita a discrepância entre entradas e saídas para gerar versões modificadas das entradas. Codificadores automáticos variacionais são úteis para a IA generativa.

Os VAEs são baseados na inferência variacional: uma técnica para estimar os parâmetros de um modelo de probabilidade.

vetor

Termo muito sobrecarregado cujo significado varia entre diferentes campos matemáticos e científicos. No machine learning, um vetor tem duas propriedades:

  • Tipo de dados: os vetores em machine learning geralmente contêm números de ponto flutuante.
  • Número de elementos: é o comprimento ou a dimensão do vetor.

Por exemplo, considere um vetor de atributo que contenha oito números de ponto flutuante. Esse vetor de recurso tem comprimento ou dimensão de oito. Os vetores de machine learning costumam ter um grande número de dimensões.

É possível representar muitos tipos diferentes de informações como um vetor. Exemplo:

  • Qualquer posição na superfície da Terra pode ser representada como um vetor bidimensional, em que uma dimensão é a latitude e a outra é a longitude.
  • Os preços atuais de cada uma das 500 ações podem ser representados como um vetor de 500 dimensões.
  • Uma distribuição de probabilidade sobre um número finito de classes pode ser representada como um vetor. Por exemplo, um sistema de classificação multiclasse que prevê uma das três cores de saída (vermelho, verde ou amarelo) pode fazer com que o vetor (0.3, 0.2, 0.5) signifique P[red]=0.3, P[green]=0.2, P[yellow]=0.5.

Os vetores podem ser concatenados. Portanto, várias mídias diferentes podem ser representadas como um único vetor. Alguns modelos operam diretamente na concatenação de muitas codificações one-hot.

Processadores especializados, como TPUs, são otimizados para realizar operações matemáticas em vetores.

Um vetor é um tensor de classificação 1.

W

Perda de Wasserstein

Uma das funções de perda comumente usadas em redes adversárias generativas, com base na distância da movimentação da Terra entre a distribuição dos dados gerados e dos dados reais.

Peso

#fundamentals

Um valor que um modelo multiplica por outro valor. O treinamento é o processo de determinar os pesos ideais de um modelo. A inferência é o processo de usar os pesos aprendidos para fazer previsões.

Menores quadrados ponderados alternados (WALS, na sigla em inglês)

#recsystems

Um algoritmo para minimizar a função objetiva durante a fatoração de matrizes em sistemas de recomendação, o que permite uma redução dos exemplos ausentes. O WALS minimiza o erro quadrático ponderado entre a matriz original e a reconstrução, alternando entre a fixação da fatoração da linha e da coluna. Cada uma dessas otimizações pode ser resolvida pela otimização convexa de mínimos quadrados. Para mais detalhes, consulte o curso sobre sistemas de recomendação.

soma de pesos

#fundamentals

A soma de todos os valores de entrada relevantes multiplicada pelos pesos correspondentes. Por exemplo, suponha que as entradas relevantes sejam:

valor de entrada peso de entrada
2 -1,3
-1 0,6
3 0,4

A soma ponderada é:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Uma soma ponderada é o argumento de entrada para uma função de ativação.

modelo esparso

Um modelo linear que normalmente tem muitos recursos de entrada esparsos. Nós nos referimos a ela como "ampla", porque esse modelo é um tipo especial de rede neural com um grande número de entradas que se conectam diretamente ao nó de saída. Geralmente, é mais fácil depurar e inspecionar modelos esparsos do que modelos profundos. Os modelos amplos não podem expressar não linearidades por meio de camadas escondidas, mas os modelos amplos podem usar transformações como cruzamento de atributos e criação de buckets para modelar não linearidades de maneiras diferentes.

Contraste com o modelo profundo.

width

O número de neurônios em uma camada específica de uma rede neural.

sabedoria da multidão

#df

A ideia de que calcular a média de opiniões ou estimativas de um grande grupo de pessoas ("a multidão") geralmente produz resultados surpreendentemente bons. Por exemplo, considere um jogo em que as pessoas adivinham o número de jujubas embaladas em um pote grande. Embora a maioria das suposições individuais seja imprecisa, foi demonstrado empiricamente que a média de todos os palpites é surpreendentemente próxima ao número real de jujubas no pote.

Os Ensembles são um software análogo à sabedoria do público. Mesmo que modelos individuais façam previsões muito imprecisas, a média das previsões de muitos modelos costuma gerar previsões surpreendentemente boas. Por exemplo, embora uma árvore de decisão individual possa fazer previsões ruins, uma floresta de decisão geralmente faz previsões muito boas.

incorporação de palavras

#language

Representar cada palavra em um conjunto de palavras dentro de um vetor de embedding, ou seja, representar cada palavra como um vetor de valores de ponto flutuante entre 0,0 e 1,0. Palavras com significados parecidos têm representações mais parecidas do que palavras com significados diferentes. Por exemplo, cenouras, aipo e pepinos têm representações relativamente semelhantes, que são muito diferentes das representações de avião, óculos de sol e pasta de dente.

X

XLA (álgebra linear acelerada)

Um compilador de machine learning de código aberto para GPUs, CPUs e aceleradores de ML.

O compilador XLA usa modelos de frameworks de ML conhecidos, como PyTorch, TensorFlow e JAX, e os otimiza para execução de alto desempenho em diferentes plataformas de hardware, incluindo GPUs, CPUs e aceleradores de ML.

Z

aprendizado zero-shot

Um tipo de treinamento de machine learning em que o modelo infere uma previsão para uma tarefa em que ele ainda não foi especificamente treinado. Em outras palavras, o modelo não recebe exemplos de treinamento específicos de uma tarefa, mas faz a inferência dessa tarefa.

comandos zero-shot

#language
#IAgenerativa

Um comando que não fornece um exemplo de como você quer que o modelo de linguagem grande responda. Exemplo:

Partes de um comando Observações
Qual é a moeda oficial do país especificado? A pergunta que você quer que o LLM responda.
Índia: A consulta real.

O modelo de linguagem grande pode responder com qualquer um dos seguintes elementos:

  • Rúpia
  • INR
  • Rúpias indianas
  • A rúpia
  • A rúpia indiana

Todas as respostas estão corretas, mas você pode preferir um formato específico.

Compare os comandos zero-shot com os seguintes termos:

Normalização do valor Z

#fundamentals

Uma técnica de escalonamento que substitui um valor bruto de recurso por um valor de ponto flutuante que representa o número de desvios padrão da média desse recurso. Por exemplo, considere um atributo com média de 800 e desvio padrão de 100. A tabela a seguir mostra como a normalização de pontuação Z mapeia o valor bruto para o valor Z:

Valor bruto Pontuação Z
800 0
950 +1,5
575 -2,25

Em seguida, o modelo de machine learning é treinado com base nas pontuações Z do atributo em vez de nos valores brutos.