paint-brush
Incorporação posicional: o segredo por trás da precisão das redes neurais transformadoraspor@sanjaykn170396
2,353 leituras
2,353 leituras

Incorporação posicional: o segredo por trás da precisão das redes neurais transformadoras

por Sanjay Kumar10m2022/12/04
Read on Terminal Reader

Muito longo; Para ler

Um artigo explicando a intuição por trás da “incorporação posicional” em modelos de transformadores do renomado trabalho de pesquisa - “Atenção é tudo que você precisa”. Um artigo explica a intuição. O conceito de incorporação em NLP é um processo usado no processamento de linguagem natural para converter texto bruto em vetores matemáticos. A incorporação é fazer com que a rede neural entenda a ordenação e a dependência posicional na frase. Isso ocorre porque um modelo de aprendizado de máquina não será capaz de consumir diretamente uma entrada em formato de texto para os diversos processos computacionais.
featured image - Incorporação posicional: o segredo por trás da precisão das redes neurais transformadoras
Sanjay Kumar HackerNoon profile picture
Sanjay Kumar

Sanjay Kumar

@sanjaykn170396

Data scientist | ML Engineer | Statistician

L O A D I N G
. . . comments & more!

About Author

Sanjay Kumar HackerNoon profile picture
Sanjay Kumar@sanjaykn170396
Data scientist | ML Engineer | Statistician

Rótulos

Languages

ESTE ARTIGO FOI APRESENTADO EM...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite