Embebido posicional: el secreto detrás de la precisión de las redes neuronales de transformadorespor@sanjaykn170396
909 lecturas

Embebido posicional: el secreto detrás de la precisión de las redes neuronales de transformadores

2022/12/04
10 min
por @sanjaykn170396 909 lecturas
tldt arrow
ES
Read on Terminal Reader🖨️

Demasiado Largo; Para Leer

Un artículo que explica la intuición detrás de la "incrustación posicional" en los modelos de transformadores del renombrado trabajo de investigación: "La atención es todo lo que necesita". Un artículo explica la intuición. El concepto de incrustación en NLP es un proceso utilizado en el procesamiento del lenguaje natural para convertir texto sin procesar en vectores matemáticos. La incrustación es hacer que la red neuronal comprenda el orden y la dependencia posicional en la oración. Esto se debe a que un modelo de aprendizaje automático no podrá consumir directamente una entrada en formato de texto para los diversos procesos computacionales.
featured image - Embebido posicional: el secreto detrás de la precisión de las redes neuronales de transformadores
Sanjay Kumar HackerNoon profile picture

@sanjaykn170396

Sanjay Kumar

react to story with heart

HISTORIAS RELACIONADAS

L O A D I N G
. . . comments & more!
Hackernoon hq - po box 2206, edwards, colorado 81632, usa