paint-brush
Embeddage positionnel : le secret de la précision des réseaux de neurones de transformateurpar@sanjaykn170396
2,344 lectures
2,344 lectures

Embeddage positionnel : le secret de la précision des réseaux de neurones de transformateur

par Sanjay Kumar10m2022/12/04
Read on Terminal Reader

Trop long; Pour lire

Un article expliquant l'intuition derrière "l'intégration positionnelle" dans les modèles de transformateurs du célèbre document de recherche - "Attention Is All You Need". Un article explique l'intuition. Le concept d'intégration dans la PNL est un processus utilisé dans le traitement du langage naturel pour convertir du texte brut en vecteurs mathématiques. L'intégration consiste à faire en sorte que le réseau de neurones comprenne l'ordre et la dépendance de position dans la phrase. En effet, un modèle d'apprentissage automatique ne pourra pas consommer directement une entrée au format texte pour les différents processus de calcul.
featured image - Embeddage positionnel : le secret de la précision des réseaux de neurones de transformateur
Sanjay Kumar HackerNoon profile picture
Sanjay Kumar

Sanjay Kumar

@sanjaykn170396

Data scientist | ML Engineer | Statistician

L O A D I N G
. . . comments & more!

About Author

Sanjay Kumar HackerNoon profile picture
Sanjay Kumar@sanjaykn170396
Data scientist | ML Engineer | Statistician

ÉTIQUETTES

Languages

CET ARTICLE A ÉTÉ PARU DANS...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite