IntermédiaireChoix multiple
Qu'est-ce que l'architecture transformer et pourquoi est-elle largement utilisée dans les tâches de traitement du langage naturel ?
Data Science
29 questions
29 question(s)
Qu'est-ce que l'architecture transformer et pourquoi est-elle largement utilisée dans les tâches de traitement du langage naturel ?
Quels sont les composants clés d'un modèle transformer ?
Qu'est-ce que l'attention dans les transformateurs et comment fonctionne-t-elle?
Quels sont les avantages des transformateurs par rapport aux modèles séquence-à-séquence traditionnels?
Comment le mécanisme d'attention aide-t-il les transformateurs à capturer les dépendances à long terme dans les séquences?
Vous voyez 5 questions sur 29. Créez un compte gratuit pour accéder à la liste complète.
Se connecter / S'inscrire — c'est gratuit