Une brève introduction aux LLMs (2/2)

- Posté en Sans catégorie par
L’architecture Transformers qui sous-tend les réseaux de neurones du même nom comprend deux facettes distinctes dédiées d’une part à l’encodage et d’autre part au décodage, qui sont mobilisables soit ensemble soit indépendamment l’une de l’autre. Ces types de “stacks” encodage-décodage préexistaient aux LLM dans des modèles NLP de type seq2seq par exemple mais sans le [...] Suite...

Une brève introduction aux LLMs (1/2)

- Posté en Sans catégorie par
Modèle d'apprentissage machine = algorithme + données En IA classique, l’appellation modèle désigne un algorithme entraîné sur des données dans le but de réaliser un objectif prédictif bien spécifique en fonction du jeux de données source. Les types de prédiction peuvent être de différents ordres (régression, classification, clusterisation), les algorithmes à disposition sont [...] Suite...
"> ');