Ce précédent billet s'attachait à spécialiser le modèle Llama3.2-3B-Instruct par du fine-tuning supervisé (SFT) selon la méthode QLora, avec l'objectif d'obtenir un modèle léger et complètement customisé capable de générer des instruments de recherche en EAD/XML à partir d’instructions en langage naturel : l'expérimentation consistait à faire du post-training sur ce modèle [...]
Suite...