Comment apprendre l'EAD à un LLM : fine-tuning (3/3)

- Posté en Sans catégorie par
Disclaimer: la démarche présentée dans ce billet ne constitue pas un exemple complet et abouti de personnalisation d'un LLM. Si le modèle fine-tuné obtenu donne des résultats plutôt satisfaisants, il est largement améliorable, et un "vrai" processus de post-training dans le but d'obtenir un modèle fine-tuné viable en production devrait inclure à minima deux étapes supplémentaires : [...] Suite...

Comment apprendre l'EAD à un LLM : RAG (2/3)

- Posté en Sans catégorie par
L’option du RAG dans le contexte d’inventaires encodés en EAD/XML peut paraître inadéquate au premier abord (vu le format très structuré des documents à intégrer, et étant donné l’objectif qui n’est pas la réalisation d’un agent conversationnel sur ces documents), mais en fait ce type d’apprentissage combinant récupération préalable de contenu externe et génération de [...] Suite...

Comment apprendre l'EAD à un LLM : introduction (1/3)

- Posté en Sans catégorie par
Derrière cette question, c’est la perspective d’un système d’assistance par l’IA pour automatiser la génération d’instruments de recherche encodés en EAD/XML qui est posée, un système dont le déploiement pourrait idéalement s’envisager dans plusieurs environnements : - un chatbot qui permettrait de passer des instructions en langage naturel, telles que “crée un template [...] Suite...

Extraction de données structurées avec des LLMs

- Posté en Sans catégorie par
Le terme même d’ “extraction de données structurées” est en réalité assez générique et recouvre des dispositifs très diversifiés selon le contexte dans lesquels ils sont mis en oeuvre : cela peut aller de la “simple” Regex utilisée dans un script, à des techniques de NLP pour l’extraction d’entités nommées appliquée aux humanités numériques par exemple, ou encore des [...] Suite...

Faire du RAG sur des métadonnées documentaires : pourquoi ça ne va pas être si simple

- Posté en Sans catégorie par
Faire du RAG sur des métadonnées bibliographiques afin d'interagir en langage naturel et en mode conversationnel avec des collections documentaires via une interface de type chatbot est évidemment très tentant et semble la voie naturelle de l’application de l’IA générative sur des gisements documentaires, mais se heurte en réalité à un écueil de taille. On rappelle en effet que [...] Suite...

Moteur de recherche sémantique et cartographie sémantique de collections

- Posté en Sans catégorie par
Convertir du texte en embeddings n'est pas nouveau et n'est pas propre aux LLMs, cette technique était déjà au coeur d'algorithmes tels que word2vec ou seq2seq largement utilisés en NLP. Par contre la nouveauté et la puissance des embeddings issus des Transformers tient dans leur modalité d'encodage du texte qui intègre les relations sémantiques entre chaque mot, ouvrant la voie à des [...] Suite...

Qu'est-ce que le RAG ?

- Posté en Sans catégorie par
Le RAG (Retrieval Augmented Generation) est probablement à ce jour le use-case d’inférence sur des LLM le plus populaire. Aussi appelé “In-context learning”, ce dispositif de requêtage sur un LLM a pour but d’augmenter la précision et la pertinence des réponses du modèle en palliant aux limitations “natives” d’un modèle de langage : domaine de connaissances hors de son [...] Suite...

Techniques de prompts

- Posté en Sans catégorie par
La notion de prompt est clairement associée pour le grand public aux modèles de langage depuis l’ouverture de ChatGPT, mais désigne en fait une amorce tout à fait courante consistant à poser une question et/ou donner une instruction que ce soit dans la “vraie vie” ou dans un contexte de programmation informatique. Appliqué aux LLMs, le prompt engineering, élevé au rang de [...] Suite...

Comment exécuter localement un LLM (2/2)?

- Posté en Sans catégorie par
Pour rattraper le wagon précédent... Ollama Ollama est un framework open source léger et extensible concu pour construire et exécuter des modèles de langage de grande taille sur son ordinateur. Sa popularité croissante (qui se mesure en partie par ses possibilités d'intégration deplus en plus nombreuses avec des outils tiers) tient à plusieurs de ses caractéristiques : Cross-platform : [...] Suite...

Comment exécuter localement un LLM (1/2)?

- Posté en Sans catégorie par
Ces deux billets proposent une shortlist non-exhaustive et tout à fait personnelle des outils et librairies open source à disposition permettent d'exploiter les LLM en local (sur son PC ou sur son serveur) afin de s'abstraire des UI disponibles en ligne type ChatGPT, Gemini, Claude ou LeChat, plus ou moins gratuites et plus ou moins utilisables si l'on veut faire de l'inférence sur des [...] Suite...
Page 1 de 2
"> ');