Sans catégorie

Sujets qui n'ont pas besoin de catégorie, ou qui ne conviennent à aucune catégorie existante

Standards pour une IA distribuée et auditable par design

- Posté en Sans catégorie par
Ce billet est une synthèse du preprint "Toward a Transparent, Auditable, and Distributed Architecture for LLM Tasks Using W3C Linked Data Notifications and Remote uv Scripts" accessible sur Zenodo https://doi.org/10.5281/zenodo.17367758 Le but de ce papier est de proposer une approche exploratoire afin de formaliser traçabilité et archivage des chaînes d’inférence et des workflows pilotés [...] Suite...

Une nouvelle interface entre les bibliothèques et l’IA : le Model Context Protocol (MCP)

- Posté en Sans catégorie par
Pourquoi s’ouvrir (entre autres) au protocole MCP ? Dans la vaste et multidimensionnelle problématique de l’impact de l’IA générative sur les activités et missions des bibliothèques, l’attention se concentre surtout sur quelques enjeux bien identifiés que l’on pourrait qualifier de "rhétoriques" (formation et accompagnement aux usages éthiques, AI literacy…). Pourtant la [...] Suite...

Penser avant de cataloguer : entraîner un LLM de raisonnement sur des métadonnées bibliographiques

- Posté en Sans catégorie par
Ce billet présente un exemple de mobilisation de modèles d'IA générative pour automatiser la production de notices bibliographiques en Unimarc/XML dans un contexte de génération assistée par IA de métadonnées documentaires. Dans l'esprit, cette expérimentation se rapproche du AI Metadata Assistant introduit dans Alma par Ex Libris dans le but affiché de simplifier et réduire le temps [...] Suite...

Vision Language Models dans Omeka

- Posté en Sans catégorie par
VLM Historiquement les réseaux de neurones convolutionnels CNNs étaient privilégiés pour le deep learning appliqué aux tâches de computer vision, mais à l’instar des modèles de NLP pour les corpus textuels, les modèles d’IA dédiés à l’analyse d’images ont aussi amorcé une transition vers des architectures inspirées des Transformers, notamment avec l’émergence du Vision [...] Suite...

Comment apprendre l'EAD à un LLM : distillation de LLM (3bis/3)

- Posté en Sans catégorie par
Ce précédent billet s'attachait à spécialiser le modèle Llama3.2-3B-Instruct par du fine-tuning supervisé (SFT) selon la méthode QLora, avec l'objectif d'obtenir un modèle léger et complètement customisé capable de générer des instruments de recherche en EAD/XML à partir d’instructions en langage naturel : l'expérimentation consistait à faire du post-training sur ce modèle [...] Suite...

Comment apprendre l'EAD à un LLM : fine-tuning (3/3)

- Posté en Sans catégorie par
Disclaimer: la démarche présentée dans ce billet ne constitue pas un exemple complet et abouti de personnalisation d'un LLM. Si le modèle fine-tuné obtenu donne des résultats plutôt satisfaisants, il est largement améliorable, et un "vrai" processus de post-training dans le but d'obtenir un modèle fine-tuné viable en production devrait inclure à minima deux étapes supplémentaires : [...] Suite...

Comment apprendre l'EAD à un LLM : RAG (2/3)

- Posté en Sans catégorie par
L’option du RAG dans le contexte d’inventaires encodés en EAD/XML peut paraître inadéquate au premier abord (vu le format très structuré des documents à intégrer, et étant donné l’objectif qui n’est pas la réalisation d’un agent conversationnel sur ces documents), mais en fait ce type d’apprentissage combinant récupération préalable de contenu externe et génération de [...] Suite...

Comment apprendre l'EAD à un LLM : introduction (1/3)

- Posté en Sans catégorie par
Derrière cette question, c’est la perspective d’un système d’assistance par l’IA pour automatiser la génération d’instruments de recherche encodés en EAD/XML qui est posée, un système dont le déploiement pourrait idéalement s’envisager dans plusieurs environnements : - un chatbot qui permettrait de passer des instructions en langage naturel, telles que “crée un template [...] Suite...

Extraction de données structurées avec des LLMs

- Posté en Sans catégorie par
Le terme même d’ “extraction de données structurées” est en réalité assez générique et recouvre des dispositifs très diversifiés selon le contexte dans lesquels ils sont mis en oeuvre : cela peut aller de la “simple” Regex utilisée dans un script, à des techniques de NLP pour l’extraction d’entités nommées appliquée aux humanités numériques par exemple, ou encore des [...] Suite...

Faire du RAG sur des métadonnées documentaires : pourquoi ça ne va pas être si simple

- Posté en Sans catégorie par
Faire du RAG sur des métadonnées bibliographiques afin d'interagir en langage naturel et en mode conversationnel avec des collections documentaires via une interface de type chatbot est évidemment très tentant et semble la voie naturelle de l’application de l’IA générative sur des gisements documentaires, mais se heurte en réalité à un écueil de taille. On rappelle en effet que [...] Suite...
Page 1 de 2
"> ');