Standards pour une IA distribuée et auditable par design

- Posté en Sans catégorie par
Ce billet est une synthèse du preprint "Toward a Transparent, Auditable, and Distributed Architecture for LLM Tasks Using W3C Linked Data Notifications and Remote uv Scripts" accessible sur Zenodo https://doi.org/10.5281/zenodo.17367758 Le but de ce papier est de proposer une approche exploratoire afin de formaliser traçabilité et archivage des chaînes d’inférence et des workflows pilotés [...] Suite...

Une nouvelle interface entre les bibliothèques et l’IA : le Model Context Protocol (MCP)

- Posté en Sans catégorie par
Pourquoi s’ouvrir (entre autres) au protocole MCP ? Dans la vaste et multidimensionnelle problématique de l’impact de l’IA générative sur les activités et missions des bibliothèques, l’attention se concentre surtout sur quelques enjeux bien identifiés que l’on pourrait qualifier de "rhétoriques" (formation et accompagnement aux usages éthiques, AI literacy…). Pourtant la [...] Suite...

Penser avant de cataloguer : entraîner un LLM de raisonnement sur des métadonnées bibliographiques

- Posté en Sans catégorie par
Ce billet présente un exemple de mobilisation de modèles d'IA générative pour automatiser la production de notices bibliographiques en Unimarc/XML dans un contexte de génération assistée par IA de métadonnées documentaires. Dans l'esprit, cette expérimentation se rapproche du AI Metadata Assistant introduit dans Alma par Ex Libris dans le but affiché de simplifier et réduire le temps [...] Suite...

Vision Language Models dans Omeka

- Posté en Sans catégorie par
VLM Historiquement les réseaux de neurones convolutionnels CNNs étaient privilégiés pour le deep learning appliqué aux tâches de computer vision, mais à l’instar des modèles de NLP pour les corpus textuels, les modèles d’IA dédiés à l’analyse d’images ont aussi amorcé une transition vers des architectures inspirées des Transformers, notamment avec l’émergence du Vision [...] Suite...

Comment apprendre l'EAD à un LLM : distillation de LLM (3bis/3)

- Posté en Sans catégorie par
Ce précédent billet s'attachait à spécialiser le modèle Llama3.2-3B-Instruct par du fine-tuning supervisé (SFT) selon la méthode QLora, avec l'objectif d'obtenir un modèle léger et complètement customisé capable de générer des instruments de recherche en EAD/XML à partir d’instructions en langage naturel : l'expérimentation consistait à faire du post-training sur ce modèle [...] Suite...
"> ');