Applications
Cette page liste des applications développées en lien avec les billets de ce blog.
Computer vision avec Omeka S : application "Nomic-like"

- Déploiement : https://huggingface.co/spaces/Geraldine/omeka-s-computer-vision
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2025_04_omeka_s_computer_vision
- Billets en lien : https://iaetbibliotheques.fr/2025/04/vision-language-models-dans-omeka
EAD/XMl : éditeur avec speech-to-text et génération automatisée

- Déploiement : https://huggingface.co/spaces/Geraldine/speech-to-text-ead-editor
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2025_01_speech_to_text_ead_editor
- Billets en lien : https://iaetbibliotheques.fr/2024/11/comment-apprendre-lead-a-un-llm
EAD/XMl : inférence comparative pour la génération automatisée d'EAD

- Déploiement : https://huggingface.co/spaces/Geraldine/comparative-ead-generation
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2025_01_comparative_ead_generation
- Billets en lien : https://iaetbibliotheques.fr/2024/11/comment-apprendre-lead-a-un-llm
VLM : génération de notices Marc

- Déploiement : no
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2024_10_image2marc_converter
- Billet en lien : https://iaetbibliotheques.fr/2024/10/extraction-de-donnees-structurees-avec-des-llms
Moteur de recherche sémantique

- Déploiement : https://huggingface.co/spaces/Geraldine/HAL-UNIV-COTEDAZUR_semantic_search
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2024_06_hal_semantic_search
- Billet en lien : https://iaetbibliotheques.fr/2024/06/moteur-de-recherche-semantique-et-cartographie-semantique-de-collections
Bibliothèque de prompts personnalisée

- Déploiement : https://huggingface.co/spaces/Geraldine/prompts_library
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2024_05_prompts_library
- Billet en lien : https://iaetbibliotheques.fr/2024/05/techniques-de-prompts
Chatbot QA sur LLMs via Ollama, Nvidia Cloud et Groq

- Déploiement : https://huggingface.co/spaces/Geraldine/qa_inference_with_ollama_nvidia_or_groq
- Code source : https://github.com/gegedenice/iaetbibliotheques/tree/main/2024_04_qa_inference
- Billet en lien : https://iaetbibliotheques.fr/2024/05/comment-executer-localement-un-llm-2-2
Demonstrateur pour le client d'inférence d'HuggingFace
