Qu'est-ce que le RAG ?

- Posté en Sans catégorie par
Le RAG (Retrieval Augmented Generation) est probablement à ce jour le use-case d’inférence sur des LLM le plus populaire. Aussi appelé “In-context learning”, ce dispositif de requêtage sur un LLM a pour but d’augmenter la précision et la pertinence des réponses du modèle en palliant aux limitations “natives” d’un modèle de langage : domaine de connaissances hors de son [...] Suite...

Techniques de prompts

- Posté en Sans catégorie par
La notion de prompt est clairement associée pour le grand public aux modèles de langage depuis l’ouverture de ChatGPT, mais désigne en fait une amorce tout à fait courante consistant à poser une question et/ou donner une instruction que ce soit dans la “vraie vie” ou dans un contexte de programmation informatique. Appliqué aux LLMs, le prompt engineering, élevé au rang de [...] Suite...

Comment exécuter localement un LLM (2/2)?

- Posté en Sans catégorie par
Pour rattraper le wagon précédent... Ollama Ollama est un framework open source léger et extensible concu pour construire et exécuter des modèles de langage de grande taille sur son ordinateur. Sa popularité croissante (qui se mesure en partie par ses possibilités d'intégration deplus en plus nombreuses avec des outils tiers) tient à plusieurs de ses caractéristiques : Cross-platform : [...] Suite...
"> ');