Ollama & l’IA générative locale

Les Intelligences Artificielles Génératives facilitent les travaux rédactionnels (spécification, documentation, code…). Pour garantir des coûts et une confidentialité maîtrisés, découvrez comment les faire fonctionner sur votre propre infrastructure avec Ollama.

  • Durée : 1 jour
  • Public : tous publics développeur ou administrateur système
  • Pré-requis : public ayant un niveau de connaissance minimal en administration système Linux

Objectifs

Découvrir les solutions d’IA génératives pouvant fonctionner sur votre propre infrastructure, sans dépendance à des tiers : Ollama, Open Web UI, modèles ouverts. Savoir déployer ces services et connaîtres les pré-requis matériels pour leur fonctionnement.

Programme

Les IA génératives et leurs enjeux

  • Connaître le fonctionnement, les usages, les limites
  • Comprendre les enjeux de confidentialité, coût budgétaire et environnemental
  • Découvrir les briques logicielles et données pour un fonctionnement local

Ollama : l’IA sur votre machine

  • Installer et utiliser Ollama, permettant l’exécution locale de modèles
  • Adapter les tailles de modèles aux capacités de sa machine (taille de modèle)
  • Savoir configurer le service pour une performance optimale
  • Adapter ses prompts pour obtenir des résultats pertinents

Open Web UI : l’interface Web ergonomique

  • Découvrir l’interface utilisateur Open Web UI, proche des solutions hébergées
  • S’approprier ses fonctionnalités avancées : RAG (contexte supplémentaire), spécialisation de modèles, recherche Web, serveurs MCP (pour automatisation de traitements)
  • Configurer en détail le service pour optimiser les performances