Les Intelligences Artificielles Génératives facilitent les travaux rédactionnels (spécification, documentation, code…). Pour garantir des coûts et une confidentialité maîtrisés, découvrez comment les faire fonctionner sur votre propre infrastructure avec Ollama.
- Durée : 1 jour
- Public : tous publics développeur ou administrateur système
- Pré-requis : public ayant un niveau de connaissance minimal en administration système Linux
Objectifs
Découvrir les solutions d’IA génératives pouvant fonctionner sur votre propre infrastructure, sans dépendance à des tiers : Ollama, Open Web UI, modèles ouverts. Savoir déployer ces services et connaîtres les pré-requis matériels pour leur fonctionnement.
Programme
Les IA génératives et leurs enjeux
- Connaître le fonctionnement, les usages, les limites
- Comprendre les enjeux de confidentialité, coût budgétaire et environnemental
- Découvrir les briques logicielles et données pour un fonctionnement local
Ollama : l’IA sur votre machine
- Installer et utiliser Ollama, permettant l’exécution locale de modèles
- Adapter les tailles de modèles aux capacités de sa machine (taille de modèle)
- Savoir configurer le service pour une performance optimale
- Adapter ses prompts pour obtenir des résultats pertinents
Open Web UI : l’interface Web ergonomique
- Découvrir l’interface utilisateur Open Web UI, proche des solutions hébergées
- S’approprier ses fonctionnalités avancées : RAG (contexte supplémentaire), spécialisation de modèles, recherche Web, serveurs MCP (pour automatisation de traitements)
- Configurer en détail le service pour optimiser les performances