IA Locale : faire tourner les modèles chez toi
Fais tourner des modèles IA sur ta machine — RGPD-natif, sans cloud. Ollama, Mistral Nemo, RAG sur tes PDFs. 8 leçons pour pros sensibles à la confidentialité.
En 2024, l’IA pour pros = ChatGPT. En 2026, ton DPO te demande où vont les données. Tes clients aussi. L’EU AI Act entre pleinement en vigueur en août 2026 sur les usages high-risk en santé, RH et administration. Et tes options se réduisent : soit cloud souverain européen (cher et limité), soit IA locale sur ta propre machine (libre, conforme par construction, et de plus en plus puissant).
Ce cours te fait passer du « j’ai entendu parler d’Ollama » au « j’ai un setup IA locale fonctionnel sur des cas pros réels ». En 8 leçons, tu apprends à choisir ton hardware (un MacBook M2 16 GB suffit pour démarrer), ton outil (Ollama domine en 2026), ton modèle (Mistral Nemo en français, Qwen 3 pour le raisonnement), et tu construis un système RAG sur tes PDFs en local — qui répond à tes questions sans qu’aucun octet ne quitte ta machine.
Tu finis avec un setup utilisable au quotidien, une note de décision local vs cloud que tu peux montrer à ton CTO, et un certificat qui prouve la compétence Edge AI / IA souveraine — recherchée dans les secteurs santé (CHU Montpellier déploie 14,9 M€ en IA souveraine), juridique (Barreau de Paris pousse l’adoption) et public.
Ce que tu vas apprendre
- Expliquer pourquoi l'IA locale devient stratégique en 2026 sous le RGPD et l'EU AI Act
- Évaluer le matériel nécessaire pour faire tourner un modèle 7B, 13B ou 70B sur ta machine
- Installer Ollama et lancer ton premier modèle en moins de 10 minutes
- Comparer Ollama, LM Studio, Jan et choisir l'outil adapté à ton profil
- Identifier le bon modèle pour le français : Mistral Nemo, Llama 3.3, Qwen 3, Phi-4
- Construire un système RAG local qui interroge tes PDFs sans envoyer un octet en dehors
- Décider quand le local pays vraiment vs quand le cloud reste pertinent
After This Course, You Can
What You'll Build
Programme du cours
Prérequis
- Un ordi 2022+ (Mac, Windows ou Linux), 16 GB RAM minimum recommandé
- Aucun prérequis technique — quelques commandes terminal montrées pas à pas
- Avoir déjà utilisé ChatGPT ou Le Chat est un plus mais pas obligatoire
À qui s’adresse ce cours ?
- DPO et responsables conformité qui doivent justifier l'usage de l'IA en interne
- Avocats, médecins, comptables qui ne peuvent pas envoyer leurs données à OpenAI
- RH qui traitent des CV ou notations sensibles et veulent rester en local
- Curieux qui veulent apprendre à faire tourner Llama, Mistral ou DeepSeek chez eux
Questions fréquentes
Faut-il une carte graphique chère pour faire de l'IA locale ?
Non. Un MacBook M2 16 GB ou un PC avec RTX 3060 fait tourner un modèle 7B (Mistral Nemo, Llama 3.3 8B) de façon fluide. Pour 13B il faut viser 32 GB RAM ou RTX 4080. Seul le 70B demande une vraie workstation. La leçon 3 fait le point complet.
Le RGPD oblige-t-il à passer en local ?
Non, le RGPD impose la conformité, pas le local. Mais le local simplifie énormément la conformité — pas de transfert de données hors UE, pas d'exposition au CLOUD Act US, traçabilité complète. C'est pour ça que les hôpitaux (CHU Montpellier, 14,9 M€), avocats et mutuelles s'y mettent.
Les modèles open source sont-ils vraiment au niveau de GPT-4 ou Claude ?
Pour la plupart des cas oui. Qwen 3.5-27B et Llama 3.3 70B sont au niveau GPT-4 sur les benchmarks. Mistral Nemo et Small 3 sont excellents en français. Sur le très haut de gamme (raisonnement complexe, contexte long), Claude Opus et GPT-4 Turbo gardent une avance — la leçon 5 t'aide à choisir.
Faut-il savoir coder ?
Très peu. Ollama s'installe en une commande. LM Studio est 100 % click-through. Seule la leçon 6 (RAG sur PDFs) montre quelques lignes de Python — tu peux la faire en copiant-collant sans rien comprendre, ou sauter. La leçon 7 reprend en pratique générale.