45 % de réduction pour le lancement. Maîtrise l'IA avec 213+ cours. Certificats inclus. Se termine . Inscris-toi maintenant →

Leçons 1-2 gratuites Débutant

IA Locale : faire tourner les modèles chez toi

Fais tourner des modèles IA sur ta machine — RGPD-natif, sans cloud. Ollama, Mistral Nemo, RAG sur tes PDFs. 8 leçons pour pros sensibles à la confidentialité.

8 leçons
2 heures
Certificat inclus

En 2024, l’IA pour pros = ChatGPT. En 2026, ton DPO te demande où vont les données. Tes clients aussi. L’EU AI Act entre pleinement en vigueur en août 2026 sur les usages high-risk en santé, RH et administration. Et tes options se réduisent : soit cloud souverain européen (cher et limité), soit IA locale sur ta propre machine (libre, conforme par construction, et de plus en plus puissant).

Ce cours te fait passer du « j’ai entendu parler d’Ollama » au « j’ai un setup IA locale fonctionnel sur des cas pros réels ». En 8 leçons, tu apprends à choisir ton hardware (un MacBook M2 16 GB suffit pour démarrer), ton outil (Ollama domine en 2026), ton modèle (Mistral Nemo en français, Qwen 3 pour le raisonnement), et tu construis un système RAG sur tes PDFs en local — qui répond à tes questions sans qu’aucun octet ne quitte ta machine.

Tu finis avec un setup utilisable au quotidien, une note de décision local vs cloud que tu peux montrer à ton CTO, et un certificat qui prouve la compétence Edge AI / IA souveraine — recherchée dans les secteurs santé (CHU Montpellier déploie 14,9 M€ en IA souveraine), juridique (Barreau de Paris pousse l’adoption) et public.

Ce que tu vas apprendre

  • Expliquer pourquoi l'IA locale devient stratégique en 2026 sous le RGPD et l'EU AI Act
  • Évaluer le matériel nécessaire pour faire tourner un modèle 7B, 13B ou 70B sur ta machine
  • Installer Ollama et lancer ton premier modèle en moins de 10 minutes
  • Comparer Ollama, LM Studio, Jan et choisir l'outil adapté à ton profil
  • Identifier le bon modèle pour le français : Mistral Nemo, Llama 3.3, Qwen 3, Phi-4
  • Construire un système RAG local qui interroge tes PDFs sans envoyer un octet en dehors
  • Décider quand le local pays vraiment vs quand le cloud reste pertinent

After This Course, You Can

Démontrer à ton DPO que tes flux IA respectent le RGPD by design — sans dépendre du cloud US
Économiser plusieurs centaines d'euros par mois en passant un usage interne haut volume du cloud au local
Argumenter techniquement le choix local vs cloud face à ton CTO ou ta direction conformité
Déployer un système RAG local sur tes documents pro sans code complexe ni serveur cloud
Ajouter à ton CV la compétence Edge AI / IA souveraine, recherchée dans les secteurs santé, juridique et public

What You'll Build

Setup IA locale opérationnel
Une stack IA souveraine fonctionnelle sur ta machine — Ollama installé, modèle français choisi, RAG sur un dossier PDF réel — utilisable au quotidien.
Note de décision local vs cloud
Une analyse argumentée pour ton organisation : pour quels usages le local est obligatoire (RGPD), recommandé (coût), ou non pertinent — avec chiffres TCO concrets.
Certificat IA Locale
Un diplôme vérifiable qui prouve que tu sais déployer, opérer et défendre une stack IA on-device conforme RGPD et EU AI Act.

Programme du cours

Prérequis

  • Un ordi 2022+ (Mac, Windows ou Linux), 16 GB RAM minimum recommandé
  • Aucun prérequis technique — quelques commandes terminal montrées pas à pas
  • Avoir déjà utilisé ChatGPT ou Le Chat est un plus mais pas obligatoire

À qui s’adresse ce cours ?

  • DPO et responsables conformité qui doivent justifier l'usage de l'IA en interne
  • Avocats, médecins, comptables qui ne peuvent pas envoyer leurs données à OpenAI
  • RH qui traitent des CV ou notations sensibles et veulent rester en local
  • Curieux qui veulent apprendre à faire tourner Llama, Mistral ou DeepSeek chez eux
Ce que dit la recherche
56%
de salaire en plus pour les professionnels maîtrisant l'IA
PwC 2025 AI Jobs Barometer
83%
des entreprises en croissance ont adopté l'IA
Salesforce SMB Survey
$3.50
de retour pour chaque dollar investi dans l'IA
Vena Solutions / Industry data
Ce que nous proposons
250+
Cours
Enseignants, infirmiers, comptables et plus
2
leçons gratuites par cours pour essayer
Compte gratuit pour commencer
9
langues avec certificats vérifiables
EN, DE, ES, FR, JA, KO, PT, VI, IT
Commencer maintenant

Questions fréquentes

Faut-il une carte graphique chère pour faire de l'IA locale ?

Non. Un MacBook M2 16 GB ou un PC avec RTX 3060 fait tourner un modèle 7B (Mistral Nemo, Llama 3.3 8B) de façon fluide. Pour 13B il faut viser 32 GB RAM ou RTX 4080. Seul le 70B demande une vraie workstation. La leçon 3 fait le point complet.

Le RGPD oblige-t-il à passer en local ?

Non, le RGPD impose la conformité, pas le local. Mais le local simplifie énormément la conformité — pas de transfert de données hors UE, pas d'exposition au CLOUD Act US, traçabilité complète. C'est pour ça que les hôpitaux (CHU Montpellier, 14,9 M€), avocats et mutuelles s'y mettent.

Les modèles open source sont-ils vraiment au niveau de GPT-4 ou Claude ?

Pour la plupart des cas oui. Qwen 3.5-27B et Llama 3.3 70B sont au niveau GPT-4 sur les benchmarks. Mistral Nemo et Small 3 sont excellents en français. Sur le très haut de gamme (raisonnement complexe, contexte long), Claude Opus et GPT-4 Turbo gardent une avance — la leçon 5 t'aide à choisir.

Faut-il savoir coder ?

Très peu. Ollama s'installe en une commande. LM Studio est 100 % click-through. Seule la leçon 6 (RAG sur PDFs) montre quelques lignes de Python — tu peux la faire en copiant-collant sans rien comprendre, ou sauter. La leçon 7 reprend en pratique générale.

Modèles de Skills associés

2 Leçons Gratuites