Le prix des tokens ne cesse de monter et la protection des données devient de plus en plus importante. Alors, pourquoi ne pas faire tourner un modèle d'IA directement sur votre machine, en local ? Dans cet épisode, nous vous expliquons comment procéder, quel modèle choisir en fonction de la puissance de votre machine, et quels logiciels utiliser.

En 2026, la voie la plus simple pour exécuter une IA localement consiste à installer Ollama, à télécharger un modèle tel que Llama 4 Scout ou Gemma 4, puis à générer ses premières réponses en quelques minutes — le tout depuis votre poste, sans aucune fuite de données vers l'extérieur. Ceux qui préfèrent éviter le terminal pourront opter pour LM Studio et son interface graphique. Et avant même de lancer le moindre téléchargement, des outils comme canirun.ai ou llmfit vous diront exactement quels modèles sont compatibles avec votre matériel.

Les modèles open source ont franchi un cap décisif : un 14 milliards de paramètres tournant sur un GPU grand public rivalise désormais avec le GPT-4 d'il y a deux ans. Pas étonnant que tant de développeurs, d'équipes et d'utilisateurs attachés à leur vie privée envisagent de rapatrier l'IA du cloud vers leur propre machine.

Cet épisode se base sur cet article : (https://double-slash.dev/articles/ia-local/)[https://double-slash.dev/articles/ia-local/]

70% vers l'objectif de 70$ par mois

L'ensemble des charges seront couvertes. Service de stockage et abonnement aux services utilisés.

Abonnez-vous sur votre plateforme de podcast préférée