[{"data":1,"prerenderedAt":1293},["ShallowReactive",2],{"i-ic:outline-arrow-upward":3,"Footer_afPiwGMwNiEyV4syWzw87ovzxHAgs4iwKtCn4zqBf8E":8,"\u002Farticles\u002Fia-local":16,"i-material-symbols:home":1279,"Brand_bAcjTzQpW6OVpFK319jfMki97vH1GrZiqHmeI7Xg4o":1281,"ArticleDetails_WLkq10xy12DqNAqOlqfRAJSnel9i7klnU3j7Fgmk4":1286,"i-material-symbols:ios-share":1291},{"left":4,"top":4,"width":5,"height":5,"rotate":4,"vFlip":6,"hFlip":6,"body":7},0,24,false,"\u003Cpath fill=\"currentColor\" d=\"m4 12l1.41 1.41L11 7.83V20h2V7.83l5.58 5.59L20 12l-8-8z\"\u002F>",["Island",9],{"key":10,"result":11},"Footer_afPiwGMwNiEyV4syWzw87ovzxHAgs4iwKtCn4zqBf8E",{"head":12},{"style":13},[14],{"innerHTML":15},":where(.i-mdi\\:github){display:inline-block;width:1em;height:1em;background-color:currentColor;-webkit-mask-image:var(--svg);mask-image:var(--svg);-webkit-mask-repeat:no-repeat;mask-repeat:no-repeat;-webkit-mask-size:100% 100%;mask-size:100% 100%;--svg:url(\"data:image\u002Fsvg+xml,%3Csvg xmlns='http:\u002F\u002Fwww.w3.org\u002F2000\u002Fsvg' viewBox='0 0 24 24' width='24' height='24'%3E%3Cpath fill='black' d='M12 2A10 10 0 0 0 2 12c0 4.42 2.87 8.17 6.84 9.5c.5.08.66-.23.66-.5v-1.69c-2.77.6-3.36-1.34-3.36-1.34c-.46-1.16-1.11-1.47-1.11-1.47c-.91-.62.07-.6.07-.6c1 .07 1.53 1.03 1.53 1.03c.87 1.52 2.34 1.07 2.91.83c.09-.65.35-1.09.63-1.34c-2.22-.25-4.55-1.11-4.55-4.92c0-1.11.38-2 1.03-2.71c-.1-.25-.45-1.29.1-2.64c0 0 .84-.27 2.75 1.02c.79-.22 1.65-.33 2.5-.33s1.71.11 2.5.33c1.91-1.29 2.75-1.02 2.75-1.02c.55 1.35.2 2.39.1 2.64c.65.71 1.03 1.6 1.03 2.71c0 3.82-2.34 4.66-4.57 4.91c.36.31.69.92.69 1.85V21c0 .27.16.59.67.5C19.14 20.16 22 16.42 22 12A10 10 0 0 0 12 2'\u002F%3E%3C\u002Fsvg%3E\")}",{"id":17,"title":18,"author":19,"body":22,"description":1271,"extension":1272,"meta":1273,"navigation":1108,"path":1274,"publicationDate":1275,"seo":1276,"stem":1277,"__hash__":1278},"articles\u002Farticles\u002Fia-local.md","Faire tourner une IA en local en 2026: outils, modèles et configuration matérielle",{"name":20,"url":21},"@patrickfaramaz ","https:\u002F\u002Ftwitter.com\u002Fpatrickfaramaz",{"type":23,"value":24,"toc":1237},"minimark",[25,30,60,63,66,71,74,89,95,99,130,133,137,140,143,146,149,153,156,159,163,167,173,176,180,187,201,205,287,294,298,305,310,313,319,324,327,332,337,340,345,350,353,358,362,365,369,379,404,411,417,421,427,432,436,442,445,450,454,461,466,470,480,490,494,606,609,612,616,619,638,642,653,667,671,686,689,696,699,721,732,736,743,749,755,759,767,772,777,781,792,802,814,819,823,831,835,839,851,860,865,869,877,886,891,895,1023,1027,1041,1052,1076,1082,1168,1171,1187,1197,1201,1204,1221,1233],[26,27,29],"h2",{"id":28},"une-ia-local-en-quelques-minutes","Une IA local, en quelques minutes",[31,32,33,34,41,42,47,48,53,54,59],"p",{},"La meilleure façon de faire tourner une IA en local en 2026, c'est d'installer ",[35,36,40],"a",{"href":37,"rel":38},"https:\u002F\u002Follama.com",[39],"nofollow","Ollama",", de télécharger un modèle comme Llama 4 Scout ou Gemma 4, et d'obtenir vos premières réponses en quelques minutes, tout sur votre propre machine, sans aucune donnée envoyée à l'extérieur. Si vous préférez une interface graphique, ",[35,43,46],{"href":44,"rel":45},"https:\u002F\u002Flmstudio.ai",[39],"LM Studio"," vous y amène sans la moindre ligne de commande. Et si vous ne savez pas si votre machine peut tenir la charge, des outils comme ",[35,49,52],{"href":50,"rel":51},"https:\u002F\u002Fwww.canirun.ai",[39],"canirun.ai"," et ",[35,55,58],{"href":56,"rel":57},"https:\u002F\u002Fgithub.com\u002FAlexsJones\u002Fllmfit",[39],"llmfit"," vous indiquent précisément quels modèles correspondent à votre configuration avant même de télécharger quoi que ce soit.",[31,61,62],{},"Les modèles open source ont franchi un seuil décisif. Un modèle de 14 milliards de paramètres tournant sur un GPU grand public atteint aujourd'hui le niveau de GPT-4 d'il y a deux ans. C'est pourquoi des milliers de développeurs, d'équipes et d'utilisateurs soucieux de leur vie privée pensent à migrer l'IA du cloud vers leurs propres machines.",[31,64,65],{},"Cet article couvre tout: comment tester votre matériel, quel runtime choisir, quels modèles open source valent votre temps en 2026, et comment passer de zéro à votre première réponse locale en quelques minutes.",[67,68,70],"h3",{"id":69},"lia-local-progresse-rapidement","L'IA local progresse rapidement !",[31,72,73],{},"En temoigne ce tweet de Clement Delangue (cofondateur et PDG d'HuggingFace) du 11 mai 2026 :",[75,76,77,80,83,86],"blockquote",{},[31,78,79],{},"L'IA open-weight locale sur un ordinateur portable s'améliore plus du double de vitesse que la loi de Moore !",[31,81,82],{},"Entre mai 2024 et mai 2026, le MacBook Pro le plus cher que vous pouviez acheter est resté à 128 Go de mémoire  unifiée. Le plafond matériel a à peine bougé.",[31,84,85],{},"Mais le modèle open-weight le plus intelligent de huggingface que vous pouviez réellement exécuter dessus est passé d'un score de 10 (Llama 3 70B) à 47 (DeepSeek V4 Flash sur le GGUF mixed-Q2 de antirez) sur l'indice Artificial Anlys Intelligence Index.",[31,87,88],{},"C'est 4,7× en 24 mois, soit un doublement de l'intelligence tous les 10,7 mois. La loi de Moore (nombre de transistors> ) double tous les 24 mois. L'IA open-weight locale sur un ordinateur portable s'améliore plus du double de vitesse que la loi de Moore, sur du matériel complètement inchangé.",[90,91],"img",{"align":92,"alt":93,"src":94},"center","Open Weight","https:\u002F\u002Fdouble-slash.dev\u002Fassets\u002Farticles\u002Fopen-weight.jpg",[67,96,98],{"id":97},"les-points-clés-de-larticle","Les points clés de l'article",[100,101,102,110,113,124,127],"ul",{},[103,104,105,106],"li",{},"Ollama est la solution la plus rapide pour démarrer : une commande d'installation, puis ",[107,108,109],"code",{},"ollama run [modèle]",[103,111,112],{},"LM Studio propose une interface graphique complète avec un navigateur de modèles Hugging Face intégré",[103,114,115,116,119,120,123],{},"Utilisez ",[35,117,52],{"href":50,"rel":118},[39]," (navigateur, sans installation) ou ",[35,121,58],{"href":56,"rel":122},[39]," (terminal, plus détaillé) pour tester votre matériel avant de télécharger",[103,125,126],{},"Llama 4 Scout, Gemma 4 E4B, DeepSeek V4 Flash et Mistral Medium 3.5 sont les modèles open source les plus solides de début 2026",[103,128,129],{},"16 Go de RAM et 8 Go de VRAM GPU constituent le minimum recommandé pour une expérience fluide sur les modèles 7B",[90,131],{"align":92,"alt":40,"src":132},"https:\u002F\u002Fdouble-slash.dev\u002Fassets\u002Farticles\u002Follama.jpg",[26,134,136],{"id":135},"pourquoi-faire-tourner-une-ia-en-local","Pourquoi faire tourner une IA en local?",[31,138,139],{},"Le cloud est pratique. Mais il comporte des compromis que les organisations et les développeurs acceptent de moins en moins.",[31,141,142],{},"Chaque prompt envoyé à une API cloud transite par un serveur tiers. Pour les développeurs travaillant sur des bases de code propriétaires, les équipes juridiques traitant des documents confidentiels ou les professionnels de santé manipulant des données sensibles, c'est un problème de conformité, parfois un problème légal. Faire tourner une IA en local signifie que vos données ne quittent jamais votre machine.",[31,144,145],{},"Le coût est l'autre facteur. Une petite équipe qui consomme beaucoup d'appels à l'API peut facilement dépenser 200 à 500 euros par mois. Une mise à niveau GPU unique et un modèle local éliminent cet abonnement permanent.",[31,147,148],{},"Les dernières sorties de Llama, Qwen, Gemma, Kimi et Phi ont changé la donne pour de bon. Les modèles open source entre 7 et 14 milliards de paramètres atteignent aujourd'hui un niveau qui était réservé aux modèles frontier il y a 18 mois. La question n'est plus \"est-ce assez bon?\" mais \"lequel correspond à mon matériel?\"",[26,150,152],{"id":151},"étape-1-testez-votre-machine-avant-de-télécharger-quoi-que-ce-soit","Étape 1: testez votre machine avant de télécharger quoi que ce soit",[31,154,155],{},"L'erreur la plus courante est de télécharger un fichier modèle de 40 Go pour découvrir ensuite que votre GPU peut à peine le faire tourner. Deux outils règlent ce problème proprement.",[31,157,158],{},"À noter qu'avec LM Studio, dans la liste des modèles, il y a une option pour afficher ceux qui sont compatibles avec votre machine. Donc cette étape peut être évitée. Mais il est toujours intéressant de tester.",[90,160],{"align":92,"alt":161,"src":162},"Choix du model sur LM Studio","https:\u002F\u002Fdouble-slash.dev\u002Fassets\u002Farticles\u002Flm-studio-model.jpg",[67,164,166],{"id":165},"canirunai-le-diagnostic-matériel-en-deux-minutes-dans-le-navigateur","canirun.ai : le diagnostic matériel en deux minutes dans le navigateur",[31,168,169,172],{},[35,170,52],{"href":50,"rel":171},[39]," détecte vos spécifications système directement dans le navigateur via les API web standard. Il lit votre VRAM GPU, votre RAM système, le nombre de cœurs processeur et la bande passante mémoire, puis note chaque modèle de sa base de données sur une échelle allant de \"Tourne parfaitement\" à \"Trop lourd\".",[31,174,175],{},"La base couvre des centaines de modèles de Meta, Google, Alibaba, Microsoft et DeepSeek. Vous pouvez filtrer par type de tâche (chat, code, raisonnement, vision), licence, fournisseur et famille de modèles. Pour un premier bilan de ce que votre machine peut gérer, cela prend moins de deux minutes et ne nécessite aucune installation.",[67,177,179],{"id":178},"llmfit-lanalyse-matérielle-en-profondeur-avec-benchmarks-communautaires","llmfit : l'analyse matérielle en profondeur avec benchmarks communautaires",[31,181,182,183,186],{},"Pour aller plus loin, ",[35,184,58],{"href":56,"rel":185},[39]," tourne en tant qu'utilitaire terminal et vous donne un score multidimensionnel couvrant qualité, vitesse, adéquation et contexte. Il détecte les GPU NVIDIA, AMD, Intel Arc et Apple Silicon, en plus de votre RAM système et votre CPU.",[31,188,189,190,194,195,200],{},"Ce qui rend llmfit particulièrement utile, c'est la ",[191,192,193],"strong",{},"simulation matérielle",": vous pouvez entrer une configuration cible et voir quels modèles tourneraient dessus. L'outil tire également des benchmarks communautaires montrant des tokens par seconde, temps au premier token et utilisation VRAM réels, des données bien plus fiables que les spécifications théoriques. Il s'intègre directement avec Ollama, ",[35,196,199],{"href":197,"rel":198},"https:\u002F\u002Fgithub.com\u002Fggml-org\u002Fllama.cpp",[39],"llama.cpp",", MLX et Docker Model Runner.",[67,202,204],{"id":203},"configurations-minimales-par-taille-de-modèle","Configurations minimales par taille de modèle",[206,207,208,227],"table",{},[209,210,211],"thead",{},[212,213,214,218,221,224],"tr",{},[215,216,217],"th",{},"Taille du modèle",[215,219,220],{},"RAM système",[215,222,223],{},"VRAM GPU",[215,225,226],{},"Vitesse attendue",[228,229,230,245,259,273],"tbody",{},[212,231,232,236,239,242],{},[233,234,235],"td",{},"1-3B",[233,237,238],{},"8 Go",[233,240,241],{},"4 Go",[233,243,244],{},"30-50 tok\u002Fs",[212,246,247,250,253,256],{},[233,248,249],{},"7B",[233,251,252],{},"16 Go",[233,254,255],{},"6-8 Go",[233,257,258],{},"15-25 tok\u002Fs",[212,260,261,264,267,270],{},[233,262,263],{},"13B",[233,265,266],{},"32 Go",[233,268,269],{},"12 Go",[233,271,272],{},"8-15 tok\u002Fs",[212,274,275,278,281,284],{},[233,276,277],{},"70B (Q4)",[233,279,280],{},"64 Go",[233,282,283],{},"24 Go",[233,285,286],{},"3-8 tok\u002Fs",[31,288,289,290,293],{},"La règle d'or: ",[191,291,292],{},"la VRAM compte plus que tout le reste",". Si un modèle tient en VRAM, votre GPU gère l'inférence à pleine vitesse. S'il déborde sur la RAM système, la vitesse chute de 5 à 10 fois. En cas de doute, lancez canirun.ai d'abord, puis validez avec llmfit.",[67,295,297],{"id":296},"avec-16-go-de-ram-que-peut-on-faire-tourner-concrètement","Avec 16 Go de RAM, que peut-on faire tourner concrètement?",[31,299,300,301,304],{},"16 Go de RAM est une configuration commune. Le facteur déterminant est ",[191,302,303],{},"ce qui accompagne cette RAM",", pas la RAM elle-même.",[31,306,307],{},[191,308,309],{},"16 Go RAM, pas de GPU dédié (processeur graphique intégré)",[31,311,312],{},"L'inférence tourne entièrement sur le CPU. C'est possible, mais lent. Un modèle 3B tourne à 5-10 tokens\u002Fseconde : utilisable pour une réponse courte, pénible pour une conversation longue. Un 7B descend à 2-5 tok\u002Fs: chaque réponse prend 30 à 60 secondes. Le seuil d'utilisation confortable est à 10 tok\u002Fs minimum pour une conversation fluide.",[31,314,315,318],{},[191,316,317],{},"Verdict",": avec un GPU intégré classique, limitez-vous aux modèles 1-3B ou attendez-vous à de la patience.",[31,320,321],{},[191,322,323],{},"16 Go RAM + GPU dédié avec 4-6 Go de VRAM",[31,325,326],{},"Un modèle 7B en quantisation Q4_K_M occupe environ 4,1 Go de VRAM, il tient donc dans un GPU de 6 Go. Résultat: 15 à 25 tok\u002Fs, ce qui est confortable pour une conversation. Avec 4 Go de VRAM, le modèle déborde partiellement sur la RAM système et la vitesse chute à 5-10 tok\u002Fs.",[31,328,329,331],{},[191,330,317],{},": un GPU 6 Go permet de faire tourner un modèle 7B utilisable. C'est le minimum recommandé pour une expérience acceptable.",[31,333,334],{},[191,335,336],{},"16 Go RAM + GPU avec 8 Go de VRAM",[31,338,339],{},"Confortable sur les modèles 7B (25-35 tok\u002Fs), avec de la marge pour expérimenter. Les modèles 13B passent en quantisation agressive (Q3), mais la qualité baisse.",[31,341,342,344],{},[191,343,317],{},": configuration solide pour commencer. Un 7B comme Gemma 4 E4B ou Mistral Small 3 tourne sans contrainte.",[31,346,347],{},[191,348,349],{},"Cas particulier: Apple Silicon (M1\u002FM2\u002FM3\u002FM..) avec 16 Go de mémoire unifiée",[31,351,352],{},"Sur Apple Silicon, la RAM et la VRAM partagent le même pool. Un MacBook Air M2 avec 16 Go voit ce total comme de la mémoire GPU. Cela permet de faire tourner un modèle 13B à 15-20 tok\u002Fs, et même un 27B avec quantisation poussée. C'est l'une des meilleures configurations pour l'IA locale en mobilité, sans GPU dédié séparé.",[31,354,355,357],{},[191,356,317],{},": avec un Mac Apple Silicon 16 Go, vous pouvez faire tourner des modèles 13B confortablement, bien au-delà de ce qu'offre un PC équivalent sans GPU.",[26,359,361],{"id":360},"étape-2-choisir-votre-runtime-pour-faire-tourner-une-ia-en-local","Étape 2: choisir votre runtime pour faire tourner une IA en local",[31,363,364],{},"Le runtime est la couche logicielle qui charge un modèle et gère l'inférence. Plusieurs options solides existent en 2026, et le bon choix dépend de votre profil et de votre cas d'usage.",[67,366,368],{"id":367},"ollama-le-point-de-départ-recommandé","Ollama : le point de départ recommandé",[31,370,371,374,375,378],{},[35,372,40],{"href":37,"rel":373},[39]," enveloppe ",[35,376,199],{"href":197,"rel":377},[39]," avec une interface CLI propre et expose une API REST compatible OpenAI en localhost. L'installation se fait en une seule commande sur macOS, Linux et Windows. Une fois installé, lancer un modèle est aussi simple que:",[380,381,386],"pre",{"className":382,"code":383,"language":384,"meta":385,"style":385},"language-bash shiki shiki-themes synthwave-84","ollama run llama4\n","bash","",[107,387,388],{"__ignoreMap":385},[389,390,393,397,401],"span",{"class":391,"line":392},"line",1,[389,394,396],{"class":395},"sRQ1T","ollama",[389,398,400],{"class":399},"soy-K"," run",[389,402,403],{"class":399}," llama4\n",[31,405,406,407,410],{},"Ollama gère automatiquement le téléchargement du modèle, la détection du GPU et la sélection de la quantisation. Il embarque un registre de modèles intégré pour parcourir et télécharger des modèles par nom. Pour les développeurs, l'API compatible OpenAI signifie qu'un code existant appelant un modèle ",[107,408,409],{},"gpt"," peut être redirigé vers une instance Ollama locale en changeant une seule ligne : l'URL de base.",[31,412,413,416],{},[191,414,415],{},"Idéal pour",": développeurs, power users, toute personne intégrant un modèle local dans une application.",[67,418,420],{"id":419},"lm-studio-loption-graphique","LM Studio : l'option graphique",[31,422,423,426],{},[35,424,46],{"href":44,"rel":425},[39]," propose une interface graphique soignée pour découvrir, télécharger et faire tourner des modèles. Il se connecte au hub de modèles Hugging Face, permet de naviguer par catégorie et taille, et télécharge directement les fichiers GGUF. Un serveur API local, également compatible OpenAI, tourne en arrière-plan et est accessible à toute application capable d'appeler un endpoint HTTP.",[31,428,429,431],{},[191,430,415],{},": non-développeurs, membres d'équipe souhaitant évaluer rapidement plusieurs modèles, toute personne intimidée par le terminal.",[67,433,435],{"id":434},"llamacpp-le-contrôle-maximum","llama.cpp : le contrôle maximum",[31,437,438,441],{},[35,439,199],{"href":197,"rel":440},[39]," est le moteur d'inférence C++ qui propulse à la fois Ollama et LM Studio en coulisses. L'utiliser directement vous donne le contrôle sur chaque paramètre de quantisation, stratégie d'allocation mémoire et option matérielle. Il supporte l'inférence CPU seul, les configurations multi-GPU, Metal sur Apple Silicon, ROCm sur AMD et CUDA sur NVIDIA.",[31,443,444],{},"La contrepartie est la complexité: pas de navigateur de modèles, pas de détection automatique du GPU. Mais pour les développeurs optimisant la latence d'inférence en production, ou les chercheurs expérimentant avec la quantisation, l'accès direct en vaut la peine.",[31,446,447,449],{},[191,448,415],{},": développeurs avancés, charges de travail critiques en performance, recherche et expérimentation.",[67,451,453],{"id":452},"jan-ai","Jan AI",[31,455,456,460],{},[35,457,453],{"href":458,"rel":459},"https:\u002F\u002Fjan.ai",[39]," se positionne comme un remplacement local complet pour la pile API OpenAI. Au-delà du texte, il gère images, audio, vidéo et embeddings, tous disponibles via un endpoint local unifié. La compatibilité avec l'API Anthropic a été ajoutée en janvier 2026. Pour les équipes qui font tourner des outils internes appelant déjà l'API OpenAI, Jan AI est le chemin de migration le plus rapide vers une infrastructure entièrement locale.",[31,462,463,465],{},[191,464,415],{},": équipes migrant des applications existantes intégrées OpenAI vers une infrastructure locale.",[67,467,469],{"id":468},"autres-outils-à-connaître","Autres outils à connaître",[31,471,472,479],{},[191,473,474],{},[35,475,478],{"href":476,"rel":477},"https:\u002F\u002Fwww.nomic.ai\u002Fgpt4all",[39],"GPT4All"," inclut une fonctionnalité LocalDocs permettant de discuter avec vos propres fichiers (PDF, Word, dépôts de code) entièrement sur l'appareil. La version 2026 a ajouté le raisonnement sur l'appareil et les appels d'outils. C'est le meilleur choix pour les workflows RAG privés sans infrastructure supplémentaire.",[31,481,482,489],{},[191,483,484],{},[35,485,488],{"href":486,"rel":487},"https:\u002F\u002Fvllm.ai",[39],"vLLM"," est la référence en production pour les équipes qui font tourner des modèles sur infrastructure GPU à grande échelle. Son architecture PagedAttention et son batching continu supportent les déploiements multi-GPU. Pour servir un modèle à des dizaines d'utilisateurs simultanés, vLLM est le bon outil, mais nettement plus complexe à configurer qu'Ollama ou LM Studio.",[67,491,493],{"id":492},"tableau-comparatif","Tableau comparatif",[206,495,496,511],{},[209,497,498],{},[212,499,500,503,506,508],{},[215,501,502],{},"Outil",[215,504,505],{},"Interface",[215,507,415],{},[215,509,510],{},"Complexité",[228,512,513,529,545,561,577,591],{},[212,514,515,520,523,526],{},[233,516,517],{},[35,518,40],{"href":37,"rel":519},[39],[233,521,522],{},"CLI + API",[233,524,525],{},"Développeurs, intégrations",[233,527,528],{},"Faible",[212,530,531,536,539,542],{},[233,532,533],{},[35,534,46],{"href":44,"rel":535},[39],[233,537,538],{},"Graphique",[233,540,541],{},"Non-développeurs, évaluation",[233,543,544],{},"Très faible",[212,546,547,552,555,558],{},[233,548,549],{},[35,550,199],{"href":197,"rel":551},[39],[233,553,554],{},"CLI",[233,556,557],{},"Avancés, performance",[233,559,560],{},"Élevée",[212,562,563,568,571,574],{},[233,564,565],{},[35,566,453],{"href":458,"rel":567},[39],[233,569,570],{},"API",[233,572,573],{},"Migration API OpenAI",[233,575,576],{},"Moyenne",[212,578,579,584,586,589],{},[233,580,581],{},[35,582,478],{"href":476,"rel":583},[39],[233,585,538],{},[233,587,588],{},"Chat avec documents privés (RAG)",[233,590,528],{},[212,592,593,598,601,604],{},[233,594,595],{},[35,596,488],{"href":486,"rel":597},[39],[233,599,600],{},"Serveur",[233,602,603],{},"Production, multi-utilisateurs",[233,605,560],{},[31,607,608],{},"Un workflow pratique adopté par beaucoup de développeurs: LM Studio pour la découverte et l'évaluation initiale des modèles, Ollama pour le développement et l'intégration locale, vLLM lors du passage en production.",[610,611],"hr",{},[26,613,615],{"id":614},"étape-3-choisir-le-bon-modèle-open-source-pour-tourner-en-local","Étape 3: choisir le bon modèle open source pour tourner en local",[31,617,618],{},"Le paysage des modèles a évolué significativement cette année. Plusieurs sorties entre 7 et 27 milliards de paramètres égalent ou dépassent ce qui nécessitait 70B+ de paramètres en 2024.",[75,620,621],{},[31,622,623,626,627,53,632,637],{},[191,624,625],{},"Note",": le marché des modèles open source évolue extrêmement vite : de nouvelles sorties importantes ont lieu toutes les 4 à 8 semaines. Les recommandations ci-dessous sont à jour en mai 2026. Pour suivre l'évolution en temps réel, consultez l'",[35,628,631],{"href":629,"rel":630},"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fopen-llm-leaderboard\u002Fopen_llm_leaderboard",[39],"Open LLM Leaderboard de Hugging Face",[35,633,636],{"href":634,"rel":635},"https:\u002F\u002Flmsys.org\u002Fblog\u002F2023-05-03-arena\u002F",[39],"lmsys.org\u002Fchatbot-arena"," : ils reflètent les benchmarks actuels des modèles disponibles localement.",[67,639,641],{"id":640},"que-signifie-7b-70b-235b","Que signifie \"7B\", \"70B\", \"235B\"?",[31,643,644,645,648,649,652],{},"Le ",[191,646,647],{},"\"B\""," signifie ",[191,650,651],{},"milliards"," (billion en anglais). Un modèle 70B contient 70 milliards de paramètres : des valeurs numériques apprises pendant l'entraînement qui déterminent comment le modèle traite et génère du texte. Plus il y en a, plus le modèle est capable en général. Mais plus il y en a, plus il faut de VRAM pour le charger, et plus l'inférence est lente.",[31,654,655,656,658,659,662,663,666],{},"La règle pratique: un modèle ",[191,657,249],{}," convient au chat général sur un GPU entrée de gamme; un ",[191,660,661],{},"14B"," commence à mieux traiter les tâches complexes; un ",[191,664,665],{},"70B"," (quantisé) s'approche des gros modèles propriétaires mais nécessite 24 Go de VRAM minimum.",[67,668,670],{"id":669},"paramètres-totaux-vs-paramètres-actifs-à-linférence-architecture-moe","Paramètres totaux vs paramètres actifs à l'inférence (architecture MoE)",[31,672,673,674,677,678,681,682,685],{},"Certains modèles affichent deux chiffres: par exemple ",[191,675,676],{},"\"235B-A22B\""," ou ",[191,679,680],{},"\"109B\u002F17B actifs\"",". Cela désigne une architecture ",[191,683,684],{},"Mixture of Experts (MoE)",".",[31,687,688],{},"Le Mixture of Experts (MoE) est une approche d’optimisation des modèles IA qui consiste à activer uniquement certaines parties du réseau de neurones en fonction de la requête, plutôt que d’utiliser l’ensemble du modèle à chaque exécution.",[31,690,691,692,695],{},"Dans un modèle dense classique, tous les paramètres sont utilisés pour chaque token généré. Dans un modèle MoE, les paramètres sont regroupés en \"experts\" spécialisés, et pour chaque token, seule une fraction de ces experts est activée. Les autres restent ",[191,693,694],{},"fermés"," (inactifs) pendant ce calcul précis.",[31,697,698],{},"Concrètement:",[100,700,701,711],{},[103,702,703,706,707,710],{},[191,704,705],{},"Llama 4 Scout",": 109 milliards de paramètres au total, mais seulement ",[191,708,709],{},"17B actifs"," à chaque inférence",[103,712,713,716,717,720],{},[191,714,715],{},"DeepSeek V4 Flash",": 284 milliards au total, mais seulement ",[191,718,719],{},"13B actifs"," à l'inférence",[31,722,723,724,727,728,731],{},"Cela a deux conséquences distinctes sur votre machine. La ",[191,725,726],{},"vitesse d'inférence"," (tokens par seconde) correspond aux paramètres actifs : un modèle MoE avec 13B actifs génère des tokens aussi vite qu'un modèle dense 13B. En revanche, la ",[191,729,730],{},"mémoire nécessaire pour charger le modèle"," correspond aux paramètres totaux : tous les experts doivent rester en mémoire (VRAM ou RAM), même inactifs. Un DeepSeek V4 Flash à 284B nécessite ainsi environ 160 Go de mémoire totale pour charger l'ensemble des poids, malgré sa rapidité à l'inférence.",[67,733,735],{"id":734},"meilleur-modèle-généraliste-llama-4-scout-meta","Meilleur modèle généraliste: Llama 4 Scout (Meta)",[31,737,738,742],{},[35,739,705],{"href":740,"rel":741},"https:\u002F\u002Fhuggingface.co\u002Fmeta-llama\u002FLlama-4-Scout-17B-16E",[39]," (64GB) est un modèle Mixture-of-Experts de 109 milliards de paramètres total avec seulement 17B actifs pendant l'inférence. Sa fenêtre de contexte est de 10 millions de tokens et il est nativement multimodal (texte et images).",[31,744,745,748],{},[191,746,747],{},"VRAM requise",": Scout en quantisation 1.78-bit tient sur un GPU de 24 Go (RTX 4090) à environ 20 tokens\u002Fseconde. En INT4 standard, il faut 48-55 Go (deux H100 ou une H100 80 Go). Pour la plupart des usages grand public, Scout reste un modèle orienté infrastructure. Les variantes Q4 sur GPU 24 Go existent mais restent limitées en débit.",[31,750,751,754],{},[191,752,753],{},"Licence",": Meta Llama 4 Community License (usage commercial autorisé avec attribution).",[67,756,758],{"id":757},"meilleur-pour-les-ordinateurs-portables-et-ledge-gemma-4-e4b-google","Meilleur pour les ordinateurs portables et l'edge: Gemma 4 E4B (Google)",[31,760,761,766],{},[35,762,765],{"href":763,"rel":764},"https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fgemma-4-E4B",[39],"Gemma 4 E4B"," (9.6GB) est conçu pour les appareils légers. Il est nativement multimodal (texte, image, vidéo, audio) et tourne sur MacBook Apple Silicon, machines avec graphiques intégrés et appareils de type Raspberry Pi.",[31,768,769,771],{},[191,770,747],{},": 5 Go minimum (Q4_K_M); 6-8 Go recommandés pour un usage confortable au quotidien. Une GPU de 8 Go (RTX 3070, etc.) offre une expérience fluide.",[31,773,774,776],{},[191,775,753],{},": Apache 2.0.",[67,778,780],{"id":779},"meilleur-pour-le-code-haute-performance-deepseek-v4-flash-284b13b-actifs","Meilleur pour le code haute performance: DeepSeek V4 Flash (284B\u002F13B actifs)",[31,782,783,787,788,791],{},[35,784,715],{"href":785,"rel":786},"https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V4-Flash",[39]," uniquement en preview et en ollama cloud pour le moment, sorti en avril 2026, obtient ",[191,789,790],{},"91,6"," sur LiveCodeBench et 94,8 sur HMMT 2026. C'est un modèle MoE de 284 milliards de paramètres avec seulement 13B actifs à l'inférence. Il supporte une fenêtre de contexte d'1 million de tokens et propose trois modes de raisonnement : réponse directe, réflexion standard, et raisonnement approfondi.",[31,793,794,797,798,801],{},[191,795,796],{},"Important",": DeepSeek V4 Flash est disponible sur Ollama via un endpoint cloud (",[107,799,800],{},"deepseek-v4-flash:cloud","). Contrairement aux autres modèles de cette liste, il n'est pas téléchargeable localement : les appels sont routés vers l'API DeepSeek. À utiliser pour des capacités d'agents avancées via l'interface Ollama, mais pas pour un usage 100% local et hors ligne.",[31,803,804,807,808,813],{},[191,805,806],{},"Pour le code sur GPU grand public (16-17 Go VRAM)",": ",[35,809,812],{"href":810,"rel":811},"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3.6-27B",[39],"Qwen3.6-27B"," reste la référence accessible, avec 77,2% sur SWE-bench Verified et Apache 2.0.",[31,815,816,818],{},[191,817,753],{},": MIT.",[67,820,822],{"id":821},"meilleur-pour-le-raisonnement-phi-4-reasoning-plus-microsoft-14b","Meilleur pour le raisonnement: Phi-4 Reasoning Plus (Microsoft, 14B)",[31,824,825,830],{},[35,826,829],{"href":827,"rel":828},"https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002FPhi-4-reasoning-plus",[39],"Phi-4 Reasoning Plus"," (9,1GB) de Microsoft dépasse Llama 3.1 70B sur les benchmarks de raisonnement mathématique et de logique multi-étapes avec seulement 14 milliards de paramètres. En Q4_K_M, il nécessite environ 7,8 Go de VRAM, ce qui le rend accessible sur une RTX 3080 ou une RTX 4070.",[31,832,833,818],{},[191,834,753],{},[67,836,838],{"id":837},"généraliste-haute-performance-mistral-medium-35-128b","Généraliste haute performance: Mistral Medium 3.5 (128B)",[31,840,841,846,847,850],{},[35,842,845],{"href":843,"rel":844},"https:\u002F\u002Follama.com\u002Flibrary\u002Fmistral-medium-3.5",[39],"Mistral Medium 3.5"," (80GB) combine instruction-following, raisonnement et code dans un seul modèle dense de 128 milliards de paramètres. Il obtient ",[191,848,849],{},"77,6%"," sur SWE-bench Verified, supporte la vision, est multilingue natif et expose des appels de fonctions natifs avec sortie JSON. Sa fenêtre de contexte est de 256K tokens.",[31,852,853,856,857,685],{},[191,854,855],{},"Infrastructure requise",": modèle dense de 128B, environ 70-80 Go en Q4. Nécessite plusieurs GPU ou une station de travail dédiée pour fonctionner à pleine vitesse. Disponible directement via ",[107,858,859],{},"ollama run mistral-medium-3.5",[31,861,862,864],{},[191,863,753],{},": Modified MIT (usage commercial autorisé, avec exceptions pour les entreprises dépassant un certain seuil de revenus).",[67,866,868],{"id":867},"agent-autonome-et-coding-longue-durée-kimi-k26-moonshot-ai","Agent autonome et coding longue durée: Kimi K2.6 (Moonshot AI)",[31,870,871,876],{},[35,872,875],{"href":873,"rel":874},"https:\u002F\u002Follama.com\u002Flibrary\u002Fkimi-k2.6",[39],"Kimi K2.6"," est conçu pour les tâches de coding complexes et les workflows autonomes longue durée. Il peut orchestrer jusqu'à 300 sous-agents exécutant 4 000 étapes coordonnées, supporte la vision (texte et image) et dispose d'une fenêtre de 256K tokens.",[31,878,879,881,882,885],{},[191,880,796],{},": Kimi K2.6 est disponible sur Ollama via un endpoint cloud (",[107,883,884],{},"kimi-k2.6:cloud","). Contrairement aux autres modèles de cette liste, il n'est pas téléchargeable localement : les appels sont routés vers l'API Moonshot AI. À utiliser pour des capacités d'agents avancées via l'interface Ollama, mais pas pour un usage 100% local et hors ligne.",[31,887,888,890],{},[191,889,753],{},": open-source via API Moonshot AI.",[67,892,894],{"id":893},"tableau-de-sélection-rapide","Tableau de sélection rapide",[206,896,897,912],{},[209,898,899],{},[212,900,901,904,907,910],{},[215,902,903],{},"Besoin",[215,905,906],{},"Modèle",[215,908,909],{},"Mémoire requise",[215,911,753],{},[228,913,914,930,946,961,977,992,1008],{},[212,915,916,919,924,927],{},[233,917,918],{},"Laptop \u002F edge",[233,920,921],{},[35,922,765],{"href":763,"rel":923},[39],[233,925,926],{},"5-8 Go VRAM",[233,928,929],{},"Apache 2.0",[212,931,932,935,940,943],{},[233,933,934],{},"Raisonnement accessible",[233,936,937],{},[35,938,829],{"href":827,"rel":939},[39],[233,941,942],{},"~8 Go VRAM",[233,944,945],{},"MIT",[212,947,948,951,956,959],{},[233,949,950],{},"Code accessible (GPU 16 Go)",[233,952,953],{},[35,954,812],{"href":810,"rel":955},[39],[233,957,958],{},"16-17 Go VRAM",[233,960,929],{},[212,962,963,966,971,974],{},[233,964,965],{},"Chat généraliste (infra)",[233,967,968],{},[35,969,705],{"href":740,"rel":970},[39],[233,972,973],{},"24 Go VRAM (1.78-bit)",[233,975,976],{},"Community",[212,978,979,982,987,990],{},[233,980,981],{},"Code haute performanc (cloud Ollama) e",[233,983,984],{},[35,985,715],{"href":785,"rel":986},[39],[233,988,989],{},"API cloud",[233,991,945],{},[212,993,994,997,1002,1005],{},[233,995,996],{},"Généraliste + vision (serveur)",[233,998,999],{},[35,1000,845],{"href":843,"rel":1001},[39],[233,1003,1004],{},"~80 Go (multi-GPU)",[233,1006,1007],{},"Modified MIT",[212,1009,1010,1013,1018,1020],{},[233,1011,1012],{},"Agent autonome (cloud Ollama)",[233,1014,1015],{},[35,1016,875],{"href":873,"rel":1017},[39],[233,1019,989],{},[233,1021,1022],{},"Open-source",[26,1024,1026],{"id":1025},"étape-4-votre-première-ia-locale-en-pratique","Étape 4: votre première IA locale en pratique",[31,1028,1029,1032,1033,1036,1037,1040],{},[191,1030,1031],{},"1. Testez votre matériel"," : ouvrez ",[35,1034,52],{"href":50,"rel":1035},[39]," dans un navigateur. Notez quels modèles obtiennent la note \"Tourne parfaitement\" ou \"Tourne bien\". Pour plus de détails, installez ",[35,1038,58],{"href":56,"rel":1039},[39]," et lancez-le depuis un terminal.",[31,1042,1043,1046,1047,1051],{},[191,1044,1045],{},"2. Installez Ollama"," : téléchargez l'installeur sur ",[35,1048,1050],{"href":37,"rel":1049},[39],"ollama.com",". Sur macOS, il tourne en tant qu'application dans la barre de menu. Sur Linux, une seule commande curl gère l'installation:",[380,1053,1055],{"className":382,"code":1054,"language":384,"meta":385,"style":385},"curl -fsSL https:\u002F\u002Follama.com\u002Finstall.sh | sh\n",[107,1056,1057],{"__ignoreMap":385},[389,1058,1059,1062,1066,1069,1073],{"class":391,"line":392},[389,1060,1061],{"class":395},"curl",[389,1063,1065],{"class":1064},"sSmKr"," -fsSL",[389,1067,1068],{"class":399}," https:\u002F\u002Follama.com\u002Finstall.sh",[389,1070,1072],{"class":1071},"scrqX"," |",[389,1074,1075],{"class":395}," sh\n",[31,1077,1078,1081],{},[191,1079,1080],{},"3. Téléchargez et lancez votre premier modèle"," selon votre matériel :",[380,1083,1085],{"className":382,"code":1084,"language":384,"meta":385,"style":385},"# Ordinateur portable sans GPU dédié (\u003C 8 Go VRAM)\nollama run gemma4:e4b\n\n# GPU milieu de gamme (8-12 Go VRAM) - usage général\nollama run mistral-small3\n\n# GPU puissant (16-17 Go VRAM) - code\nollama run qwen3.6:27b\n\n# GPU haut de gamme (24 Go VRAM, quantisation agressive) - généraliste\nollama run llama4:scout\n",[107,1086,1087,1093,1103,1110,1116,1126,1131,1137,1147,1152,1158],{"__ignoreMap":385},[389,1088,1089],{"class":391,"line":392},[389,1090,1092],{"class":1091},"sjThu","# Ordinateur portable sans GPU dédié (\u003C 8 Go VRAM)\n",[389,1094,1096,1098,1100],{"class":391,"line":1095},2,[389,1097,396],{"class":395},[389,1099,400],{"class":399},[389,1101,1102],{"class":399}," gemma4:e4b\n",[389,1104,1106],{"class":391,"line":1105},3,[389,1107,1109],{"emptyLinePlaceholder":1108},true,"\n",[389,1111,1113],{"class":391,"line":1112},4,[389,1114,1115],{"class":1091},"# GPU milieu de gamme (8-12 Go VRAM) - usage général\n",[389,1117,1119,1121,1123],{"class":391,"line":1118},5,[389,1120,396],{"class":395},[389,1122,400],{"class":399},[389,1124,1125],{"class":399}," mistral-small3\n",[389,1127,1129],{"class":391,"line":1128},6,[389,1130,1109],{"emptyLinePlaceholder":1108},[389,1132,1134],{"class":391,"line":1133},7,[389,1135,1136],{"class":1091},"# GPU puissant (16-17 Go VRAM) - code\n",[389,1138,1140,1142,1144],{"class":391,"line":1139},8,[389,1141,396],{"class":395},[389,1143,400],{"class":399},[389,1145,1146],{"class":399}," qwen3.6:27b\n",[389,1148,1150],{"class":391,"line":1149},9,[389,1151,1109],{"emptyLinePlaceholder":1108},[389,1153,1155],{"class":391,"line":1154},10,[389,1156,1157],{"class":1091},"# GPU haut de gamme (24 Go VRAM, quantisation agressive) - généraliste\n",[389,1159,1161,1163,1165],{"class":391,"line":1160},11,[389,1162,396],{"class":395},[389,1164,400],{"class":399},[389,1166,1167],{"class":399}," llama4:scout\n",[31,1169,1170],{},"Le premier lancement télécharge le modèle (2 à 80 Go selon le modèle). Les lancements suivants sont instantanés.",[31,1172,1173,1176,1177,1182,1183,1186],{},[191,1174,1175],{},"4. Connectez une interface"," : si vous voulez une interface de chat plutôt qu'un terminal, ",[35,1178,1181],{"href":1179,"rel":1180},"https:\u002F\u002Fopenwebui.com",[39],"Open WebUI"," est l'option la plus populaire. Il se connecte automatiquement à votre instance Ollama locale et est disponible en application desktop native (sans Docker). ",[35,1184,46],{"href":44,"rel":1185},[39]," se connecte également à Ollama comme backend.",[31,1188,1189,1192,1193,1196],{},[191,1190,1191],{},"5. Benchmarkez votre configuration"," : installez ",[35,1194,58],{"href":56,"rel":1195},[39]," pour voir vos tokens par seconde réels et identifier si un niveau de quantisation différent améliorerait les performances sur votre matériel spécifique.",[26,1198,1200],{"id":1199},"conclusion","Conclusion",[31,1202,1203],{},"Faire tourner une IA en local n'est plus un projet de week-end réservé aux passionnés de matériel. En 2026, un GPU milieu de gamme et quelques minutes de configuration suffisent à disposer d'un modèle de langage capable, privé et sans abonnement sur votre propre machine.",[31,1205,1206,1207,677,1210,1213,1214,677,1217,1220],{},"Le chemin pratique est simple: testez votre machine avec ",[35,1208,52],{"href":50,"rel":1209},[39],[35,1211,58],{"href":56,"rel":1212},[39],", installez ",[35,1215,40],{"href":37,"rel":1216},[39],[35,1218,46],{"href":44,"rel":1219},[39]," selon votre niveau de confort avec la ligne de commande, et choisissez un modèle adapté à votre VRAM. Pour la plupart des configurations, cela signifie Gemma 4 E4B (ordinateurs portables, 5-8 Go VRAM), Mistral Small 3 (usage général, 8-12 Go), ou Qwen3.6-27B (code, 16-17 Go). Pour les équipes avec infrastructure, DeepSeek V4 Flash et Mistral Medium 3.5 représentent l'état de l'art en mai 2026.",[31,1222,1223,1224,53,1227,1232],{},"Le marché évolue à un rythme inhabituel : de nouveaux modèles importants sortent toutes les 4 à 8 semaines. L'",[35,1225,631],{"href":629,"rel":1226},[39],[35,1228,1231],{"href":1229,"rel":1230},"https:\u002F\u002Farena.ai\u002Fleaderboard\u002Ftext",[39],"Chatbot Arena"," restent les références pour suivre ce qui change.",[1234,1235,1236],"style",{},"html pre.shiki code .sRQ1T, html code.shiki .sRQ1T{--shiki-default:#FE4450}html pre.shiki code .soy-K, html code.shiki .soy-K{--shiki-default:#BBBBBB}html .default .shiki span {color: var(--shiki-default);background: var(--shiki-default-bg);font-style: var(--shiki-default-font-style);font-weight: var(--shiki-default-font-weight);text-decoration: var(--shiki-default-text-decoration);}html .shiki span {color: var(--shiki-default);background: var(--shiki-default-bg);font-style: var(--shiki-default-font-style);font-weight: var(--shiki-default-font-weight);text-decoration: var(--shiki-default-text-decoration);}html pre.shiki code .sSmKr, html code.shiki .sSmKr{--shiki-default:#F97E72}html pre.shiki code .scrqX, html code.shiki .scrqX{--shiki-default:#FEDE5D}html pre.shiki code .sjThu, html code.shiki .sjThu{--shiki-default:#848BBD;--shiki-default-font-style:italic}",{"title":385,"searchDepth":1095,"depth":1095,"links":1238},[1239,1243,1244,1250,1258,1269,1270],{"id":28,"depth":1095,"text":29,"children":1240},[1241,1242],{"id":69,"depth":1105,"text":70},{"id":97,"depth":1105,"text":98},{"id":135,"depth":1095,"text":136},{"id":151,"depth":1095,"text":152,"children":1245},[1246,1247,1248,1249],{"id":165,"depth":1105,"text":166},{"id":178,"depth":1105,"text":179},{"id":203,"depth":1105,"text":204},{"id":296,"depth":1105,"text":297},{"id":360,"depth":1095,"text":361,"children":1251},[1252,1253,1254,1255,1256,1257],{"id":367,"depth":1105,"text":368},{"id":419,"depth":1105,"text":420},{"id":434,"depth":1105,"text":435},{"id":452,"depth":1105,"text":453},{"id":468,"depth":1105,"text":469},{"id":492,"depth":1105,"text":493},{"id":614,"depth":1095,"text":615,"children":1259},[1260,1261,1262,1263,1264,1265,1266,1267,1268],{"id":640,"depth":1105,"text":641},{"id":669,"depth":1105,"text":670},{"id":734,"depth":1105,"text":735},{"id":757,"depth":1105,"text":758},{"id":779,"depth":1105,"text":780},{"id":821,"depth":1105,"text":822},{"id":837,"depth":1105,"text":838},{"id":867,"depth":1105,"text":868},{"id":893,"depth":1105,"text":894},{"id":1025,"depth":1095,"text":1026},{"id":1199,"depth":1095,"text":1200},"Comment faire tourner une IA en local en 2026? Comparez Ollama, LM Studio et llama.cpp, testez votre machine avec canirun.ai et choisissez le bon modèle open source.","md",{},"\u002Farticles\u002Fia-local","2026-05-11",{"title":18,"description":1271},"articles\u002Fia-local","zmMIHFT68yUGlRu9ak48SDeqCkzOIGiTB90Xonq0ljs",{"left":4,"top":4,"width":5,"height":5,"rotate":4,"vFlip":6,"hFlip":6,"body":1280},"\u003Cpath fill=\"currentColor\" d=\"M4 21V9l8-6l8 6v12h-6v-7h-4v7z\"\u002F>",["Island",1282],{"key":1283,"result":1284},"Brand_bAcjTzQpW6OVpFK319jfMki97vH1GrZiqHmeI7Xg4o",{"head":1285},{},["Island",1287],{"key":1288,"result":1289},"ArticleDetails_WLkq10xy12DqNAqOlqfRAJSnel9i7klnU3j7Fgmk4",{"head":1290},{},{"left":4,"top":4,"width":5,"height":5,"rotate":4,"vFlip":6,"hFlip":6,"body":1292},"\u003Cpath fill=\"currentColor\" d=\"M6 22q-.825 0-1.412-.587T4 20V10q0-.825.588-1.412T6 8h3v2H6v10h12V10h-3V8h3q.825 0 1.413.588T20 10v10q0 .825-.587 1.413T18 22zm5-6V4.825l-1.6 1.6L8 5l4-4l4 4l-1.4 1.425l-1.6-1.6V16z\"\u002F>",1778511433342]