Alors que les géants de la Silicon Valley se battent à coup de milliards de dollars et de serveurs gros comme des villes, notre pépite française Mistral sort de son chapeau la famille Mistral 3. L’objectif ? Prouver qu’on peut jouer dans la cour des grands modèles « frontier » sans pour autant hypothéquer son infrastructure sur dix générations. Au menu : un modèle large multimodal pour l’élite, et une armada de petits modèles nerveux pour le quotidien.

Mistral 3 - © Mistral
Mistral 3 - © Mistral

Le monde de l’IA ressemble de plus en plus à une course de dragsters : ça va très vite, ça fait beaucoup de bruit, et ça consomme une énergie folle. Dans ce vacarme, Mistral continue de tracer sa route avec une obstination toute hexagonale : l’efficience avant tout. Plutôt que de simplement gonfler les muscles, la start-up parisienne dégaine Mistral Large 3 et ses petits frères Ministral, avec une promesse qui sonne doux aux oreilles des DSI : la performance de GPT-5, mais à un tarif qui ne fera pas s’évanouir votre directeur financier.

Mistral 3, la double lame de l’IA française

Ne nous y trompons pas, Mistral Large 3 n’est pas là pour faire de la figuration. Ce modèle « Mixture-of-Experts » de 41 milliards de paramètres actifs (pour 675 au total) vient directement chasser sur les terres des modèles propriétaires les plus onéreux. Capable de jongler avec le texte et l’image, il se paie le luxe d’être multilingue et surtout open weight. C’est un peu comme si on vous donnait les plans d’une Formule 1 en vous disant « allez-y, vous pouvez la garer dans votre propre garage ».

Le chat Mistral
  • Peut tourner en local selon votre configuration
  • Open-source
  • API peu coûteuse

Mais là où Mistral devient franchement taquin, c’est sur la facture. Avec un coût annoncé autour de 0,5 dollar le million de tokens en entrée, on est très loin des tarifs parfois stratosphériques d’OpenAI (1,25 $/million de tokens pour GPT-5, par exemple) ou des modèles de raisonnement les plus pointus. Pour une entreprise qui doit traiter des montagnes de documents juridiques ou techniques, la différence de prix n’est pas une paille, c’est tout le champ de blé. Et pour ceux qui ont des contraintes de souveraineté ou de latence, les petits modèles denses Ministral 3 (14B, 8B, 3B) sont là pour tourner directement à la maison, voire sur des machines modestes. C’est ça, la vraie force de frappe : ne pas obliger tout le monde à louer un supercalculateur pour résumer un e-mail.

La guerre de l’open source : tout le monde veut sa part du gâteau

Mistral n’est plus seul sur ce créneau de l’IA ouverte et efficace. En 2025, c’est même l’embouteillage. OpenAI a fini par lâcher du lest avec GPT-OSS, tentant de séduire ceux qui veulent garder la main sur leurs modèles. De l’autre côté du globe, les chinois de Moonshot AI avec Kimi K2 et DeepSeek avec sa V3.2 poussent des architectures MoE monstrueuses ou des mécanismes d’attention économes qui font trembler les benchmarks.

Pourtant, Mistral garde un atout dans sa manche : la lisibilité. Pas besoin d’avoir un doctorat en architecture neuronale pour comprendre leur offre. D’un côté le haut de gamme pour les tâches complexes, de l’autre les ouvriers spécialisés pour le turbin quotidien, le tout avec une licence Apache 2.0 qui rassure tout le monde. Dans cette foire d’empoigne où chaque laboratoire sort un nouveau modèle « révolutionnaire » tous les mardis, la constance de Mistral à livrer des outils utilisables et économes fait figure d’exception. La bataille de l’intelligence artificielle ne se gagnera peut-être pas à celui qui a le plus gros cerveau, mais à celui qui a le plus malin. Et à ce petit jeu, le coq français n’a clairement pas fini de chanter.

Source : Mistral

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025
04 février 2025 à 14h11
Comparatifs services