La start-up française Mistral AI dévoile ses nouveaux modèles d'IA, baptisés Magistral, conçus spécifiquement pour le raisonnement. Leur particularité : une capacité à détailler leurs processus logiques, offrant une traçabilité accrue pour lutter contre le problème persistant des « hallucinations » des intelligences artificielles.

- Mistral AI lance Magistral, des modèles d'IA axés sur la transparence du raisonnement pour éviter les "hallucinations".
- Magistral décompose les tâches en étapes logiques, offrant une traçabilité essentielle pour les secteurs à hauts risques.
- Disponible en versions open source et propriétaire, Magistral cible les professionnels nécessitant une logique rigoureuse et vérifiable.
L'un des freins majeurs à l'adoption des grands modèles de langage (Large Language Models ou LLM) dans les environnements professionnels reste leur tendance à générer des informations incorrectes ou inventées, un phénomène connu sous le nom d'hallucination. C'est pour répondre à ce défi de fiabilité que le champion tricolore de l'IA, qui a récemment consolidé ses ambitions avec un partenariat d'envergure aux côtés de Nvidia, propose une nouvelle approche. Avec sa série Magistral, l'entreprise parisienne ne cherche pas seulement la performance brute, mais avant tout la transparence et la robustesse du raisonnement.

- Peut tourner en local selon votre configuration
- Open-source
- API peu coûteuse
Magistral, la traçabilité comme rempart aux « hallucinations »
Le principal atout de la famille Magistral réside dans sa capacité de chain-of-thought (chaîne de pensée). Concrètement, le modèle ne se contente pas de fournir une réponse finale, mais peut décomposer une tâche complexe en une série de sous-étapes logiques et les présenter à l'utilisateur. Cette transparence permet de vérifier la validité du raisonnement suivi par l'IA, une fonctionnalité cruciale pour identifier et corriger les erreurs potentielles avant qu'elles ne deviennent problématiques. Chaque conclusion peut ainsi être retracée à travers ses étapes logiques, fournissant une piste d'audit indispensable dans de nombreux secteurs.
Fidèle à sa stratégie qui l'a déjà vu proposer des alternatives aux géants technologiques avec des modèles plus compacts, Mistral lance Magistral en deux versions. La première, Magistral Small, est un modèle open source de 24 milliards de paramètres, disponible sous licence Apache 2.0, qui permet à quiconque de l'utiliser ou de le modifier librement. La seconde, Magistral Medium, est une version propriétaire plus puissante, accessible via les services cloud de l'entreprise et destinée aux applications commerciales exigeant des capacités de raisonnement avancées.
Pour évaluer ses nouveaux modèles, Mistral les a confrontés à des problèmes issus d'un examen de qualification pour les Olympiades de mathématiques américaines de 2024. Magistral Medium a obtenu un score de 73,6 % avec ses paramètres par défaut, et jusqu'à 90 % avec une configuration optimisée pour la qualité. De son côté, la version Small a atteint respectivement 70,7 % et 83,3 %. Ces chiffres illustrent la hiérarchie de performance entre les deux modèles tout en positionnant Magistral comme une solution pertinente pour les tâches nécessitant une logique rigoureuse.
À qui s'adressent ces nouveaux modèles ?
Avec sa capacité de raisonnement traçable, Magistral vise particulièrement les professionnels des secteurs où la conformité et la vérifiabilité sont non négociables. Dans les domaines juridique, financier, de la santé ou gouvernemental, l'argument « l'IA l'a dit » est irrecevable. La possibilité de suivre le cheminement logique du modèle pour chaque conclusion apportée constitue une garantie essentielle pour ces industries à hauts risques. Magistral se positionne ainsi comme un outil d'aide à la décision pour la planification stratégique ou l'évaluation de risques multifactoriels.
Les métiers de la tech ne sont pas en reste. Magistral a été pensé pour améliorer la planification de projets, la conception d'architectures backend ou encore l'ingénierie des données. Les développeurs peuvent bénéficier d'un modèle capable de séquencer des actions complexes, impliquant par exemple des appels à des outils externes ou des API, avec une meilleure cohérence que les modèles non spécialisés dans le raisonnement. Cela ouvre la voie à une automatisation plus fiable des tâches de développement complexes.
Outre ses capacités de raisonnement, Magistral est un modèle multilingue, prenant en charge des dizaines de langues, dont le français, l'allemand, l'espagnol ou encore le japonais et l'arabe. Il dispose d'une fenêtre de contexte théorique de 128 000 tokens, bien que Mistral recommande de ne pas dépasser 40 000 pour conserver des performances optimales. Les premiers tests suggèrent également une aptitude intéressante pour des usages créatifs, comme l'écriture de récits, où le modèle peut produire des textes cohérents et structurés.
Source : Mistral
04 février 2025 à 14h11