La startup française Mistral AI vient de dévoiler Mistral 3, sa nouvelle génération de modèles d'intelligence artificielle open source. Une offensive majeure face à OpenAI et Google.
Mistral AI, la pépite française de l'intelligence artificielle (IA) vient de lever le voile sur Mistral 3, une famille complète de dix modèles qui ambitionne de redéfinir les standards de l'IA ouverte. Derrière cette annonce se cache un message clair : l'Europe entend peser dans la bataille mondiale sur ce terrain de jeu ô combien stratégique, dominé jusqu'ici par les géants américains et les challengers chinois.
Une ascension fulgurante
Fondée en avril 2023 par trois anciens chercheurs de Google DeepMind et Meta, Mistral AI incarne la success-story de la French Tech. Arthur Mensch, Guillaume Lample et Timothée Lacroix, tous passés par l'École Polytechnique, ont bâti en moins de trois ans la première « décacorne » française. Le terme désigne une startup valorisée à plus de dix milliards d'euros. En septembre 2025, une levée de fonds historique de 1,7 milliard d'euros, menée par le néerlandais ASML, a porté la valorisation de l'entreprise à 11,7 milliards d'euros. Guillaume Lample n'est pas un inconnu dans le monde de l'IA : il est l'un des créateurs de LLaMA, le modèle de langage de Meta qui a contribué à démocratiser l'IA open source. Un pedigree qui inspire confiance aux investisseurs comme aux développeurs.
Mistral Large 3, le fer de lance
Au sommet de la nouvelle gamme trône Mistral Large 3, un modèle qui joue dans la cour des grands. Son architecture dite « Mixture of Experts » mobilise 675 milliards de paramètres au total, dont 41 milliards activés simultanément pour chaque requête. Cette approche permet d'optimiser les performances tout en maîtrisant la consommation de ressources. Entraîné sur 3 000 GPU Nvidia H200, le modèle revendique une parité de performances avec GPT-4o d'OpenAI, tout en coûtant 80 % moins cher à l'utilisation. Sur le classement LMArena, référence du secteur, Mistral Large 3 se hisse à la deuxième place mondiale des modèles open source non dédiés au raisonnement. Sa fenêtre de contexte de 256 000 tokens lui permet de traiter des documents volumineux d'un seul tenant.
Modèles de poche
L'autre grande nouveauté réside dans la gamme Ministral 3, composée de trois modèles compacts de 3, 8 et 14 milliards de paramètres. Contrairement à leur grand frère, ces modèles dits « denses » sont conçus pour fonctionner sur des appareils aux ressources limitées : smartphones, robots, drones ou objets connectés. Le plus petit d'entre eux peut tourner sur un simple MacBook Air M1 avec moins de 3 Go de mémoire vive, générant plus de 20 tokens par seconde. Chaque taille est déclinée en trois versions : Base pour le pré-entraînement, Instruct pour les conversations, et Reasoning pour la résolution de problèmes complexes. En mode raisonnement, le Ministral 14B atteint 85 % de précision sur le benchmark AIME 2025, un résultat remarquable pour un modèle de cette catégorie.
Position stratégique
Mistral AI fait le choix radical de publier l'intégralité de ses modèles sous licence Apache 2.0, la plus permissive du marché. Concrètement, n'importe quelle entreprise peut utiliser, modifier et redistribuer ces modèles sans restriction, y compris à des fins commerciales. Une stratégie à contre-courant d'OpenAI, qui garde jalousement le code de ses modèles. Pour la startup française, l'open source constitue un levier de conquête. En toile de fond, un enjeu politique majeur : celui de la souveraineté européenne en matière d'intelligence artificielle. Les modèles ont été spécifiquement entraînés sur toutes les langues de l'Union européenne ainsi que sur de nombreuses langues asiatiques, là où la concurrence se concentre souvent sur l'anglais. Avec un carnet de commandes atteignant 1,4 milliard d'euros et des revenus annualisés de 300 millions d'euros, Mistral AI prouve qu'une alternative européenne crédible peut exister face aux titans américains et chinois.


