
MiniMax Lance des Modèles M2.5 à Bas Coût et Haute Performance
TL;DR
La start-up chinoise d'intelligence artificielle, MiniMax, a annoncé aujourd'hui le lancement de son modèle de langage M2.
La start-up chinoise d'intelligence artificielle, MiniMax, a annoncé aujourd'hui le lancement du modèle de langage M2.5 en deux versions, promettant de démocratiser l'accès à l'intelligence artificielle avancée avec des coûts considérablement réduits. Le M2.5 coûte jusqu'à 95 % de moins par rapport à des modèles de pointe comme Claude Opus 4.6, remettant en question l'investissement traditionnel élevé dans la technologie d'IA conventionnelle.
Bien que le modèle soit annoncé comme "open source", les détails concernant les poids et les conditions de licence n'ont pas encore été publiés. MiniMax se concentre sur l'accessibilité, offrant des services via sa API et ses partenaires.
Les modèles offrent des capacités qui rivalisent avec celles de géants tels que Google et Anthropic, étant particulièrement efficaces dans les tâches d'entreprise avec automatisation de documents de bureau, comme Word, Excel et PowerPoint. "Ce lancement signifie un changement de perception concernant l'IA, passant d'un outil de conversation à un agent de travail efficace", a déclaré l'équipe de MiniMax.
Avec 30 % des tâches dans le bureau de MiniMax terminées par le modèle M2.5 et 80 % du nouveau code généré par celui-ci, l'entreprise démontre sa confiance en son efficacité. Selon le blog de MiniMax, "le M2.5 offre des possibilités illimitées pour le développement et l'exploitation d'agents dans l'économie".
Technologie : efficacité grâce à l'architecture MoE
L'efficacité du modèle M2.5 repose sur l'architecture appelée Mixture of Experts (MoE). Cette technique permet d'activer simultanément seulement 10 milliards des 230 milliards de paramètres pour la génération de chaque mot, maintenant la profondeur de raisonnement d'un grand modèle tout en opérant avec l'agilité d'un modèle plus petit.
Pour entraîner le M2.5, MiniMax a développé un cadre d'Apprentissage par Renforcement appelé Forge. Au cours du podcast ThursdAI, l'ingénieure Olive Song a souligné que cette technique était essentielle pour maximiser les performances avec un nombre réduit de paramètres.
De plus, MiniMax utilise une approche mathématique appelée CISPO (Clipping Importance Sampling Policy Optimization) pour garantir la stabilité lors de l'entraînement intensif, permettant au M2.5 de développer une "Mentalité d'Architecte", apprenant à planifier des projets avant la codification.
Performance et comparaison avec les modèles leaders
La performance du M2.5 le positionne parmi les meilleurs du secteur. En se rapprochant de la performance du Claude Opus 4.6, les nouveaux résultats de benchmark du M2.5 incluent :
- SWE-Bench Vérifié : 80.2 % - Vitesses comparables à celles du Claude Opus 4.6.
- BrowseComp : 76.3 % - Leader en recherches et utilisation d'outils.
- Multi-SWE-Bench : 51.3 % - Performance de pointe en codage multilingue.
- BFCL (Appel d'Outil) : 76.8 % - Haut niveau de précision dans les flux de travail.
Dans le podcast ThursdAI, il a été souligné que MiniMax M2.5 fonctionne rapidement, consommant moins de tokens, avec un coût de seulement 0,15 $ par tâche en comparaison de 3,00 $ pour le Claude Opus 4.6.
Démystifier les barrières de coût
MiniMax propose deux versions du M2.5 via sa API :
- M2.5-Lightning : Axé sur la vitesse, au coût de 0,30 $ pour 1M de tokens d'entrée et 2,40 $ pour 1M de tokens de sortie.
- Standard M2.5 : Axé sur le coût, au prix de 0,15 $ pour 1M de tokens d'entrée et 1,20 $ pour 1M de tokens de sortie.
Ces valeurs rendent possible l'utilisation de quatre agents en continu pour environ 10 000 $ sur une année, présentant un coût 1/10 à 1/20 de celui des modèles concurrents tels que GPT-5 ou Claude 4.6. Une comparaison détaillée des prix a été mise à disposition pour contextualiser cette innovation.
Implications stratégiques pour les entreprises
Le M2.5 représente un changement dans le modèle opérationnel pour les dirigeants d'entreprise, car il élimine la pression pour optimiser les coûts dans des processus qui étaient auparavant jugés non viables. Avec une amélioration de 37 % de la vitesse d'achèvement des tâches, le M2.5 permet des pipelines agiles qui facilitent une communication efficace entre différents modèles de l'IA.
De plus, le score élevé en modélisation financière indique que le modèle peut gérer le savoir-faire nécessaire dans des industries spécialisées, telles que la finance et le droit. L'offre du M2.5 en tant que modèle open source permet des audits automatisés à grande échelle, augmentant le contrôle sur la confidentialité des données tout en attendant les détails concernant les conditions de licence et les poids.
Le MiniMax M2.5 indique que l'avenir de l'intelligence artificielle ne se limite plus à construire le modèle le plus complexe, mais plutôt à qui peut rendre ce modèle utile et accessible dans le monde du travail.
Contenu selectionne et edite avec assistance IA. Sources originales referencees ci-dessus.


