
MiniMax Lanza Modelos M2.5 de Bajo Costo y Alto Rendimiento
TL;DR
La startup china de inteligencia artificial, MiniMax, ha anunciado hoy el lanzamiento del modelo de lenguaje M2.
La startup china de inteligencia artificial, MiniMax, anunció hoy el lanzamiento del modelo de lenguaje M2.5 en dos versiones, prometiendo democratizar el acceso a la inteligencia artificial avanzada con costos significativamente reducidos. El M2.5 llega a costar hasta un 95% menos en comparación con modelos de punta como el Claude Opus 4.6, desafiando la tradicional alta inversión en tecnología de IA convencional.
Aunque el modelo es anunciado como "código abierto", los detalles sobre pesos y términos de licencia aún no han sido publicados. MiniMax se enfoca en la accesibilidad, ofreciendo servicios a través de su API y de socios.
Los modelos ofrecen capacidades que rivalizan con las de gigantes del área como Google y Anthropic, siendo especialmente eficientes en tareas empresariales con automatización de documentaciones de oficina, como Word, Excel y PowerPoint. "Este lanzamiento señala un cambio de percepción sobre la IA, evolucionando de una herramienta de conversación a un agente de trabajo efectivo", dijo el equipo de MiniMax.
Con el 30% de las tareas en la oficina de MiniMax completadas por el modelo M2.5 y el 80% del nuevo código generado por él, la empresa demuestra la confianza en su eficacia. Según el blog de MiniMax, "el M2.5 ofrece posibilidades ilimitadas para el desarrollo y operación de agentes en la economía".
Tecnología: eficiencia a través de la arquitectura MoE
La eficiencia del modelo M2.5 se basa en la arquitectura llamada Mixture of Experts (MoE). Esta técnica permite que solo 10 mil millones de los 230 mil millones de parámetros sean activados simultáneamente para la generación de cada palabra, manteniendo la profundidad de razonamiento de un gran modelo mientras opera con la agilidad de un modelo más pequeño.
Para entrenar el M2.5, MiniMax desarrolló un framework de Aprendizaje por Refuerzo (Reinforcement Learning - RL) llamado Forge. Durante el podcast ThursdAI, la ingeniera Olive Song enfatizó que esta técnica fue fundamental para maximizar el rendimiento con un menor número de parámetros.
Además, MiniMax utiliza un enfoque matemático denominado CISPO (Clipping Importance Sampling Policy Optimization) para garantizar estabilidad durante el intenso entrenamiento, permitiendo que el M2.5 desarrolle una "Mentalidad de Arquitecto", aprendiendo a planificar proyectos antes de la codificación.
Rendimiento y comparación con modelos líderes
El rendimiento del M2.5 lo posiciona entre los mejores del sector. Al acercarse al rendimiento del Claude Opus 4.6, los nuevos resultados de benchmark del M2.5 incluyen:
- SWE-Bench Verified: 80.2% - Velocidades comparables al Claude Opus 4.6.
- BrowseComp: 76.3% - Líder en búsquedas y uso de herramientas.
- Multi-SWE-Bench: 51.3% - Rendimiento de punta en codificación multilingüe.
- BFCL (Llamada de Herramienta): 76.8% - Alto nivel de precisión en flujos de trabajo.
En el podcast ThursdAI, se destacó que MiniMax M2.5 opera rápidamente, consumiendo menos tokens, con un costo de solo $0.15 por tarea en comparación con $3.00 para el Claude Opus 4.6.
Desmitificando las barreras de costo
MiniMax ofrece dos versiones del M2.5 a través de su API:
- M2.5-Lightning: Enfocado en velocidad, con un costo de $0.30 por 1M de tokens de entrada y $2.40 por 1M de tokens de salida.
- Standard M2.5: Enfocado en costo, con un valor de $0.15 por 1M de tokens de entrada y $1.20 por 1M de tokens de salida.
Estos valores hacen viable el uso de cuatro agentes continuamente por alrededor de $10,000 a lo largo de un año, presentando un costo 1/10 a 1/20 de lo que modelos competidores como GPT-5 o Claude 4.6. Se ha disponibilizado una comparación detallada de precios para contextualizar esta innovación.
Implicaciones estratégicas para empresas
El M2.5 representa un cambio en el modelo operativo para líderes empresariales, ya que elimina la presión por optimización de costos en procesos que antes eran considerados inviables. Con una mejora del 37% en la velocidad de finalización de tareas, el M2.5 permite pipelines ágiles que posibilitan una comunicación eficaz entre diferentes modelos de IA.
Además, la alta puntuación en modelado financiero indica que el modelo puede manejar el conocimiento tácito necesario en industrias especializadas, como finanzas y derecho. La oferta del M2.5 como un modelo de código abierto posibilita auditorías automatizadas a gran escala, aumentando el control sobre la privacidad de los datos mientras se esperan los detalles sobre las condiciones de licencia y pesos.
El MiniMax M2.5 es un indicativo de que el futuro de la inteligencia artificial no se limita más a construir el modelo más complejo, sino a quién puede hacer que ese modelo sea útil y accesible en el entorno laboral.
Contenido seleccionado y editado con asistencia de IA. Fuentes originales referenciadas arriba.


