
MiniMax Lança Modelos M2.5 com Baixo Custo e Alto Desempenho
TL;DR
A startup MiniMax lançou o modelo de linguagem M2.5, que promete democratizar o acesso à inteligência artificial com custos reduzidos.
A startup chinesa de inteligência artificial, MiniMax, anunciou hoje o lançamento do modelo de linguagem M2.5 em duas versões, prometendo democratizar o acesso à inteligência artificial avançada com custos significativamente reduzidos. O M2.5 chega a custar até 95% menos em comparação com modelos de ponta como o Claude Opus 4.6, desafiando o tradicional alto investimento em tecnologia de AI tradicional.
Embora o modelo seja anunciado como "código aberto", os detalhes sobre pesos e termos de licença ainda não foram publicados. A MiniMax foca na acessibilidade, oferecendo serviços através da sua API e de parceiros.
Os modelos oferecem capacidades que rivalizam com as de gigantes da área como Google e Anthropic, sendo especialmente eficientes em tarefas empresariais com automação de documentações de office, como Word, Excel e PowerPoint. "Este lançamento sinaliza uma mudança de percepção sobre a AI, evoluindo de uma ferramenta de conversa para um agente de trabalho efetivo", disse a equipe da MiniMax.
Com 30% das tarefas no escritório da MiniMax concluídas pelo modelo M2.5 e 80% do novo código gerado por ele, a empresa demonstra a confiança em sua eficácia. Segundo o blog da MiniMax, "o M2.5 oferece possibilidades ilimitadas para o desenvolvimento e operação de agentes na economia".
Tecnologia: eficiência por meio da arquitetura MoE
A eficiência do modelo M2.5 se baseia na arquitetura chamada Mixture of Experts (MoE). Essa técnica permite que apenas 10 bilhões dos 230 bilhões de parâmetros sejam ativados simultaneamente para a geração de cada palavra, mantendo a profundidade de raciocínio de um grande modelo enquanto opera com agilidade de um modelo menor.
Para treinar o M2.5, a MiniMax desenvolveu um framework de Aprendizado por Reforço (Reinforcement Learning - RL) chamado Forge. Durante o podcast ThursdAI, a engenheira Olive Song enfatizou que essa técnica foi fundamental para maximizar o desempenho com um número menor de parâmetros.
Além disso, a MiniMax utiliza uma abordagem matemática denominada CISPO (Clipping Importance Sampling Policy Optimization) para garantir estabilidade durante o treinamento intenso, permitindo que o M2.5 desenvolva uma "Mentalidade de Arquiteto", aprendendo a planejar projetos antes da codificação.
Desempenho e comparação com modelos líderes
O desempenho do M2.5 posiciona-o entre os melhores do setor. Ao se aproximar do desempenho do Claude Opus 4.6, os novos resultados de benchmark do M2.5 incluem:
- SWE-Bench Verified: 80.2% - Velocidades comparáveis ao Claude Opus 4.6.
- BrowseComp: 76.3% - Líder em buscas e uso de ferramentas.
- Multi-SWE-Bench: 51.3% - Desempenho de ponta em codificação multilíngue.
- BFCL (Chamada de Ferramenta): 76.8% - Alto nível de precisão em fluxos de trabalho.
No podcast ThursdAI, foi destacado que a MiniMax M2.5 opera rapidamente, consumindo menos tokens, com um custo de apenas $0.15 por tarefa em comparação com $3.00 para o Claude Opus 4.6.
Desmistificando as barreiras de custo
A MiniMax oferece duas versões do M2.5 através de sua API:
- M2.5-Lightning: Focado em velocidade, com um custo de $0.30 por 1M de tokens de entrada e $2.40 por 1M de tokens de saída.
- Standard M2.5: Focado em custo, com um valor de $0.15 por 1M de tokens de entrada e $1.20 por 1M de tokens de saída.
Esses valores tornam viável o uso de quatro agentes continuamente por cerca de $10.000 ao longo de um ano, apresentando um custo 1/10 a 1/20 do que modelos concorrentes como GPT-5 ou Claude 4.6. Uma comparação detalhada de preços foi disponibilizada para contextualizar esta inovação.
Implicações estratégicas para empresas
O M2.5 representa uma mudança no modelo operacional para líderes empresariais, pois elimina a pressão por otimização de custos em processos que antes eram considerados inviáveis. Com uma melhoria de 37% na velocidade de conclusão das tarefas, o M2.5 permite pipelines ágeis que possibilitam uma comunicação eficaz entre diferentes modelos da AI.
Além disso, a pontuação alta em modelagem financeira indica que o modelo pode lidar com conhecimento tácito necessário em indústrias especializadas, como finanças e direito. A oferta do M2.5 como um modelo de código aberto possibilita auditorias automatizadas em larga escala, aumentando o controle sobre a privacidade dos dados enquanto aguarda os detalhes sobre as condições de licença e pesos.
A MiniMax M2.5 é um indicativo de que o futuro da inteligência artificial não se limita mais a construir o modelo mais complexo, mas sim a quem pode tornar esse modelo útil e acessível no ambiente de trabalho.
Conteudo selecionado e editado com assistencia de IA. Fontes originais referenciadas acima.


