
Pentágono considera romper com Anthropic por restrições de IA
TL;DR
Pentágono avalia romper com Anthropic por limitações em IA. A situação reflete o conflito entre segurança e flexibilidade no uso militar da tecnologia.
O Pentágono está considerando romper relações com a Anthropic devido a restrições de segurança impostas pela startup em suas soluções de inteligência artificial (IA). Essas salvaguardas, que impedem o uso do chatbot Claude para vigilância em massa e desenvolvimento de armas autônomas, têm gerado insatisfação no Departamento de Defesa dos Estados Unidos, conforme revelado pela Axios em 16 de outubro.
O Claude é o único modelo de IA autorizado a operar em sistemas confidenciais das Forças Armadas dos EUA. No entanto, as políticas da Anthropic, que proíbem o uso da IA para certos fins, estão em desacordo com os interesses militares. A empresa está disposta a negociar alguns termos, mas se recusa a eliminar todas as restrições, o que gerou uma crise com o Pentágono.
Diante desse impasse, as autoridades de defesa dos EUA estão explorando alternativas, como o Google, OpenAI e xAI, que possam fornecer suas IAs para todos os fins lícitos. Apesar disso, um alto funcionário do governo alertou que as IAs concorrentes ainda não equiparam o Claude em capacidades específicas.
O Secretário de Defesa dos EUA, Pete Hegseth, alertou que a Anthropic poderia ser classificada como um "risco para a cadeia de suprimentos" se o acordo for rompido, o que afetaria seus negócios com terceiros ligados às Forças Armadas. A Anthropic, por sua vez, mantém conversas com o Departamento de Defesa, insistindo em seu compromisso com o uso seguro da tecnologia.
A situação entre o Pentágono e a Anthropic destaca o conflito entre segurança e flexibilidade no uso de IA para fins militares. A busca por um equilíbrio que satisfaça ambas as partes continua a ser um desafio significativo.
Conteudo selecionado e editado com assistencia de IA. Fontes originais referenciadas acima.


