
Pentágono considera romper contrato con Anthropic por
TL;DR
El Pentágono evalúa cortar lazos con Anthropic por frustraciones con restricciones en el uso de su IA. Esto podría afectar futuras colaboraciones tecnológicas.
El Pentágono está considerando romper lazos con Anthropic, empresa de inteligencia artificial, debido a frustraciones con restricciones impuestas al uso de la tecnología. La información fue divulgada por el sitio de noticias Axios. Anthropic está en negociaciones para extender un contrato con el Pentágono, pero las discusiones están estancadas por las protecciones adicionales que la empresa desea implementar en su herramienta de IA llamada Claude.
Anthropic busca implementar salvaguardas para garantizar el uso seguro y ético de su tecnología, lo que contrasta con las expectativas del Pentágono de tener menos restricciones. El estancamiento genera preocupaciones sobre el impacto de estas restricciones en la cadena de suministro tecnológica del Pentágono. La decisión de etiquetar a Anthropic como un riesgo en la cadena de suministro podría afectar la colaboración futura con la empresa.
Estas negociaciones destacan las tensiones entre la necesidad de seguridad y control por parte de los gobiernos y las preocupaciones éticas y de seguridad de las empresas tecnológicas. Anthropic es conocida por su enfoque en desarrollar IA que prioriza la seguridad y la ética, lo que ha sido un punto de venta crucial para la empresa en el mercado en expansión de inteligencia artificial.
El Pentágono aún no ha tomado una decisión final, pero la situación podría influir en futuras relaciones comerciales con otras empresas tecnológicas que también enfatizan protecciones y restricciones.
Si el Pentágono decide etiquetar a Anthropic como un riesgo en la cadena de suministro, esto podría desincentivar la colaboración de otras empresas tecnológicas que buscan mantener altos estándares de seguridad y ética en sus productos.
Contenido seleccionado y editado con asistencia de IA. Fuentes originales referenciadas arriba.


