Escala la guerra de Anthropic contra Trump: demanda al Pentágono por el veto de EEUU
La empresa de inteligencia artificial acusa al Gobierno de EEUU de represalias por negarse a permitir el uso militar sin restricciones de su modelo Claude
Dario Amodei, cofundador y CEO de Anthropic. (Reuters)
La empresa estadounidense de inteligencia artificial Anthropic acaba de presentar una demanda contra el Departamento de Guerra de Estados Unidos y otras agencias federales después de que el Pentágono la designara oficialmente como “riesgo para la cadena de suministro”, una etiqueta que podría excluir a la compañía de contratos y proyectos militares. La demanda, presentada este lunes en tribunales federales, busca anular la designación y bloquear su aplicación, argumentando que el Gobierno está utilizando su poder para castigar a la empresa por su postura sobre el uso de la inteligencia artificial.
El conflicto se originó tras semanas de tensiones entre Anthropic y el Pentágono por el uso de su modelo de IA Claude. La compañía se negó a permitir que su tecnología se empleara para vigilancia masiva o armas autónomas letales, lo que desencadenó un enfrentamiento con el Departamento de Guerra. Como respuesta, el Pentágono decidió etiquetar a Anthropic como riesgo en la cadena de suministro, una medida normalmente reservada a empresas extranjeras consideradas amenazas para la seguridad nacional.
Esta designación impide a contratistas del Gobierno utilizar su tecnología en proyectos vinculados con Defensa. La empresa sostiene que la medida es ilegal y sin precedentes para una compañía estadounidense, y que viola sus derechos constitucionales al penalizar su postura sobre el uso ético de la IA.
El caso abre un nuevo frente en el debate sobre hasta qué punto las empresas tecnológicas pueden imponer límites al uso militar de sus sistemas de inteligencia artificial. El Pentágono, por su parte, ha defendido que no puede permitir que un proveedor tecnológico limite el uso de capacidades consideradas críticas para las fuerzas armadas.
La decisión también podría tener importantes consecuencias económicas para Anthropic, que se arriesga a perder contratos gubernamentales por valor de cientos de millones de dólares y a que otros proveedores que trabajan con el Gobierno busquen alternativas tecnológicas.
Mientras tanto, el enfrentamiento se perfila como uno de los primeros grandes litigios entre una empresa líder de IA y el Gobierno estadounidense sobre el control y los límites del uso militar de esta tecnología, en un momento en el que la IA se ha convertido en un elemento clave de la seguridad nacional. OpenAI ha corrido a ocupar el puesto de Anthropic, firmando la semana pasada un acuerdo para ofrecer su tecnología al Pentágono. Sin embargo, no les va a salir gratis.
Sam Altman, CEO de OpenAI. (Reuters)
La responsable de hardware y robótica de OpenAI, Caitlin Kalinowski, dimitió durante el fin de semana tras el polémico acuerdo que la empresa firmó con el Departamento de Guerra. La ejecutiva había llegado a la compañía en 2024 procedente de Meta para liderar el desarrollo de hardware y robots en la empresa. En un mensaje público, Kalinowski explicó que su salida responde a motivos éticos. Reconoció que la inteligencia artificial puede desempeñar un papel importante en la seguridad nacional, pero afirmó que cuestiones como la vigilancia de ciudadanos sin supervisión judicial o el uso de sistemas autónomos letales requieren un debate mucho más profundo.
"La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron", aseguró. "Esto ha sido una cuestión de principios, no de personas".
La empresa estadounidense de inteligencia artificial Anthropic acaba de presentar una demanda contra el Departamento de Guerra de Estados Unidos y otras agencias federales después de que el Pentágono la designara oficialmente como “riesgo para la cadena de suministro”, una etiqueta que podría excluir a la compañía de contratos y proyectos militares. La demanda, presentada este lunes en tribunales federales, busca anular la designación y bloquear su aplicación, argumentando que el Gobierno está utilizando su poder para castigar a la empresa por su postura sobre el uso de la inteligencia artificial.