Dario Amodei, CEO de Anthropic, da calabazas a Trump: "No podemos en conciencia acceder a su solicitud"
El máximo dirigente de la compañía de IA ha rechazado la ampliación del uso militar de Claude. Las discrepancias sobre los límites de uso han motivado la decisión
La empresa podría perder 200 millones de dólares (Reuters/Denis Balibouse)
Dario Amodei, consejero delegado de Anthropic, ha rechazado las presiones del Pentágono para ampliar el uso militar de su modelo de inteligencia artificial (Claude). El directivo sostiene que no puede aceptar cambios que permitan aplicaciones como la vigilancia masiva o las armas autónomas.
El conflicto se produce en el marco de un contrato de 200 millones de euros que convierte a Claude en el primer sistema de inteligencia artificial desplegado en la red clasificada del Departamento de Defensa de EEUU. Sin embargo, las discrepancias sobre los límites de uso han abierto una brecha entre la tecnológica y las autoridades militares.
Según explicó la propia compañía en un comunicado, la nueva redacción propuesta por el Pentágono se presentaba como un compromiso, pero “estaba acompañada de tecnicismos legales que permitirían que esas salvaguardas se ignoraran a voluntad”. Es decir, incluía formulaciones jurídicas que, a juicio de Anthropic, dejarían sin efecto los límites acordados.
Choque por los límites de la inteligencia artificial
El secretario de Defensa, Pete Hegseth, trasladó a Amodei que, si la empresa no autorizaba el uso del sistema “para todos los fines legales”, el contrato sería cancelado. Además, se advirtió de que Anthropic podría ser considerada un “riesgo para la cadena de suministro”, una categoría reservada habitualmente a compañías vinculadas a potencias extranjeras adversarias.
A statement from Anthropic CEO, Dario Amodei, on our discussions with the Department of War.https://t.co/rM77LJejuk
Lejos de ceder, Amodei defendió públicamente su postura en una extensa entrada en el blog corporativo. “Creo profundamente en la importancia existencial de utilizar la IA para defender a Estados Unidos y a otras democracias, y para derrotar a nuestros adversarios autocráticos”, afirmó el consejero delegado, subrayando su apoyo a la defensa nacional dentro de marcos éticos estrictos.
No obstante, matizó que existen escenarios en los que la inteligencia artificial puede erosionar valores democráticos. “En un conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”, escribió. También recalcó que usos como la vigilancia masiva o las armas totalmente autónomas están “fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable”.
It’s a shame that @DarioAmodei is a liar and has a God-complex. He wants nothing more than to try to personally control the US Military and is ok putting our nation’s safety at risk.
— Under Secretary of War Emil Michael (@USWREMichael) February 27, 2026
La tensión escaló tras una dura réplica de Emil Michael, subsecretario de Investigación e Ingeniería del Pentágono, quien acusó en la red social X a Amodei de mentir y de pretender influir en las decisiones militares. Frente a esas críticas, el ejecutivo zanjó la controversia con una frase contundente: “no podemos en conciencia acceder a su solicitud”. Mientras tanto, empleados de Anthropic expresaron públicamente su apoyo a la dirección, reivindicando que la compañía prioriza sus principios en el desarrollo de inteligencia artificial responsable.
Dario Amodei, consejero delegado de Anthropic, ha rechazado las presiones del Pentágono para ampliar el uso militar de su modelo de inteligencia artificial (Claude). El directivo sostiene que no puede aceptar cambios que permitan aplicaciones como la vigilancia masiva o las armas autónomas.