El Pentágono cree que Anthropic podría sabotear su propia IA. Anthropic piensa que es absurdo.
Cuando tu mejor cliente te llama amenaza de seguridad
En lo que podría ser la ruptura más dramática entre una empresa tecnológica y el gobierno de los EE. UU. desde, bueno, siempre, el Departamento de Defensa ha calificado formalmente a Anthropic como un "riesgo para la cadena de suministro" para la seguridad nacional. ¿La acusación? Que el personal de Anthropic podría "sabotear, introducir maliciosamente funciones no deseadas o subvertir de otro modo" los sistemas de IA militares. Anthropic, por su parte, ha calificado la designación de sinsentido en represalia.
Si te cuesta seguir la trama, no estás solo. Retrocedamos.
Cómo un acuerdo de 200 millones de dólares salió mal
En julio de 2025, el Pentágono adjudicó un contrato de 200 millones de dólares repartido entre Anthropic, OpenAI, Google y xAI para llevar la IA de frontera a las operaciones militares. Claude, el modelo insignia de Anthropic, terminó en redes clasificadas a través de AWS y, según se informa, se utilizó en operaciones militares estadounidenses relacionadas con Irán y el arresto del líder venezolano Nicolás Maduro.
Entonces llegó el punto conflictivo. Anthropic tenía dos restricciones innegociables integradas en su contrato: nada de vigilancia masiva doméstica y nada de sistemas de armas totalmente autónomos. El Secretario de Defensa, Pete Hegseth, dio a Anthropic hasta las 17:01 del viernes 27 de febrero de 2026 para eliminar esas restricciones y permitir el uso militar sin restricciones de Claude. Anthropic se negó.
Lo que siguió fue rápido. El Pentágono impuso a Anthropic una designación de riesgo para la cadena de suministro, una herramienta habitualmente reservada para contratistas adversarios extranjeros, no para empresas locales de Silicon Valley. La senadora Kirsten Gillibrand lo calificó como "un uso peligroso y erróneo de una herramienta destinada a abordar tecnología controlada por adversarios". Luego, el presidente Trump ordenó a todas las agencias federales de EE. UU. que dejaran de usar la tecnología de Anthropic por completo, con un periodo de eliminación gradual de seis meses.
La acusación de sabotaje
El elemento más sorprendente provino de los abogados del Departamento de Justicia, quienes argumentaron en documentos que los empleados de Anthropic podrían teóricamente manipular a Claude para socavar los sistemas de seguridad nacional. El CTO del Pentágono, Emil Michael, fue directo: "El modelo en sí aprende lo que intentas hacer y deja de funcionar. Ese es un riesgo que no puedo asumir".
Anthropic ha negado rotundamente que esto sea siquiera posible, calificando el marco de sabotaje como infundado. El 9 de marzo de 2026, la empresa presentó dos demandas contra el gobierno federal, una en San Francisco y otra en un tribunal federal de apelaciones en Washington, D. C. Hay una audiencia judicial programada para el 24 de marzo ante la jueza Rita F. Lin.
Las consecuencias
OpenAI se movió rápidamente para llenar el vacío, asegurando un acuerdo con el Pentágono para reemplazar a Claude en sistemas clasificados después de aceptar permitir que sus modelos se utilicen "para cualquier fin legal". Fuentes de defensa estiman que podría tomar de tres a doce meses reemplazar completamente a Claude en las redes militares clasificadas, dado que era uno de los dos únicos modelos de IA de frontera que operaban en ese entorno.
Lockheed Martin anunció que dejaría de usar Claude y buscaría alternativas. Mientras tanto, en un memorando interno que se filtró rápidamente, el CEO de Anthropic, Dario Amodei, calificó los mensajes públicos de OpenAI sobre el acuerdo de reemplazo como "mentiras directas", antes de disculparse por la filtración misma.
En un giro que haría sonreír a cualquier equipo de relaciones públicas, Claude superó a ChatGPT en descargas de aplicaciones en EE. UU. durante la disputa, y NPR informó de más de un millón de registros diarios en una sola semana. Nada impulsa tanto el interés del consumidor como una postura basada en principios contra el ejército más grande del mundo.
Por qué esto importa más allá de los EE. UU.
Para aquellos de nosotros en el Reino Unido, esto no es solo teatro transatlántico. El precedente de un gobierno que incluye en una lista negra a una empresa de IA nacional por mantener compromisos de seguridad está siendo vigilado de cerca por los responsables políticos aquí y en toda Europa. Si EE. UU. puede obligar a sus propios desarrolladores de IA a eliminar las salvaguardas éticas, plantea preguntas incómodas sobre lo que sucederá cuando el Reino Unido negocie sus propios acuerdos de adquisición de IA militar.
Veintidós ex funcionarios militares, más de 30 investigadores de IA de la competencia y escritos de amicus curiae de Microsoft, trabajadores de OpenAI y Google se han opuesto a la designación. Como dijo el propio Sam Altman: "No somos elegidos. Realmente no quiero que decidamos qué hacer si un arma nuclear se dirige hacia los EE. UU."
Buen punto. Pero alguien tiene que trazar la línea en algún lugar, y en este momento Anthropic está pagando el precio por intentarlo.
Lee el artículo original en la fuente.

No comments yet. Be the first to share your thoughts.