Anthropic mantiene su postura ética ante el Pentágono: 7 empresas de IA firman contratos militares mientras Claude queda fuera
El Pentágono firma con OpenAI, Google y 5 más para IA militar, pero Anthropic rechaza ceder en ética. Lecciones sobre límites corporativos en contratos IA.

El enfrentamiento que define el futuro de la IA empresarial
El Pentágono ha cerrado acuerdos con siete gigantes tecnológicos —OpenAI, Google, SpaceX, Reflection, Nvidia, Microsoft y Amazon Web Service— para implementar inteligencia artificial en sistemas clasificados militares, mientras que Anthropic, creadora de Claude, permanece excluida por mantener límites éticos en sus contratos.
El conflicto escaló cuando Dario Amodei, CEO de Anthropic, trazó una línea roja 24 horas antes del ultimátum del secretario de Defensa Pete Hegseth, declarando que su empresa "no puede, en conciencia, acceder" a permitir uso sin restricciones de su tecnología. Según AP News, Anthropic buscaba garantías limitadas de que Claude no se utilizaría para vigilancia masiva de estadounidenses ni en armas totalmente autónomas.
La tensión alcanzó su punto máximo cuando el Pentágono amenazó con catalogar a Anthropic como "riesgo para la cadena de suministro" —una designación normalmente reservada para adversarios extranjeros— si no cedía antes del viernes. Paradójicamente, empleados del Pentágono siguen usando Claude porque consideran que ofrece mejores resultados que las alternativas disponibles, según Reuters.
Lo más revelador: el ejército estadounidense ya había utilizado la IA de Anthropic en operaciones clave, incluyendo la captura del expresidente venezolano Nicolás Maduro y la selección de objetivos en bombardeos sobre Irán, antes de que surgiera el conflicto contractual.
Lecciones para establecer límites éticos en contratos de IA
La postura de Anthropic revela tres estrategias críticas que toda empresa debe considerar al implementar IA en sectores sensibles:
1. Define límites éticos antes de negociar
Anthropíc estableció desde el inicio que no permitiría el uso de su IA para vigilancia masiva doméstica ni armas completamente autónomas. Como reveló el caso de OpenAI con responsabilidad corporativa, tener principios claros antes de la presión comercial es fundamental.
2. Prepárate para consecuencias económicas
A pesar de que Anthropic puede permitirse perder el contrato de defensa, el ultimátum plantea riesgos más amplios para su ecosistema de alianzas. La designación como "riesgo para la cadena de suministro" podría afectar sus contratos con otras empresas.
3. Comunica transparentemente tus límites
Cuando el Pentágono propuso nuevos términos contractuales "como consenso", Anthropic descubrió que venían "acompañados de jerga legal que permitiría ignorar esas salvaguardas a voluntad". La comunicación clara sobre límites no negociables evita malentendidos costosos.
Pasos concretos para implementar en tu empresa:
El caso también destaca una realidad paradójica: mientras Silicon Valley muestra apoyo creciente a la postura de Amodei a través de una carta abierta firmada por trabajadores de OpenAI y Google, otras empresas como NSA siguen usando tecnología de Anthropic pese al bloqueo oficial.
Interesantemente, Claude Mythos Preview, la herramienta de IA que puede encontrar vulnerabilidades de seguridad mejor que expertos humanos, ha generado interés específico del Pentágono para auditorías de sistemas, lo que podría abrir una vía de colaboración más limitada.
¿Tu empresa está preparada para mantener sus principios éticos cuando los contratos más lucrativos estén en juego? La respuesta de Anthropic sugiere que, a veces, decir "no" puede ser la mejor estrategia a largo plazo para construir confianza y atraer talento comprometido con la innovación responsable.
Preguntas frecuentes
¿Por qué Anthropic rechazó el contrato militar del Pentágono?
Anthropic rechazó permitir el uso sin restricciones de Claude, específicamente para vigilancia masiva de estadounidenses y armas totalmente autónomas. La empresa mantuvo límites éticos que consideró no negociables.
¿Qué empresas firmaron contratos de IA con el Pentágono?
Siete empresas firmaron: OpenAI, Google, SpaceX (antes xAI), Reflection, Nvidia, Microsoft y Amazon Web Services. Todas trabajarán en redes de información clasificada militar.
¿Puede el Pentágono catalogar a Anthropic como riesgo de seguridad?
Sí, el Pentágono amenazó con designar a Anthropic como 'riesgo para la cadena de suministro', una clasificación normalmente reservada para adversarios extranjeros que podría afectar sus alianzas comerciales.
Fuentes
- El Pentágono mantiene su enfrentamiento con Anthropic
- Así fracasaron las conversaciones entre Anthropic y el Pentágono
- Anthropic se niega a ceder ante el Pentágono sobre salvaguardas de IA
- Anthropic, la empresa de IA que se enfrentó al Pentágono en EE ... - BBC
- El Pentágono se alía con siete gigantes de la IA y excluye a Anthropic ...
- Anthropic rechaza la última oferta del Pentágono: "No podemos, con ...