3 min de lectura

Anthropic mantiene su postura ética ante el Pentágono: 7 empresas de IA firman contratos militares mientras Claude queda fuera

El Pentágono firma con OpenAI, Google y 5 más para IA militar, pero Anthropic rechaza ceder en ética. Lecciones sobre límites corporativos en contratos IA.

Ilustración conceptual del Pentágono y empresas de IA con formas geométricas y patrones tecnológicos

El enfrentamiento que define el futuro de la IA empresarial

El Pentágono ha cerrado acuerdos con siete gigantes tecnológicos —OpenAI, Google, SpaceX, Reflection, Nvidia, Microsoft y Amazon Web Service— para implementar inteligencia artificial en sistemas clasificados militares, mientras que Anthropic, creadora de Claude, permanece excluida por mantener límites éticos en sus contratos.

El conflicto escaló cuando Dario Amodei, CEO de Anthropic, trazó una línea roja 24 horas antes del ultimátum del secretario de Defensa Pete Hegseth, declarando que su empresa "no puede, en conciencia, acceder" a permitir uso sin restricciones de su tecnología. Según AP News, Anthropic buscaba garantías limitadas de que Claude no se utilizaría para vigilancia masiva de estadounidenses ni en armas totalmente autónomas.

La tensión alcanzó su punto máximo cuando el Pentágono amenazó con catalogar a Anthropic como "riesgo para la cadena de suministro" —una designación normalmente reservada para adversarios extranjeros— si no cedía antes del viernes. Paradójicamente, empleados del Pentágono siguen usando Claude porque consideran que ofrece mejores resultados que las alternativas disponibles, según Reuters.

Lo más revelador: el ejército estadounidense ya había utilizado la IA de Anthropic en operaciones clave, incluyendo la captura del expresidente venezolano Nicolás Maduro y la selección de objetivos en bombardeos sobre Irán, antes de que surgiera el conflicto contractual.

Lecciones para establecer límites éticos en contratos de IA

La postura de Anthropic revela tres estrategias críticas que toda empresa debe considerar al implementar IA en sectores sensibles:

1. Define límites éticos antes de negociar
Anthropíc estableció desde el inicio que no permitiría el uso de su IA para vigilancia masiva doméstica ni armas completamente autónomas. Como reveló el caso de OpenAI con responsabilidad corporativa, tener principios claros antes de la presión comercial es fundamental.

2. Prepárate para consecuencias económicas
A pesar de que Anthropic puede permitirse perder el contrato de defensa, el ultimátum plantea riesgos más amplios para su ecosistema de alianzas. La designación como "riesgo para la cadena de suministro" podría afectar sus contratos con otras empresas.

3. Comunica transparentemente tus límites
Cuando el Pentágono propuso nuevos términos contractuales "como consenso", Anthropic descubrió que venían "acompañados de jerga legal que permitiría ignorar esas salvaguardas a voluntad". La comunicación clara sobre límites no negociables evita malentendidos costosos.

Pasos concretos para implementar en tu empresa:

  • Documenta políticas de uso ético antes de firmar contratos de IA
  • Establece cláusulas de transparencia que requieran divulgación de usos específicos
  • Crea comités de revisión ética para evaluar casos límite
  • Desarrolla alternativas comerciales para reducir dependencia de contratos problemáticos
  • El caso también destaca una realidad paradójica: mientras Silicon Valley muestra apoyo creciente a la postura de Amodei a través de una carta abierta firmada por trabajadores de OpenAI y Google, otras empresas como NSA siguen usando tecnología de Anthropic pese al bloqueo oficial.

    Interesantemente, Claude Mythos Preview, la herramienta de IA que puede encontrar vulnerabilidades de seguridad mejor que expertos humanos, ha generado interés específico del Pentágono para auditorías de sistemas, lo que podría abrir una vía de colaboración más limitada.

    ¿Tu empresa está preparada para mantener sus principios éticos cuando los contratos más lucrativos estén en juego? La respuesta de Anthropic sugiere que, a veces, decir "no" puede ser la mejor estrategia a largo plazo para construir confianza y atraer talento comprometido con la innovación responsable.

    Preguntas frecuentes

    ¿Por qué Anthropic rechazó el contrato militar del Pentágono?

    Anthropic rechazó permitir el uso sin restricciones de Claude, específicamente para vigilancia masiva de estadounidenses y armas totalmente autónomas. La empresa mantuvo límites éticos que consideró no negociables.

    ¿Qué empresas firmaron contratos de IA con el Pentágono?

    Siete empresas firmaron: OpenAI, Google, SpaceX (antes xAI), Reflection, Nvidia, Microsoft y Amazon Web Services. Todas trabajarán en redes de información clasificada militar.

    ¿Puede el Pentágono catalogar a Anthropic como riesgo de seguridad?

    Sí, el Pentágono amenazó con designar a Anthropic como 'riesgo para la cadena de suministro', una clasificación normalmente reservada para adversarios extranjeros que podría afectar sus alianzas comerciales.