El choque entre el Pentágono y Anthropic se encendió cuando, en ejercicios y escenarios de planificación (incluyendo uno que partía de un ataque nuclear hipotético), los militares insistieron en que necesitan usar modelos de IA “sin trabas” para cualquier fin legal que el Estado defina en guerra.
Anthropic se negó a aceptar un contrato que no excluyera explícitamente usos como armas autónomas (IA que “pueda matar” sin control humano efectivo) o vigilancia masiva, porque dice que hoy esas aplicaciones no son seguras ni compatibles con límites democráticos básicos. El Pentágono presionó sosteniendo que los bloquearía en el ecosistema de compras y contratistas de defensa.
Mientras Anthropic rechaza el uso letal, Sam Altman dijo que OpenAI está trabajando en un acuerdo con el Pentágono para destrabar la situación.
El trasfondo es más grande que una pelea contractual: es la pulseada por quién fija los límites cuando una tecnología generalista entra al campo de batalla—si los pone el proveedor (por política y diseño) o el Estado (por autoridad y “uso legal”)—y qué significa, en concreto, “control humano” cuando las decisiones se vuelven cada vez más automatizadas.


































