Commmonn Ground

Tech & AI

Trump prohíbe a Anthropic en el gobierno — Lo que el enfrentamiento por la seguridad de la IA significa para la industria

El 27 de febrero de 2026, el presidente Trump publicó seis palabras que dividieron a la industria de la IA en dos: "No la necesitamos, no la queremos".

Esa "la" se refería a Anthropic — específicamente a Claude, el modelo de IA que se había convertido en el primero en operar dentro de las redes clasificadas del Pentágono. En cuestión de horas, Trump ordenó a todas las agencias federales cesar de inmediato el uso de la tecnología de Anthropic. El Secretario de Defensa, Pete Hegseth, continuó designando a Anthropic como un "riesgo para la cadena de suministro", una etiqueta normalmente reservada para empresas vinculadas a adversarios extranjeros como Huawei.

Y luego, menos de siete horas después, el CEO de OpenAI, Sam Altman, publicó en X: "Hemos llegado a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada".

El debate sobre la seguridad de la IA (AI safety) acaba de pasar de lo académico a lo geopolítico.

Qué ocurrió realmente

La disputa se centró en tres palabras: todos los fines legales.

El Pentágono había exigido que Anthropic aceptara permitir que los militares usaran Claude para cualquier aplicación legal, sin restricciones de los términos de servicio de la empresa. El CEO de Anthropic, Dario Amodei, trazó dos líneas rojas: Claude no se utilizaría para la vigilancia doméstica masiva de ciudadanos estadounidenses, ni para potenciar armas totalmente autónomas — sistemas que pueden seleccionar y atacar objetivos sin supervisión humana.

La posición del Pentágono fue directa: los militares ya operan bajo sus propias leyes y supervisión. No pueden permitir que decisiones críticas para una misión se vean limitadas por los términos de servicio de un proveedor. "No se pueden dirigir operaciones tácticas mediante excepciones", dijo un funcionario del Pentágono a CNN.

La posición de Anthropic fue igualmente clara: los modelos de IA actuales no son lo suficientemente fiables para decisiones letales totalmente autónomas, y la vigilancia masiva de ciudadanos viola derechos fundamentales. "Ninguna cantidad de intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición", afirmó la empresa.

Tras semanas de negociaciones, una reunión de alto nivel entre Hegseth y Amodei en el Pentágono, y un ultimátum con fecha límite a las 5:01 PM, Anthropic prefirió retirarse antes que ceder.

La contradicción de OpenAI

Aquí es donde se pone interesante.

Sam Altman había apoyado públicamente la postura de Anthropic ese mismo día, diciéndole a su personal que OpenAI compartía las mismas "líneas rojas" sobre vigilancia y armas autónomas. Horas más tarde, anunció que OpenAI había firmado el acuerdo con el Pentágono.

Su publicación incluía un detalle crucial: "Dos de nuestros principios de seguridad más importantes son las prohibiciones sobre la vigilancia masiva doméstica y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. El Departamento de Guerra está de acuerdo con estos principios, los refleja en sus leyes y políticas, y los hemos incluido en nuestro acuerdo".

En otras palabras, OpenAI aparentemente obtuvo exactamente las mismas excepciones de seguridad por las que Anthropic fue vetada al solicitarlas. El Pentágono aceptó de OpenAI lo que rechazó de Anthropic.

Esto podría significar varias cosas. Tal vez el Pentágono nunca se opuso a los principios, sino a la insistencia de Anthropic de codificarlos en los términos de servicio en lugar de confiar en la ley existente. Tal vez la dinámica política cambió una vez que Trump intervino personalmente. O tal vez el resultado siempre fue una cuestión de influencia, no de política.

Sea cual sea la explicación, la imagen es impactante: una empresa se mantuvo firme y fue incluida en la lista negra. Su rival expresó solidaridad y luego firmó el contrato.

Por qué esto importa más allá de Washington

El impacto empresarial inmediato para Anthropic es manejable. El contrato del Pentágono valía hasta 200 millones de dólares; significativo, pero no existencial para una empresa valorada en 380 mil millones de dólares con 14 mil millones en ingresos anuales.

La designación de riesgo para la cadena de suministro es el arma real. Significa que cualquier empresa que haga negocios con el ejército de EE. UU. tendría que certificar que no utiliza Claude de Anthropic en trabajos relacionados con el Pentágono. Para una empresa cuyo crecimiento depende de contratos corporativos —muchos de los cuales involucran a firmas que también sirven al gobierno— eso es una cascada potencial de pérdida de negocios.

Pero las implicaciones más amplias van mucho más allá del balance de una empresa.

Para las empresas de IA, el mensaje es claro: si quieres contratos gubernamentales, aceptas los términos de "todo uso legal". Punto. Como dijo Adam Connor del Center for American Progress: "Esto envía un mensaje a las otras empresas de IA con las que están negociando para asegurarse de que no intenten poner ningún tipo de restricción a los usos de la IA".

Para el movimiento de AI safety, este es un momento definitorio. La pregunta de si las empresas de IA pueden establecer límites sobre cómo los gobiernos usan su tecnología acaba de recibir una respuesta del mundo real, al menos por parte de esta administración. El debate teórico sobre la alineación de la IA (AI alignment) y el despliegue responsable es ahora una negociación contractual con un precio de 200 millones de dólares.

Para los desarrolladores y constructores, el panorama acaba de cambiar. Si estás construyendo sobre Claude para trabajos adyacentes al gobierno, tienes seis meses para migrar. Si estás eligiendo un proveedor de IA para trabajos empresariales que podrían tocar contratos gubernamentales, la designación de riesgo de la cadena de suministro añade una nueva variable a la selección de proveedores.

Por qué apuesta Anthropic

Anthropic no se está echando atrás. La empresa dijo que impugnará la designación de riesgo de la cadena de suministro en los tribunales, calificándola de "legalmente infundada". Amodei ha señalado que la valoración y los ingresos de Anthropic solo han crecido desde que comenzó el enfrentamiento.

Hay una lógica estratégica aquí. Anthropic apuesta a que ser la empresa que dijo "no" al uso militar de la IA sin control es un mejor posicionamiento que ser la empresa que dijo "sí". En un mercado donde la confianza, las credenciales de seguridad y la alineación regulatoria importan cada vez más —especialmente en Europa y entre clientes corporativos que se preocupan por la IA responsable— la postura de Anthropic podría convertirse en una ventaja competitiva.

Cientos de empleados de Google y OpenAI firmaron peticiones apoyando a Anthropic. Varios exfuncionarios del Pentágono calificaron el enfoque de la administración como "extremadamente endeble". La salida a bolsa (IPO) planeada por la empresa podría incluso beneficiarse de la narrativa de resistencia por principios.

O podría ser contraproducente de manera espectacular si la designación de la cadena de suministro se mantiene y los clientes corporativos comienzan a retirarse.

La pregunta de fondo

Si quitamos la política, las personalidades y los detalles del contrato, nos queda una pregunta que la industria de la IA ha estado evitando durante años:

¿Quién decide qué puede y qué no puede hacer la IA: las empresas que la construyen o los gobiernos que la compran?

Por ahora, el gobierno de EE. UU. ha dado su respuesta. Si esa respuesta se mantiene —a través de desafíos judiciales, cambios de administración y la inevitable evolución de las capacidades de la IA— es la historia que definirá a esta industria durante la próxima década.

Una cosa es segura: la era de las empresas de IA negociando silenciosamente términos de seguridad a puerta cerrada ha terminado. La prohibición de Anthropic lo hizo público, lo hizo político y lo hizo personal. Cada empresa de IA sabe ahora lo que está en juego cuando el gobierno llama a su puerta, y lo que cuesta decir que no.