La decisión del presidente Donald Trump de suspender el uso de la inteligencia artificial de Anthropic marca un nuevo capítulo en la disputa entre el Gobierno de Estados Unidos y las empresas tecnológicas por el control y los límites éticos de la IA.

La medida llega después de que la compañía rechazara permitir el uso militar sin restricciones de su modelo Claude, solicitado por el Pentágono.

En un mensaje publicado en su red social Truth Social, Trump ordenó a todas las agencias federales cesar “inmediatamente” cualquier utilización de la tecnología desarrollada por Anthropic.

Además, confirmó que se iniciará un proceso de transición de seis meses para abandonar definitivamente sus productos.

Choque frontal entre la Casa Blanca y Anthropic

La tensión escaló cuando la startup de IA, dirigida por Dario Amodei, se negó a modificar las cláusulas contractuales que limitan el uso de su tecnología en contextos militares sensibles.

En particular, la empresa mantiene líneas rojas frente a aplicaciones relacionadas con vigilancia masiva y armas autónomas, al considerar que podrían vulnerar principios democráticos.

Trump calificó la postura de la compañía como una amenaza para la seguridad nacional. Según el mandatario, las restricciones impuestas por Anthropic podrían poner en riesgo la vida de soldados estadounidenses y debilitar la capacidad operativa del Ejército.

Desde el Pentágono, el ultimátum fue claro: si la empresa no aceptaba las nuevas condiciones, se enfrentaría a la cancelación de un contrato valorado en 200 millones de dólares, además de posibles sanciones adicionales.

Presiones legales y advertencias del Pentágono

El Gobierno advirtió que podría invocar la Ley de Producción de Defensa, una normativa de la era de la Guerra Fría que otorga amplios poderes para obligar a empresas privadas a priorizar necesidades vinculadas a la seguridad nacional. De aplicarse, Anthropic podría verse forzada a proporcionar acceso total a su tecnología.

Asimismo, el Departamento de Defensa amenazó con incluir a la compañía en la lista de entidades consideradas un “riesgo para la cadena de suministro”, una clasificación habitualmente reservada para empresas asociadas con adversarios extranjeros. Esta designación podría afectar gravemente la reputación y viabilidad comercial de la firma.

El subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, acusó públicamente a Amodei de actuar de forma “impredecible” y aseguró que el Departamento de Guerra no cederá ante presiones de ninguna empresa tecnológica.

Anthropic defiende sus principios éticos en IA

Frente a la presión política, Anthropic reafirmó su postura. En un comunicado, Amodei sostuvo que la compañía no puede “en conciencia” aceptar una solicitud que contradiga sus lineamientos éticos en inteligencia artificial. Según explicó, el nuevo lenguaje propuesto por el Pentágono permitiría ignorar las salvaguardas establecidas, dejando la puerta abierta a usos que consideran incompatibles con valores democráticos.

El directivo subrayó que comprende que las decisiones militares competen al Gobierno, pero insistió en que existen escenarios en los que la IA podría socavar —en lugar de proteger— las bases de una sociedad democrática.

La confrontación coloca a Anthropic en una posición delicada, ya que su negativa podría acarrear consecuencias civiles y penales, además de afectar su proyección en el mercado de la IA avanzada.

Un punto de inflexión para la regulación de la inteligencia artificial

Más allá del conflicto puntual, el caso evidencia el creciente debate sobre el papel de las empresas privadas en el desarrollo y control de tecnologías estratégicas como la inteligencia artificial militar. La postura de la Administración Trump refleja una visión en la que la IA debe integrarse plenamente en la defensa nacional, mientras que Anthropic insiste en establecer límites claros.

Lo que ocurra en los próximos meses podría redefinir la relación entre el Gobierno estadounidense y las compañías de IA, así como sentar precedentes sobre la regulación tecnológica, la ética en la automatización y el uso de modelos avanzados en contextos bélicos.

Administrador de contenidos de Grupo Periodismo en Línea