El Pentágono impuso el jueves una designación formal de riesgo para la cadena de suministro al laboratorio de inteligencia artificial Anthropic, lo que limita el uso de una tecnología que, según una fuente, se usaba para operaciones militares en Irán.
La etiqueta de "riesgo para la cadena de suministro", confirmada en un comunicado de Anthropic, entra en vigor de inmediato y prohíbe a los contratistas del Gobierno utilizar la tecnología de Anthropic en su trabajo para el ejército estadounidense.
Sin embargo, las empresas pueden seguir utilizando Claude de Anthropic en otros proyectos no relacionados con el Pentágono, según escribió el director ejecutivo Dario Amodei en el comunicado. Dijo que la designación tiene "un alcance limitado" y que las restricciones solo se aplican al uso de la IA de Anthropic en los contratos del Pentágono.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
"Se aplica claramente solo al uso de Claude por parte de los clientes como parte directa de los contratos con el Departamento de Guerra, no a todo el uso de Claude por parte de los clientes que tienen dichos contratos".
La designación de riesgo se produce tras una disputa de meses sobre la insistencia de la empresa en establecer salvaguardias que, según el Departamento de Defensa, denominado por el Gobierno de Trump como Departamento de Guerra, iban demasiado lejos. En su comunicado, Amodei reiteró que la empresa impugnaría la designación ante los tribunales.
En los últimos días, Anthropic y el Pentágono han discutido posibles planes para que el Pentágono deje de utilizar Claude, dijo Amodei en el comunicado del jueves. Ambas partes han hablado de cómo Anthropic podría seguir colaborando con el ejército sin desmantelar sus salvaguardias, añadió.
Sin embargo, en una publicación en la red social X el jueves por la noche, el director de tecnología del Pentágono, Emil Michael, dijo que no hay ninguna negociación activa del Departamento de Defensa con Anthropic.
Amodei también se disculpó por una nota interna publicada el miércoles por el sitio web de noticias tecnológicas The Information. En la nota, escrita originalmente el viernes pasado, Amodei dijo que a los dirigentes del Pentágono no les gustaba la empresa, en parte porque "no hemos elogiado a Trump al estilo de un dictador".
La publicación de dicha nota se produjo mientras los inversores de Anthropic se apresuraban a contener el daño causado por la ruptura de la empresa con el Pentágono.
El Departamento de Defensa no respondió inmediatamente a las solicitudes de comentarios.
La medida supuso una reprimenda extraordinaria por parte de EEUU contra una empresa tecnológica estadounidense que se adelantó a sus rivales a la hora de trabajar con el Pentágono. Se produce en un momento en el que el departamento sigue confiando en la tecnología de Anthropic para prestar apoyo a operaciones militares, entre ellas las de Irán, según una fuente cercana.
Es probable que Claude se esté utilizando para analizar información de inteligencia y ayudar en la planificación operativa.
Un portavoz de Microsoft dijo que los abogados de la empresa estudiaron la designación y concluyeron: "Los productos de Anthropic, incluido Claude, pueden seguir estando disponibles para nuestros clientes, excepto para el Departamento de Guerra, a través de plataformas como M365, GitHub y Microsoft AI Foundry".
Microsoft puede seguir colaborando con Anthropic en proyectos no relacionados con la defensa, añadió el portavoz.
Amazon, inversor en Anthropic y cliente importante del modelo Claude de la empresa, no respondió inmediatamente a una solicitud de comentarios fuera del horario laboral habitual.
Maven Smart Systems de Palantir, una plataforma de software que proporciona a los ejércitos análisis de inteligencia y objetivos para armas, utiliza múltiples indicaciones y flujos de trabajo que se crearon utilizando el código Claude de Anthropic, según informó anteriormente Reuters.
Anthropic fue la más agresiva de sus rivales a la hora de cortejar a los responsables de la seguridad nacional de EEUU. Sin embargo, la empresa y el Pentágono llevan meses en desacuerdo sobre cómo el ejército puede utilizar su tecnología en el campo de batalla. Este conflicto salió a la luz a principios de este año.
Anthropic se ha negado a dar marcha atrás en la prohibición de que su IA Claude se utilice para armas autónomas y la vigilancia masiva en EEUU. El Pentágono ha respondido diciendo que debería poder utilizar esta tecnología según sea necesario, siempre que cumpla con la legislación estadounidense.
La etiqueta de "riesgo para la cadena de suministro" otorga ahora a Anthropic un estatus que Washington había utilizado hasta ahora para referirse a adversarios extranjeros. EEUU tomó una medida similar para eliminar al gigante tecnológico chino Huawei de las cadenas de suministro del Pentágono.
Con información de Reuters
