En un encuentro mantenido el último martes cara a cara en el Pentágono, el Secretario de Guerra de los EE.UU. (de Defensa hasta su rebautismo el pasado 5 de septiembre ) Pete Hegseth le dio un ultimátum a Dario Amodei, CEO de Anthropic, la empresa de investigación de desarrollo de inteligencia artificial detrás de Claude y pionera en el concepto de la “Constitución” de la IA.
¿La exigencia? Permitirle al Pentágono el uso irrestricto de sus modelos de IA “para todos los propósitos legales” que este tenga, una petición a la que OpenAI (ChatGPT), Google y XAI(Elon Musk) ya cedieron.
El plazo que le dio Hegseth era el de hoy, viernes 27 de febrero a las 5:00 PM y de no cumplir con el mismo, aplicarían con la empresa la Ley de Producción de Defensa, según informó la CNN. Esta Ley de 1950 le da al gobierno la capacidad de obligar al sector privado a proveer bienes esenciales para la defensa nacional.
La otra amenaza fue la de poner a la empresa en una lista negra, como riesgo de la cadena de suministro, un espacio reservado para aquellas que hacen negocios con países adversarios como China o Rusia, lo cual la dejaría fuera de contratos militares.
Y aquí se llega a un punto interesante, y hasta irónico del asunto, y es que Anthropic ya tiene un contrato por 200 millones de dólares con el Gobierno de los EE.UU. en materia de defensa. Claude, actualmente es el único modelo de vanguardia de IA funcionando en los sistemas clasificados militares, según reportes de Axios.
Sin embargo luego del secuestro del presidente venezolano, Nicolás Maduro el pasado enero, cuando medios como el Wall Street Journal y Axios revelaron que productos de Anthropic habían sido usados durante la operación de extracción a través del contratista Palantir comenzaron las rispideces.
Según se reportaron tanto el Wall Street Journal, Axios y NBC, un ejecutivo de Anthropic se comunicó con Palantir para preguntar si efectivamente su tecnología había sido utilizada durante la redada. Este llamado fue el que encendió las alarmas del Pentagono.
El gobierno de Donald Trump interpretó esa comunicación como un cuestionamiento a su accionar. Si bien desde Anthropic quisieron bajar el tono del llamado desmintiendo que la compañía hubiese mantenido discusiones fuera de lo común sobre el uso de Claude con sus socios, la bola ya se había echado a rodar.
Sean Parnell, portavoz principal del Pentágono, declaró que “se está revisando la relación del Departamento de Guerra con Anthropic”. En esa línea afirmó que “Nuestra nación requiere que nuestros socios estén dispuestos a ayudar a nuestros combatientes a ganar cualquier batalla” y que “en última instancia, se trata de nuestras tropas y la seguridad del pueblo estadounidense”.
Ayer por la tarde el CEO de Anthropic, Dario Amodei emitió un comunicado oficial en respuesta al Departamento de Guerra. En el mismo insistió con trazar límites respecto a la utilización de la IA debido a lo que la tecnología actual puede hacer de forma segura y fiable.
Por un lado sobre la “vigilancia doméstica masiva” advirtió que “es incompatible con los valores democráticos” y que siendo “impulsada por IA presenta riesgos serios y novedosos para nuestras libertades fundamentales.” Esto presenta un escenario en el que con la tecnología actual todos podemos ser vigilados y controlados, con los riesgos que eso conlleva en un momento de institucionalidad cada vez más endeble y democracias más frágiles.
En esa línea destaca la carencia de legislación acorde a los tiempos y alerta que “ La poderosa IA permite ensamblar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, de forma automática y a gran escala."
La otra línea que marcó fue el riesgo de las armas totalmente automáticas, “los sistemas de IA de vanguardia simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas.” Amodei no se privó de marcar las contradicciones de las amenazas emitidas por el Pentágono (en) “una nos etiqueta como un riesgo para la seguridad; la otra, califica a Claude como esencial para la seguridad nacional.” Y sobre eso concluye: “De todas formas, estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su petición.”
La respuesta oficial no tardó en llegar. Fue el Subsecretario de Guerra, Emil Michael, quien en su cuenta de X posteó que Anthropic estaba mintiendo. “El Departamento de Guerra no hace vigilancia masiva ya que es ilegal, de lo que hablamos es de que nuestros combatientes usen IA sin pedirle permiso a Dario Amodei para derribar enjambres de drones enemigos que matarían a estadounidenses”
Respecto a la vigilancia masiva cabe preguntarse: si no la realizan porque es ilegal, ¿Por qué les molesta esa cláusula? Este no es un simple conflicto entre una empresa contratista y el Gobierno de los EE.UU. Es una batalla que deja al descubierto, de manera incómoda, el mundo que se está construyendo. Que el gobierno más poderoso del mundo arremeta contra una empresa de IA por cuestionar lo que se hace con su tecnología y que alerta sobre el uso irrestricto de la misma por parte del Estado dice mucho sobre hacia dónde va esta historia. Mientras cientos de millones de personas usan IA a diario sin advertir que, en reuniones a puertas cerradas, se está decidiendo para qué puede usarse lo que saben de ellos.
La pregunta que queda en el aire no es si los estados van a usar esa tecnología para vigilar y operar. Es si alguien está dispuesto a ponerles límites.
