La familia de modelos de lenguaje grandes y abiertos de Meta, Llama, no es “de código abierto“. en un sentido tradicional, pero está disponible gratuitamente para descargar y desarrollar, y las agencias de defensa nacional están entre las que los están utilizando.
Un reciente informe de Reuters detalló cómo investigadores chinos ajustaron el modelo Llama utilizando registros militares para crear una herramienta de análisis de inteligencia militar. El director de política pública de Meta calificó este uso como “no autorizado”. Sin embargo, tres días después, Nick Clegg, presidente de asuntos públicos de Meta, anunció que la compañía permitirá el uso de Llama para la seguridad nacional de EE.UU..
“Esto demuestra que muchos de los límites impuestos a estos modelos son flexibles”, dice Ben Brooks, investigador del Berkman Klein Center for Internet and Society de Harvard. Añade que “la seguridad depende de capas de mitigación”.
Meta no está sola en la carrera por apoyar la defensa de EE.UU.
La investigación de Reuters descubrió que investigadores de la Academia de Ciencias Militares de China utilizaron la versión del modelo Llama con 13 mil millones de parámetros de Meta para desarrollar ChatBIT, una herramienta de IA para el análisis de inteligencia militar y la toma de decisiones. Es la primera evidencia clara del Ejército Popular de Liberación adaptando modelos de IA de código abierto para propósitos de defensa.
Meta comentó a Reuters que ChatBIT violaba la política de uso aceptable de la compañía, la cual prohíbe el uso de Llama para (entre otras cosas) aplicaciones militares, bélicas, de espionaje y nucleares. Sin embargo, tres días después, Clegg destacó el apoyo de Meta a la industria de defensa de EE.UU.
Fue un giro extraño de los acontecimientos, ya que el uso de Llama por cualquier ejército parecería violar la política de uso aceptable de Llama. Aunque Meta no tiene forma de hacer cumplir su política—sus modelos no requieren autorización ni autenticación para su uso—la postura de la compañía sobre el uso militar había sido, hasta ahora, contraria.
Eso sigue siendo cierto hoy en día, pero solo para ejércitos fuera de EE.UU. Un portavoz de Meta comentó a IEEE Spectrum que los términos de Llama no han cambiado; en cambio, la compañía está “renunciando a la política de uso militar para el gobierno de EE.UU. y las empresas que apoyan su trabajo”.
Meta no está sola en encontrar una necesidad repentina de apoyar la defensa de EE.UU. Los modelos Claude 3 y Claude 3.5 de Anthropic serán utilizados por el contratista de defensa Palantir para analizar datos gubernamentales secretos. Mientras tanto, OpenAI contrató recientemente al exjefe de seguridad de Palantir, Dane Stuckey, y nombró al general retirado del Ejército de EE.UU. Paul M. Nakasone como miembro de su junta directiva.
“Todas las principales empresas de IA están mostrando con entusiasmo su compromiso con la seguridad nacional de EE.UU., así que no hay nada sorprendente en la respuesta de Meta. Y creo que habría sido un resultado curioso si los modelos de IA abiertos estuvieran disponibles para adversarios potenciales mientras [internamente] existieran estrictas limitaciones de seguridad nacional o defensa”, dice Brooks.
¿Qué sigue para la IA, la defensa y la regulación?
Si bien la decisión de Meta de hacer que Llama esté disponible para el gobierno de EE.UU. podría ayudar a los contratistas militares aprobados a adoptarlo, esto no devuelve al genio de la IA abierta a la botella. Como muestra el informe de Reuters, los modelos de Llama ya están siendo utilizados por ejércitos, autorizados o no. Ahora la pregunta es: ¿Qué, si acaso, harán los reguladores al respecto?
“Al elegir no asegurar su tecnología de vanguardia, Meta está alimentando, de manera unilateral, una carrera armamentista global de IA”.—David Evan Harris, California Initiative for Technology and Democracy
David Evan Harris, asesor principal de políticas de la California Initiative for Technology and Democracy, instó a adoptar una postura más firme contra los modelos abiertos. En 2023, IEEE Spectrum publicó un artículo de Harris sobre los peligros de la IA abierta.
“Al elegir no asegurar su tecnología de vanguardia, Meta está alimentando, de manera unilateral, una carrera armamentista global de IA”, dice Harris. “No es solo el modelo abierto más avanzado que proviene de Meta. Son los tres principales”. Dice que la decisión de Meta de hacer que sus modelos estén disponibles libremente es similar a la idea de que Lockheed Martin entregase sofisticada tecnología militar a los adversarios de EE.UU.
Brooks tomó la posición opuesta. Dice que los modelos abiertos son más transparentes y más fáciles de evaluar en busca de oportunidades o vulnerabilidades. Brooks comparó a Llama con otro software de código abierto popular, como Linux, que muchas empresas y agencias gubernamentales utilizan para desarrollar aplicaciones personalizadas. “Creo que la comunidad de código abierto espera que el futuro de las aplicaciones de IA sensibles y reguladas sea abierto”, dice.
Elon Musk entra en escena
Aunque Harris y Brooks tienen puntos de vista opuestos sobre la regulación de la IA abierta, están de acuerdo en una cosa: la victoria electoral de Trump es una incógnita.
La posición del presidente electo Trump sobre la IA aún no está clara, pero Elon Musk—quien apareció en varias ocasiones durante la campaña presidencial de Trump y al parecer ejerce considerable influencia sobre él—es emblemático de la incertidumbre en torno a la posición de la próxima administración.
“Los resultados de las elecciones podrían reiniciar la conversación de formas inusuales”. —Ben Brooks, Berkman Klein Center for Internet and Society
Musk es dueño de la empresa de IA Grok y cree que la IA será más inteligente que los humanos para el final de la década, pero expresó su apoyo a la Ley de Innovación Segura y Segura para Modelos de Inteligencia Artificial Frontera de California, que buscaba restricciones amplias en la investigación de IA (aunque finalmente fue vetada por el gobernador Gavin Newsom). Y por si esto no fuera suficiente, mientras Musk apoya la regulación de la IA, prefiere los modelos de IA abiertos y tiene una demanda pendiente contra OpenAI por (entre otros reclamos) la decisión de la compañía de cerrar el acceso a sus modelos.
“Los resultados de las elecciones podrían reiniciar la conversación de formas inusuales”, dice Brooks. “La cultura aceleracionista efectiva va a chocar con la cultura de detención de la IA en esta administración, y será muy interesante de observar”.