“Creemos que una visión democrática de la IA es esencial para desbloquear todo su potencial y garantizar que sus beneficios sean ampliamente compartidos”, escribió OpenAI, haciéndose eco de un lenguaje similar en el memorando de la Casa Blanca. “Creemos que las democracias deben seguir tomando la iniciativa en el desarrollo de la IA, guiadas por valores como la libertad, la justicia y el respeto a los derechos humanos”.
Ofreció una serie de formas en que OpenAI podría ayudar a lograr ese objetivo, incluidos esfuerzos para “agilizar las tareas de traducción y resumen, y el estudio y mitigación de daños civiles”, al tiempo que prohibe el uso de su tecnología para “daño a personas, destrucción de propiedad o desarrollo de armas”. .” Sobre todo, fue un mensaje de OpenAI de que está de acuerdo con el trabajo de seguridad nacional.
Las nuevas políticas enfatizan “la flexibilidad y el cumplimiento de la ley”, dice Heidy Khlaaf, científica principal de IA en el AI Now Institute e investigadora de seguridad que escribió un papel con OpenAI en 2022 con respecto a los riesgos potenciales de su tecnología en contextos que incluyen el militar. El piloto de la compañía “en última instancia indica una voluntad de llevar a cabo actividades militares y relacionadas con la guerra como el Pentágono y el ejército estadounidense consideren conveniente”, dice.
Amazon, Google y Microsoft, socio e inversor de OpenAI, han competido por contratos de computación en la nube del Pentágono durante años. Estas empresas han aprendido que el trabajo de defensa puede ser extremadamente rentable y el pivote OpenAI, que llega como la empresa espera 5 mil millones de dólares en pérdidas y se dice que está explorando nuevas fuentes de ingresos como anunciopuede indicar que quiere una parte de esos contratos. La relación de las Big Tech con el ejército tampoco genera ya la ira y el escrutinio que antes generaba. Pero OpenAI no es un proveedor de nube y la tecnología que está creando necesita hacer mucho más que simplemente almacenar y recuperar datos. Con esta nueva asociación, OpenAI promete ayudar a clasificar datos en el campo de batalla, proporcionar información sobre amenazas y ayudar a que el proceso de toma de decisiones en la guerra sea más rápido y eficiente.
Las afirmaciones de OpenAI sobre la seguridad nacional probablemente plantean más preguntas de las que responden. La empresa quiere mitigar los daños civiles, pero ¿para qué civiles? ¿Contribuir con modelos de IA a un programa que derriba drones no cuenta como desarrollo de armas que pueden dañar a los humanos?
“Las armas defensivas siguen siendo armas de verdad”, afirma Khlaaf. “A menudo pueden ubicarse de manera ofensiva, sujeto a la ubicación y el propósito de una misión”.
Más allá de estas cuestiones, trabajar en defensa significa que la empresa de IA más destacada del mundo, que ha tenido una increíble influencia en la industria y ha pontificado durante mucho tiempo sobre cómo manejar la IA de manera responsable, ahora trabajará en una industria de tecnología de defensa que juega con un conjunto de reglas completamente diferente. En ese sistema, cuando su cliente es el ejército estadounidense, las empresas de tecnología no pueden decidir cómo se utilizan sus productos.