Negocios

Terremoto en OpenAI: Dimite su directora de robótica por el polémico acuerdo con el Pentágono

La frontera entre la inteligencia artificial comercial y el uso militar acaba de cobrarse una renuncia de muy alto perfil en Silicon Valley. Caitlin Kalinowski, quien se desempeñaba como directora de robótica y hardware de consumo en OpenAI, ha anunciado su dimisión este sábado. El motivo central de su salida es su profunda preocupación ética y operativa frente al reciente acuerdo firmado entre la compañía tecnológica y el Departamento de Defensa de Estados Unidos.

OpenAI bajo la lupa tras ceder sus modelos de IA al Departamento de Defensa de EE. UU. (Foto: Jernej Furman).

A través de un contundente mensaje en la red social X, Kalinowski denunció que la empresa se precipitó al integrar sus modelos de IA en las redes en la nube clasificadas del Pentágono sin la deliberación necesaria.

«Autonomía letal» y vigilancia: las líneas rojas del debate

Aunque la exdirectiva reconoció el «papel importante» que juega la inteligencia artificial en la seguridad nacional, lanzó una dura advertencia sobre los riesgos que implica este pacto. Para Kalinowski, cuestiones tan delicadas como «la vigilancia de los estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana» requerían un análisis mucho más profundo antes de ceder esta tecnología al Ejército.

A pesar de expresar un «profundo respeto» por el director ejecutivo de OpenAI, Sam Altman, y por el resto del equipo, Kalinowski subrayó que el anuncio oficial se hizo «sin definir las salvaguardias» adecuadas. La ejecutiva, que aterrizó en OpenAI en 2024 tras liderar proyectos de realidad aumentada en Meta, catalogó la situación como una grave «cuestión de gobernanza», afirmando que estos temas «son demasiado importantes como para precipitarse en acuerdos o anuncios».

La respuesta de OpenAI: promesas de control

Ante la crisis reputacional y el debate interno, la empresa creadora de ChatGPT ha intentado calmar las aguas. Al día siguiente de oficializar el pacto militar, OpenAI aseguró haber incluido salvaguardias adicionales, insistiendo en que sus «líneas rojas» prohíben estrictamente el uso de su tecnología tanto en la vigilancia nacional como en el desarrollo de armas autónomas.

En unas recientes declaraciones a la agencia Reuters, la compañía admitió la sensibilidad extrema de la situación: «Reconocemos que la gente tiene opiniones muy firmes sobre estas cuestiones y seguiremos participando en debates con los empleados, el Gobierno, la sociedad civil y las comunidades de todo el mundo».

El debate sobre los límites éticos de la IA ha quedado, una vez más, abierto de par en par.