Caitlin Kalinowski, la ejecutiva que lideraba el equipo de robótica de OpenAI, anunció este sábado su renuncia en respuesta al polémico acuerdo que la empresa firmó con el Departamento de Defensa de Estados Unidos. Kalinowski, quien anteriormente dirigió el desarrollo de las gafas de realidad aumentada Orion en Meta, se unió a OpenAI en noviembre de 2024.
En un comunicado publicado en LinkedIn, Kalinowski fue clara sobre sus motivos: 'La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de ciudadanos estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron'. Posteriormente aclaró en X que su principal preocupación era la gobernanza: el anuncio fue apresurado sin definir los guardarraíles necesarios.
El contexto es el siguiente: el Pentágono designó a Anthropic como 'riesgo de cadena de suministro' después de que la empresa rechazara ceder el control ilimitado de su tecnología para usos militares, incluyendo armas autónomas y vigilancia masiva doméstica. Horas después, OpenAI anunció su propio acuerdo con el Departamento de Defensa, con lo que sus ejecutivos describieron como 'salvaguardas técnicas' para proteger líneas rojas similares a las de Anthropic.
Sin embargo, el acuerdo generó una reacción adversa significativa: las desinstalaciones de ChatGPT se dispararon un 295% y Claude trepó a lo más alto de las charts de la App Store de Estados Unidos. El efecto fue paradójico: mientras OpenAI ganaba el contrato, Anthropic ganaba usuarios.
Para la comunidad tech latinoamericana, la renuncia de Kalinowski reaviva preguntas fundamentales sobre la militarización de la IA y quién debe supervisar estos sistemas. Que una ejecutiva de alto perfil cruce esa línea ética en lugar de aceptar el statu quo envía una señal poderosa sobre el tipo de debate que se necesita tener.