Mientras Washington lidia con el escándalo del acuerdo Pentágono-OpenAI, una coalición bipartidista de expertos, exfuncionarios y líderes públicos publicó un documento que busca llenar el vacío regulatorio que el Congreso lleva años ignorando: la Declaración Pro-Humana.

El documento, firmado por cientos de personalidades que van desde el exasesor de Trump Steve Bannon hasta Susan Rice, la asesora de Seguridad Nacional de Obama —junto con el exjefe del Estado Mayor Conjunto Mike Mullen y líderes religiosos progresistas—, propone cinco pilares para el desarrollo responsable de la IA: mantener a los humanos en control, evitar la concentración de poder, proteger la experiencia humana, preservar la libertad individual y responsabilizar legalmente a las empresas de IA.

Max Tegmark, el físico del MIT que co-organizó el esfuerzo, tiene una lectura clara del momento histórico: el 95% de los estadounidenses se opone a una carrera desregulada hacia la superinteligencia, según las encuestas más recientes. 'Nunca tendrás que preocuparte de que una farmacéutica lance un medicamento que cause daño masivo antes de que haya sido probado como seguro, porque la FDA no lo permite', dijo en conversación con TechCrunch. 'Entonces, ¿por qué sería diferente con la IA?'

Entre las propuestas más contundentes de la declaración está una prohibición directa al desarrollo de superinteligencia hasta que exista consenso científico de que puede hacerse con seguridad y apoyo democrático genuino, junto con la obligación de 'interruptores de emergencia' en sistemas poderosos.

Tegmark ve en la seguridad infantil el punto de presión más efectivo para conseguir legislación. 'Si hay una IA que manipula emocionalmente a un menor de 11 años, ya existen leyes. ¿Por qué es diferente si lo hace una máquina?'

Para Latinoamérica, el documento es relevante porque el vacío regulatorio estadounidense se exporta: sin marcos claros en el mercado más influyente del mundo, las regiones emergentes quedan expuestas a los peores usos de la tecnología.