Un ensayo publicado por el investigador y desarrollador Maret Lumiste y que se convirtió en uno de los más votados del día en Hacker News (286 puntos) plantea una pregunta incómoda: si se aplica el propio estatuto de OpenAI de 2018, la empresa debería haber parado la carrera hace tiempo.

El documento fundacional de OpenAI incluye una cláusula de autosacrificarse: si otro proyecto 'alineado con valores' llega primero al AGI, OpenAI se compromete a dejar de competir y comenzar a colaborar. El evento detonante sería 'una probabilidad superior al 50% de éxito en los próximos dos años'.

Lo que hace el análisis de Lumiste es revisar las declaraciones públicas de Sam Altman sobre timelines de AGI desde 2023 hasta hoy: en mayo de 2023 predijo AGI para ~2033; en diciembre de 2023 lo adelantó a ~2030; en noviembre de 2024 ya hablaba de 2029; y en diciembre de 2025 declaró que 'la AGI básicamente ya llegó'. La aceleración de los pronósticos es clara.

En paralelo, el ranking Arena.ai de los modelos más capaces muestra que Claude Opus 4.6 y Gemini 3.1 Pro lideran actualmente, mientras los modelos GPT-5.x de OpenAI caen del cuarto puesto al undécimo en categorías clave. En términos de benchmarks competitivos, el propio estándar de 'mejor-que-even chance' parece estar cumplido.

Lumiste no ingenuamente propone que OpenAI vaya a cumplir su cláusula; el punto es otro: ilustra la impotencia del idealismo frente a los incentivos económicos, la brecha entre marketing y acción, y —lo más relevante para el ecosistema tech latinoamericano— cómo las definiciones de AGI se mueven para acomodar el status quo competitivo. Si AGI ya llegó 'espiritualmente' según Altman, ¿en qué carrera seguimos?