Andrej Karpathy —exdirector de IA de Tesla, cofundador de OpenAI y uno de los educadores de IA más influyentes del mundo— publicó esta semana Autoresearch, un proyecto en GitHub que se convirtió rápidamente en tendencia en Hacker News. La idea es tan simple como ambiciosa: dar a un agente de IA acceso a un setup de entrenamiento de modelos pequeño pero real, y dejarlo experimentar autónomamente durante la noche.

El sistema funciona así: el agente modifica el código de entrenamiento (un archivo train.py con una implementación simplificada de GPT), ejecuta una sesión de entrenamiento de exactamente 5 minutos, evalúa si el resultado mejoró la métrica objetivo (bits por byte en conjunto de validación), y decide si conservar o descartar los cambios. Luego repite el ciclo. Al despertar, el investigador tiene un log completo de experimentos y, idealmente, un modelo mejor.

Karpathy describe el proyecto con su habitual mezcla de rigor técnico e ironía: 'Un día, la investigación frontier en IA era realizada por computadoras de carne en sus ratos libres. Esa era terminó. Esta es la historia de cómo todo comenzó'.

Lo más significativo del proyecto no es el resultado técnico específico, sino la demostración de un paradigma: los agentes de IA pueden actuar como investigadores autónomos en dominios bien definidos. Para ejecutarlo, solo necesitas una GPU NVIDIA (testeado en H100), Python 3.10+ y conectar tu agente de IA preferido —Claude, Codex o similar— al repositorio.

Para la comunidad de investigadores e ingenieros ML en Latinoamérica, el proyecto es un ejemplo excelente de cómo democratizar la experimentación: en lugar de necesitar un equipo grande de investigadores, un solo engineer con acceso a una GPU cloud puede configurar un ciclo de experimentación autónomo que corre mientras duerme.