Un artículo de TechDirt que se convirtió en tendencia en Hacker News esta semana expone una paradoja profundamente preocupante en la intersección entre IA y educación: para evitar ser detectados por detectores de IA, los estudiantes están siendo entrenados —explícita o implícitamente— a escribir de forma más torpe, menos coherente y con más errores intencionales.

El fenómeno funciona así: los docentes usan herramientas como GPTZero o Turnitin AI Detection para identificar trabajos escritos por IA. Estas herramientas buscan patrones de escritura 'demasiado perfectos' —coherencia gramatical elevada, estructura lógica clara, vocabulario sofisticado sin variación. Entonces los estudiantes, sabiendo esto, intencionalmente degradan su escritura: añaden errores, usan vocabulario más simple, rompen la estructura lógica.

El resultado es kafkiano: los detectores de IA están creando un incentivo perverso para que los humanos escriban peor, mientras que simultáneamente están fallando en detectar a los usuarios de IA más sofisticados, que saben cómo 'humanizar' el output de los modelos.

Para los educadores latinoamericanos, esto presenta un dilema adicional. En una región donde el inglés es segunda lengua para muchos, la escritura 'no nativa' de un estudiante hispano en inglés puede ser malinterpretada por los detectores como texto generado por IA, creando un sesgo discriminatorio documentado por varios estudios.

La solución propuesta por los autores no es técnica sino pedagógica: en lugar de intentar detectar el uso de IA, replantear las evaluaciones hacia formatos donde la IA no pueda sustituir el aprendizaje genuino —presentaciones orales, proyectos iterativos con defensa, exámenes presenciales con discusión.

El debate está lejos de resolverse, pero la tendencia es clara: la carrera armamentista entre detectores de IA y usuarios de IA está produciendo daños colaterales en la calidad de la educación.