Grammarly lanzó una nueva función denominada 'revisión de expertos' que promete mejorar la escritura de sus usuarios con la ayuda de grandes pensadores y escritores del mundo, incluyendo periodistas tecnológicos. El problema: varios de esos 'expertos' no sabían que sus nombres e identidades serían utilizados de esta manera, y otros cuestionan directamente que el sistema refleje su estilo real.
La función funciona seleccionando un perfil de 'experto' —puede ser un filósofo, un economista, o un periodista— y Grammarly adapta las sugerencias de escritura para que supuestamente suenen como ese experto lo haría. El sistema es en esencia una personalidad de IA construida a partir de la obra pública de esas personas.
El lanzamiento generó controversia en la comunidad periodística y académica. Algunos de los 'expertos' incluidos señalaron que nunca firmaron acuerdo alguno con Grammarly para este uso. La empresa se defiende argumentando que utiliza obra publicada públicamente, pero los afectados responden que existe una diferencia sustancial entre usar una obra como dato de entrenamiento y comercializar activamente una 'versión IA' de una persona real con su nombre y reputación.
Para el ecosistema tech latinoamericano, el caso Grammarly es un ejemplo del patrón que se repite con la IA generativa: las empresas despliegan funciones que generan valor comercial mientras externalizan los costos éticos y legales hacia los creadores de contenido, quienes tienen mucho menos poder de negociación.
El debate de fondo es sobre derechos de imagen y de identidad en la era de la IA. Los marcos legales actuales en la mayoría de países de la región —y en EEUU— no contemplan explícitamente este tipo de uso. Grammarly tiene más de 40 millones de usuarios activos diarios, lo que convierte esta función en una de las implementaciones de 'identidad IA' más masivas hasta la fecha.
La pregunta que queda pendiente: ¿puede una empresa construir y comercializar una versión IA de una persona basándose únicamente en su obra pública disponible?