El primer párrafo de Cien años de soledad tiene 72 palabras. Las escogió García Márquez durante meses, cincelándolas con la certeza de que debían sonar como si alguien las hubiera dicho siempre. Muchos años después, frente al pelotón de fusilamiento, el coronel Aureliano Buendía había de recordar aquella tarde remota. Una frase que se abre hacia el pasado y el futuro al mismo tiempo, que desafía la cronología sin esfuerzo visible. Un detector de inteligencia artificial la analizó hace unos días y dictaminó que el 84 por ciento de ese párrafo había sido generado por una máquina.
La noticia circuló como una broma de mal gusto y, al mismo tiempo, como un síntoma. Jorge Carrión, académico y crítico literario español, sometió el texto al escrutinio de estas herramientas y compartió los resultados con perplejidad sin disimulo. No fue el único experimento, la misma prueba aplicada al Génesis bíblico arrojó un 88 por ciento de probabilidad de origen artificial; la Constitución de Estados Unidos, un 96 por ciento; Harry Potter y la letra de Bohemian Rhapsody pasaron por el mismo tamiz con resultados igualmente absurdos. El patrón es tan consistente que deja de ser anécdota: hay algo estructuralmente equivocado en cómo estas herramientas entienden la escritura.
Para entenderlo hay que saber cómo funcionan, la mayoría de los detectores miden dos cosas: la perplejidad, que es el grado en que cada palabra resulta predecible dado el contexto anterior, y la variabilidad, que es cuánto oscilan las longitudes de las frases. Un texto construido con precisión, con vocabulario exacto y ritmo deliberado, tiene naturalmente baja perplejidad: cada palabra parece inevitable porque un escritor la eligió así. El problema es que los modelos de lenguaje artificiales también producen textos fluidos y coherentes, porque aprendieron a hacerlo leyendo millones de páginas humanas de calidad. El detector no puede distinguir entre la maestría de García Márquez y la fluidez de un algoritmo porque, desde su perspectiva estadística, los dos se parecen demasiado.
La ironía tiene una segunda capa, más incómoda. Estas herramientas no solo fallan con los clásicos: fallan de manera sistemática con quienes escriben en su segunda lengua. Un estudio de Stanford encontró que el 61 por ciento de los ensayos del examen TOEFL, escritos por hablantes no nativos de inglés, fueron marcados como generados por inteligencia artificial; no porque fueran mejores que García Márquez, sino porque usan vocabulario más acotado y estructuras más regulares, lo que los hace estadísticamente similares a la prosa de una máquina.
Hay algo más profundo que un fallo técnico en todo esto. Estamos ante un problema de definición: ¿qué creemos que es escribir humanamente? Si la respuesta de nuestras herramientas es que lo humano se reconoce por la irregularidad, el titubeo y la imprecisión, entonces hemos construido una trampa conceptual. Porque la aspiración de cualquier escritor es exactamente lo contrario: elegir bien, sonar natural, no dejar que se vea el esfuerzo; García Márquez pasó décadas perfeccionando eso, el detector lo penalizó por haberlo logrado.
herles@escueladeescritoresdemexico.com

