En las aulas universitarias de hoy, un escenario se repite con alarmante frecuencia. Alumnos y alumnas armados con herramientas de Inteligencia Artificial (IA) como ChatGPT, Gemini o Grok, transitan de manera casi perfecta las evaluaciones tradicionales como exámenes escritos, ensayos memorísticos o pruebas estandarizadas, sin que con ello acrediten aprendizaje alguno. ¿Sigue teniendo sentido aferrarnos a esos métodos de evaluación diseñados para verificar el dominio de conocimientos aun cuando la IA puede generarlo todo? La evaluación tradicional en la universidad basada en exámenes escritos -como pruebas de opción múltiple, ensayos o problemas resueltos a mano- que evalúan la memorización de hechos y la comprensión conceptual, asume que el producto final refleja el esfuerzo individual del alumno. Sin embargo, ello tenía sentido en un contexto pre-digital, donde el acceso al conocimiento era limitado y la creación de contenido requería tiempo y dedicación humana exclusiva. La IA esta transformando esa lógica. ¿Tiene sentido seguir pidiendo un ensayo de cinco páginas si una IA puede redactarlo en cuatro segundos con una prosa impecable? ¿Deberíamos seguir midiendo el conocimiento a través de métodos obsoletos que priorizan la memorización y la repetición? ¿Debemos insistir en evaluaciones que simulan tareas que pronto serán automatizadas? Estos cuestionamientos no son solo académicos; son un llamado a replantear el propósito de la universidad misma en una era de disrupción tecnológica.
Consideremos, por ejemplo, el campo de la Medicina. Tradicionalmente, los exámenes evalúan la memorización de síntomas, anatomía y protocolos. Pero hoy, un estudiante puede usar IA para generar un plan de tratamiento completo basado en síntomas ingresados, citando estudios actualizados en tiempo real. ¿Tiene sentido un examen escrito donde se pide listar los efectos secundarios de un medicamento, cuando la IA puede proporcionar esa información al instante y con mayor precisión? En lugar de eso, “estar preparado” en Medicina debería significar la habilidad para interpretar datos ambiguos, empatizar con pacientes y tomar decisiones éticas en situaciones de crisis, y un examen tradicional no mide eso. En el Derecho, el panorama es similar ¿Por qué persistir en pruebas que evalúan la capacidad de citar códigos legales de memoria, cuando en la práctica un abogado usa herramientas digitales para eso? Aquí, “estar preparado” implica no solo conocer la ley, sino argumentar creativamente, negociar con partes interesadas y considerar implicaciones éticas, aspectos que no son medibles en los exámenes tradicionales. En las Finanzas, las evaluaciones convencionales se centran en cálculos manuales, análisis de estados financieros o proyecciones económicas a través de exámenes cuantitativos. Pero con IA un estudiante puede generar modelos predictivos, valoraciones de activos o incluso estrategias de inversión en minutos, superando en velocidad y precisión a cualquier humano sin asistencia. ¿Sigue teniendo sentido un examen donde se pide calcular manualmente o analizar un portafolio, cuando algoritmos lo hacen instantáneamente?
Persistir en evaluaciones tradicionales no es solo ignorar la realidad de la IA, sino que socava el verdadero significado de “estar preparado”: no se trata de replicar lo que una máquina hace mejor, sino de cultivar habilidades humanas únicas como el pensamiento crítico, la colaboración interdisciplinaria y la ética aplicada. Hoy día, estamos obligdos a evaluar el proceso, no solo el producto final. La evaluación debe volverse "forense". Evaluar borradores, diálogos con la IA, bitácoras de errores y defensas orales. El valor a identificar está en el esfuerzo cognitivo, no en el documento final. Esto implica evaluar la forma en que los estudiantes abordan un problema, la creatividad y la originalidad de sus soluciones, y la capacidad para reflexionar sobre su propio aprendizaje. Al evaluar el proceso, podemos obtener una visión más completa de la comprensión y el aprendizaje del estudiante: ¿Cómo llegó el alumno a esa conclusión? ¿Qué dudas tuvo? ¿Cómo corrigió a la IA? Aspectos que nos demuestren que el conocimiento ha sido digerido, no solo descargado.
Calificar hoy en día implica un reto de mentalidad pedagógica. Conlleva una tarea de mentoría. Requiere más tiempo y exige una relación más cercana entre maestro y alumno, pero debe verse como una oportunidad para rescatar la esencia de la enseñanza. Si la IA nos libera de la carga de calificar lo mecánico, nos devuelve la libertad de valorar lo humano. El reto de la educación superior no es cómo evitar que los estudiantes usen la IA para aprobar, sino cómo transformar su modelo educativo para que aprobar sin pensar sea, sencillamente, imposible. Para ello debe evolucionar hacia evaluaciones basadas en proyectos reales, simulaciones colaborativas y reflexiones personales, donde la IA sea una aliada, no un atajo. De lo contrario, corremos el riesgo de graduar profesionales que dominen la apariencia del conocimiento, pero no su esencia. ¿Estamos listos para este cambio, o seguiremos evaluando el pasado mientras el futuro nos adelanta?
Presidente de la Asociación Mexicana de Educación Continua y a Distancia AC

