¿Cómo saber si un estudiante realmente aprendió aunque use inteligencia artificial? La respuesta cambia todo
- Esp. Willmar Tarazona Faneyth

- 26 mar
- 3 Min. de lectura

Más de dos tercios de los estudiantes de secundaria en países de ingresos altos ya usan inteligencia artificial para sus tareas. El debate ya no es si lo hacen. La pregunta que los docentes aún no saben responder es otra: ¿cómo saber si realmente aprendieron?
En 2023, un estudiante universitario en Nueva York entregó un ensayo de diez páginas sobre ética periodística. Redacción impecable, argumentos sólidos, citas correctamente formateadas. La nota fue la más alta del semestre. Dos días después, el profesor le pidió que explicara en clase su argumento central. El estudiante no supo por dónde empezar. Lo que entregó era perfecto. Lo que sabía era casi nada. Esa escena, repetida hoy en miles de aulas con distintos nombres y distintas materias, resume con más precisión que cualquier estadística el problema que la inteligencia artificial le está planteando a la educación.
Los datos son contundentes. Según la UNESCO, más de dos tercios de los estudiantes de secundaria en países de ingresos altos recurren regularmente a herramientas de inteligencia artificial generativa para completar sus tareas escolares. En universidades estadounidenses, esa cifra escala al 78%, según un análisis publicado en 2025. Y apenas el 10% de las escuelas y universidades en el mundo cuenta con un marco oficial que oriente cómo debe usarse esta tecnología, de acuerdo con una encuesta de la propia UNESCO que abarcó 450 instituciones educativas.
El problema no es detectarlos. Es que detectarlos no sirve de nada.
Durante meses, docentes de todo el mundo desarrollaron estrategias para identificar si un texto fue escrito por un modelo de IA. Frases demasiado pulidas, estructura repetitiva, vocabulario neutro, ausencia de errores naturales. Lucas Markarian, profesor de matemáticas en Marsella, Francia, lo resolvió de una manera más directa y reveladora: pide a sus alumnos que repitan en clase los ejercicios que entregaron en casa. El resultado es brutal. Cuando un estudiante obtiene la nota más alta en la tarea, pero reprueba al repetirlo en el aula, la evidencia se impone por sí sola.
El problema es que esa estrategia revela el síntoma, no lo cura. Y los síntomas se están sofisticando. Cada vez más estudiantes aprenden a “humanizar” los textos generados por IA: varían el largo de las oraciones, introducen anécdotas, cometen errores intencionales. Los detectores automáticos, como GPTZero o Copyleaks, tienen tasas de error que los hacen poco confiables como única herramienta. Como señala el Instituto de Inteligencia Artificial de la UDLAP, ninguna plataforma podrá decir con certeza si un texto fue escrito por IA sin comprometer la privacidad de los estudiantes. La carrera de la detección es, en el mediano plazo, una carrera perdida.
EL DATO
Los detectores de IA como GPTZero tienen falsos positivos: textos humanos pueden ser marcados como IA y viceversa. La IA también supera ya la nota media de los estudiantes en la mayoría de los exámenes estandarizados.— UNESCO / UDLAP, 2025
La pregunta equivocada y la pregunta que sí importa
La UNESCO lo dice sin rodeos en su análisis sobre el futuro de la educación: la inteligencia artificial generativa ya obtiene mejores puntuaciones que la media de los estudiantes en la mayoría de los exámenes estandarizados, y en muchos casos se sitúa en el percentil más alto. Eso no es solo un problema de trampas académicas. Es una señal de que el sistema de evaluación que la escuela ha usado durante décadas está diseñado para medir lo que las máquinas hacen mejor que los humanos.
El verdadero dilema, entonces, no es cómo atrapar a quien usó ChatGPT. Es cómo demostrar que un estudiante aprendió a pensar. Y para eso, los investigadores de The Conversation proponen un cambio de enfoque radical: en lugar de diseñar tareas que evalúen el producto final —un ensayo, un resumen, una respuesta correcta— diseñar evaluaciones que pongan en valor el proceso: los borradores, las decisiones descartadas, la capacidad de explicar con palabras propias cómo se llegó al resultado y qué aportó el estudiante que ningún modelo de IA podría haber aportado.
La evaluación auténtica, como la llaman los especialistas, no teme a la IA porque pone en el centro lo que la IA no puede replicar: la experiencia personal, el contexto local, el error consciente, la duda honesta. Un estudiante que puede explicar por qué eligió una fuente sobre otra, por qué descartó un argumento o cómo cambió su opinión durante el proceso, demuestra algo que ningún chatbot puede fingir: que pensó.
La pregunta que debería estar en el centro del debate educativo no es ¿usaste inteligencia artificial?, sino ¿qué aprendiste tú?. Si la respuesta a la segunda pregunta es sólida, la primera deja de importar. Y si la respuesta es vacía, ningún detector del mundo va a resolver el problema real: que el sistema educativo lleva décadas midiendo lo que las máquinas hacen mejor que los humanos, y que ya es hora de medir lo que solo los humanos pueden hacer.
.png)



Comentarios