Política

Dolor en el aula: inteligencia artificial y malestar que no nombramos

Hay algo que se repite en casi todos los talleres que imparto. No aparece en los programas, ni en todas las personas. No está en las diapositivas, pero se instala en el ambiente: un malestar difícil de nombrar. Un dolor. O en términos freudianos, un nuevo malestar en la cultura.

También hay miedo. Miedo a ser desplazados, miedo a no alcanzar a cubrir las nuevas demandas, miedo a perder autoridad frente a tecnologías que parecen responder mejor, más rápido y sin desgaste. Miedo a más precarización. Esto se vuelve particularmente visible en las ciencias sociales y humanidades, donde la palabra ha sido históricamente el centro. No es casual: buena parte de las tareas cognitivas están siendo automatizadas o asistidas por estas herramientas.

En su libro El fin de la escritura, Fernando Peirone sostiene que la humanidad ha transitado de la narrativa mítica a del logos de la razón, y que hoy asistimos a una nueva transición hacia la narrativa relacional. No se trata de un desplazamiento lineal ni de una sustitución total: las formas anteriores persisten, se transfiguran, conviven en tensión; entonces, lo que cambia son las condiciones mismas en las que producimos sentido.

Sin embargo, hay un dolor social en cada tránsito de este tipo.

No es extraño que, cuando imparto talleres o participo en conferencias, ese dolor aparezca en las palabras de muchos profesores. Hay desconcierto, frustración, incluso enojo. No entienden cómo es que el 92% de los estudiantes de América Latina usen IA generativa, según la Encuesta sobre la IA en la Educación Superior en América Latina 2026 Y no es una exageración: el 67% de los estudiantes la llega a usar diaria o semanalmente para tareas escolares (como la búsqueda de información, obtención de nuevas ideas, creación de borradores o ayuda en la redacción), acorde con dicho informe del Tecnológico de Monterrey.

En algunos contextos internacionales se confirma esta tendencia como parte de una adopción acelerada en educación superior. Por ejemplo, la organización EDUCAUSE advirtió en su informe de investigación de 2026 que el 94% de trabajadores en instituciones educativas de Estados Unidos (EE.UU.) está usando IA y el 92% de las instituciones adoptó alguna estrategía de IA en el trabajo.

Detrás de esto hay mucho por analizar. Los estudiantes copian y pegan respuestas, pero también exploran alternativas creativas para que la inteligencia artificial les resuelva ensayos o ejercicios diseñados bajo lógicas tradicionales. Señalan que hay una pérdida de interés por la lectura en su forma clásica y el profesor, en muchos casos, ya no sabe dónde queda su lugar.

Mientras tanto, reportes advierten una caída en la lectura profunda, desplazada por consumos fragmentados, visuales y mediados por algoritmos. Desde EE.UU., el estudio de Jessica Bone y colaboradores a lo largo de 20 años concluyó que la lectura por placer desciende 3% de forma anual. Y desde México, el Instituto Nacional de Estadística y Geografía (INEGI) reportó en MOLEC 2024 y 2025 que en nueve años la lectura ha descendido un 14.6%: 3 de cada 10 personas no lectoras declara que es por falta de interés.

Ante este escenario, más allá de los regaños o de la nostalgia por tiempos pasados que se perciben como mejores, cabe preguntarnos: ¿qué podemos hacer?

En primera instancia, hace falta reconocer ese dolor social y transitarlo. No es gratuito. Hay trabajos que están siendo desplazados, dinámicas de autoexplotación que se intensifican, formas de control social que se reconfiguran y un costo medioambiental que pocas veces entra en la conversación.

Se ha estimado que los modelos de IA a gran escala requieren cantidades significativas de energía y agua para su entrenamiento y operación, lo que abre una discusión socioambiental aún incipiente en el ámbito educativo; por decir, el estudio de Pengfei Li y colaboradores habla de que la demanda global de IA podría costar entre 4.2 y 6.6 mil millones de metros cúbicos de agua dulce sólo en 2027

Pero también es cierto, como señala Franco Berardi, que no le estamos dejando un futuro claro a las nuevas generaciones. Quizá tampoco un pasado habitable. En este sentido, lo que observamos es una crisis más amplia de sentido. Las narrativas actuales incorporan códigos visuales, auditivos y algorítmicos, y se inscriben en fenómenos como el capitalismo cognitivo o el tecnofeudalismo. La inteligencia artificial, en este contexto, redefine quién puede producir conocimiento y bajo qué condiciones.

¿Cómo hacer de lo mismo otra cosa (diría Jaques Lacan)?

Esa pregunta resuena en el aula y fuera de ella. Y es también la provocación que intento llevar a mis clases, talleres o conferencias: ¿cuáles son hoy las estrategias de enseñanza-aprendizaje que necesitamos para reconstruir pactos sociales e intergeneracionales?

No hay una respuesta única, pero sí una condición necesaria: el diálogo. Reconstruir implica rehacer consensos, y eso pasa por escucharnos. También por generar protocolos de uso situado, no sólo para la inteligencia artificial, sino para muchos otros significantes que hoy atraviesan una crisis de sentido. Algunas universidades ya no están prohibiendo la IA, están intentando integrarla críticamente. Tal vez ahí haya una pista.

¿Cómo seguir transmitiendo pensamiento crítico? ¿Cómo tejer entre generaciones que han sido formadas en condiciones radicalmente distintas? ¿Cómo construir entornos donde se recuperen derechos sociales en medio de contextos atravesados por violencia, desigualdad y crisis geopolíticas? Porque esa última pregunta también forma parte del ecosistema social de la IA.

Por tanto, habitamos en medio de una cadena de significantes en transformación acelerada. Y quizá el problema, además de estudiantes cambiando demasiado rápido, implica instituciones educativas que no estamos sabiendo responder.

Quizá el mayor riesgo sea la ruptura del vínculo entre quienes enseñan y quienes aprenden. Porque, en el fondo, el problema es tecnológico, pero sobre todo relacional. Y tal vez apenas estamos empezando a entenderlo.


Google news logo
Síguenos en
Luis Josué Lugo
  • Luis Josué Lugo
  • Laboratorio de IA, Sociedad e Interdisciplina (CEIICH, UNAM).
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.