La inteligencia artificial (IA) no arribó en 2022 con Chat GPT. Llegó en 1956, cuando John McCarthy y otros investigadores acuñaron el término en la conferencia de Dartmouth. Lo que vivimos hoy no es el origen, sino el estallido público de un proceso largo que en México nos encuentra con brechas históricas y preguntas incómodas.
El boom generativo —que tecnocientíficos describen como uno de sus “veranos”— llegó de golpe a las aulas universitarias, activando preocupaciones por deudas cognitivas y generando angustias reales entre profesores y profesoras. Más que una novedad, estamos frente a un síntoma social que revela pendientes que evadimos durante décadas.
Hoy la inteligencia artificial es parte de la vida cotidiana de varios mexicanos con programas como Chat GPT o Gemini (aunque existen otros modelos como Latan GPT o Mistral). Para muestra, el índice Latinoamericano de Inteligencia Artificial (ILIA) de 2025 reporta que el talento humano ha llegado hasta el 37.67% en uso y apropiación de IA en México.
Y es cierto que en algunos contextos ya reemplaza prácticas como escribir ensayos o resolver tareas que antes exigían reflexión pausada (aunque por supuesto, ésta sigue siendo necesaria). Por ejemplo, el 87% de los jóvenes en bachillerato hacen uso de la IA para fines académicos, según el cuestionario Presencia y uso de la inteligencia artificial generativa en la Universidad Nacional Autónoma de México de 2025.
Pero México llega a este punto con brechas acumuladas, como lo han señalado autoras como Alma Rosa Alva de la Selva. Hoy, seguimos observando problemas de comprensión, inequidades epistemológicas y una deuda con la alfabetización digital que especialistas como Guillermo Orozco han advertido desde hace años.
A ello se suma una cuestión crítica: la mayoría de los datos que entrenan estos sistemas provienen del norte global, con el riesgo de reproducir y profundizar la marginación de grupos minorizados, como advierte Paola Ricaurte. Por ejemplo, Paula Helm y colaboradores abordan en Diversity and Language Technology: How Techno-Linguistic Bias Can Cause Epistemic Injustice cómo las tecnologías basadas en inteligencia artificial sólo alcanzaban a cubrir hasta un 3% de las lenguas más habladas o apoyadas del mundo.
Mientras tanto, el discurso de las grandes empresas tecnológicas avanza sin freno y ya hay instituciones que obligan a docentes (y a otros profesionistas) a usar estas herramientas sin mediación pedagógica. La fascinación técnica ha permeado a “propios y extraños”, alimentando la idea de que “usar IA” significa necesariamente “aprender mejor”. En algunos casos, incluso, regresamos a lógicas comunicativas que creíamos superadas, como la teoría de la aguja hipodérmica.
Pero una palabra central reaparece: alfabetización. A nivel digital se entiende como un proceso continuo de aprendizaje, comprensión y apropiación de diversas habilidades, competencias y capacidades que permiten interactuar de forma crítica y ética en la sociedad digital, con el propósito de mejorar la calidad de vida y la ciudadanía digital de quienes la ejercen; así lo plantean la Dra. Alma Rosa de la Selva (2015), Ángel Torres-Toukoumidis con colaboradores (2024) y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO).
En cuanto a su dimensión vinculada a la inteligencia artificial, autores como Joaquin Navarro Perales (2024), Carina Soledad González González (2024) y Hazel Castro con Catty Orellana Guevara (2024) señalan que implica vivir, aprender, colaborar y trabajar con esta tecnología conociendo sus implicaciones e impactos, además de ser capaces de crear y comunicar el conocimiento que genera.
Y esta no puede reducirse a manejar programas ni a memorizar comandos. Como han señalado especialistas como Marilú Garay o Janet Trejo, la alfabetización debe incorporar género, clase social y procesos concretos de enseñanza-aprendizaje que permitan desarrollar pensamiento crítico y no reproducir desigualdades históricas.
También enfrentamos nuevas brechas generacionales, nuevos lenguajes y fenómenos como los que describe Fernando Peirone a través de los emojis, que hoy estructuran realidades comunicativas completas. La velocidad a la que se transforman los códigos digitales obliga a mirar no solo la tecnología, sino las prácticas y los imaginarios que esta produce y legitima.
Ante este escenario, desde el laboratorio social que coordinamos en el CEIICH,UNAM proponemos tres pasos mínimos para no caer en la simulación: primero, escuchar qué está ocurriendo realmente con la inteligencia artificial en cada comunidad; después, elaborar diagnósticos situados por institución o territorio; y finalmente, construir acompañamientos desde políticas educativas, políticas públicas, educación informal y educación continua. Sin ese ejercicio previo, cualquier respuesta será superficial y generalista.
Hoy es urgente volver a lo básico: aprender a hablar, a preguntar, a estructurar discursos y a exponerlos. Al arte, a la filosofía. A aquello que nos hace humanos, desde las diversidades y lo contingente.
Así, la inteligencia artificial abre una oportunidad, pero sólo si va acompañada de un diagnóstico real y del reconocimiento de que muchas crisis venían de atrás. Como señala el Doctor Rodrigo Cardoso, necesitamos dejar de obsesionarnos con los resultados inmediatos y volver a pensar en los procesos reflexivos: lectura, conceptualización, estructura.
Por ello, urge pensar en nuevas alfabetizaciones que incorporen habilidades críticas como saber “promptear” y articular la tecnología con formas diversas de aprendizaje. La IA no lo es todo, pero puede ampliar nuestro paisaje epistemológico si se usa con pensamiento crítico.
Esto implica seguir leyendo, viendo cine, conversando, explorando lenguajes y también integrando la inteligencia artificial desde una lógica de “apropiación disruptiva”: usarla para abrir otros tiempos, recuperar ocio, generar bienestar subjetivo y no sólo para profundizar lógicas de rendimiento y “auto explotación”.
Alfabetizar en inteligencia artificial no es delegarle a la máquina responsabilidades humanas, sino aprender a trabajar de forma híbrida desde la conciencia de sus impactos: ambientales, cognitivos y sociales. Desde el sur global, esto también significa pensar en afectos y cuerpos; reconocer que, aunque somos conexiones neuronales, también somos más que eso.
Decía Eduardo Galeano, que no sólo estamos constituidos por átomos, sino también por historias. Esto supone entender la educación como un acto de transformación y reconstruir puentes generacionales que ya estaban fracturados.
El desafío no es adoptar la inteligencia artificial, sino decidir desde dónde lo haremos. Si la universidad quiere seguir siendo actor relevante en la conversación pública, necesita encabezar los debates sobre gobernanza algorítmica antes de que otros decidan por ella. Ese será el punto de partida para la próxima columna.