Paola Cicero, oficial nacional del sector de Ciencias Sociales y Humanidades de la UNESCO, presentó en El Colegio Nacional un informe que expone el panorama sobre el impacto que tiene la inteligencia artificial en la salud mental y en la educación de las infancias y juventudes.
La experta en políticas públicas, derecho y tecnología expuso reflexiones para pensar “cuándo la tecnología está ampliando el desarrollo humano y cuándo lo está sustituyendo silenciosamente”, e hizo énfasis en que esa distinción es fundamental para tomar en cuenta en el desarrollo de políticas públicas, legislación, regulación e incluso en la toma de decisiones pedagógicas.
Al inicio del conversatorio “Los adolescentes y la tecnología digital”, Cicero lanzó una cifra, que más que un dato, dijo, es un diagnóstico social: “Nueve de cada 100 estudiantes universitarios en México declararon en 2025 que usan la inteligencia artificial generativa para apoyo emocional. Y nueve de cada 10 dijeron que les hizo sentir mejor”.
Lo anterior, explicó la también abogada, cambia totalmente el panorama y la pregunta sobre qué deberíamos estar haciendo: “Si un sistema de tecnología está llenando un vacío emocional que las instituciones educativas o el núcleo familiar y de amigos no está logrando cubrir, entonces (ya no es sólo pensar) cómo regulamos el uso de inteligencia artificial, sino qué clase de presencia de contacto humano necesitan las infancias y adolescencias que ningún otro sistema les está dando”.
Desde la UNESCO, dijo, “tenemos la claridad de que no estamos simplemente ante una nueva herramienta técnica, sino que estamos ante una transformación estructural cuya transversalidad e implicaciones deben ser tomadas en una discusión seria de carácter no técnico, sino ético e incluso filosófico, y sacarlo del terreno exclusivo de los científicos de datos e ingenieros”.
La especialista apuntó que el Informe de Salud Mental de 2025 encontró que las juventudes se enfrentan a niveles crecientes de ansiedad, de estrés e incertidumbre en un entorno digitalizado, ya que el uso intensivo de redes sociales se asocia con mayores niveles de ansiedad y de comparación social. Sin embargo, dijo, “la respuesta no está en prohibir, tampoco en idealizar, sino en debatir y hacernos conscientes de estas implicaciones para poder acotar los riesgos de la mejor manera posible. Es necesario poner el aprendizaje, a las personas y la salud mental en el centro”.
La ponente también mencionó un estudio del MIT Media Lab que mostró cómo las neuronas no tenían la misma conectividad en personas que usaron inteligencia artificial comparado con quienes usaron un motor de búsqueda o sólo utilizaban su cerebro.
“Sí usamos ciertos sistemas de inteligencia artificial generativa de manera ilimitada e irreflexiva el músculo del cerebro deja de ejercitarse y eventualmente deja de pensar”.
Otra de las implicaciones negativas del uso de la inteligencia artificial generativa, enfatizó, es que “da respuestas que tienen la apariencia de autoridad”. Lo peligroso es tomar esas respuestas como válidas sin cuestionar y contrastarlas, pues deja fuera el uso del pensamiento crítico sin permitir formarse una opinión propia y una construcción de conocimiento a través de la investigación y la diversidad de fuentes.
“Lo que creemos es que la respuesta no está en prohibir pero tampoco en idealizar. Sino en debatir y hacernos conscientes de estas implicaciones para poder acotar los riesgos de la mejor manera posible. Algunas tecnologías pueden mejorar ciertos aprendizajes en ciertos contextos bajo ciertas condiciones. No hay una receta general ni una solución generalizada. Las investigaciones indican que la tecnología contribuye de manera más efectiva en la educación cuando está integrada en estrategias diseñadas bajo ciertas condiciones y con ciertos puntos de partida mínimos”.
Por lo que llamó a poner el foco en los desarrolladores de inteligencia artificial: “Este no es un tema exclusivamente de responsabilidad de los gobiernos, de escuelas o de padres de familia. Es un problema de responsabilidad compartida en donde también quienes diseñan estas tecnologías son parte. Debemos tener estas discusiones desde que se están diseñando, y una vez que se implementan y se ve que hubo un impacto negativo, entonces es necesario corregirlo. Para eso hay que estar hablando de la ética, del uso responsable de la inteligencia artificial y de las tecnologías en general a lo largo de su ciclo de vida”.
Por su parte, Lucía Magis Weinberg, investigadora del Departamento de Psicología y Centro de Juventud Digital de la Universidad de Washington, dijo que el primer noviazgo y la primera ruptura están asociadas con el primer evento de depresión mayor en la adolescencia.
La doctora en neurodesarrollo, quien se ha dedicado a estudiar cómo madura el cerebro adolescente entre los 10 y los 25 años, también apuntó que las plataformas digitales pueden amplificar las experiencias tanto positivas como negativas, esto debido al uso de datos que van moldeando el algoritmo.
En el caso de la primera ruptura, las adolescencias se enfrentan a este momento en medio de un bombardeo de información en redes sociales e interacciones con la inteligencia artificial que puede contribuir de manera negativa en este hito de desarrollo.
“Las redes sociales impactan particularmente en los adolescentes con problemas de salud mental, provocan baja autoestima, mala imagen corporal y problemas sociales que pueden manifestarse en soledad, depresión y ansiedad. Son ellos los que pueden experimentar los impactos negativos y recurren a ellas en busca de apoyo”.
Sin embargo, dijo, el mundo digital no puede ser blanco y negro ya que en este existen multiples oportunidades de desarrollo, por ejemplo, en el campo de la educación y el aprendizaje; el entretenimiento, y el desarrollo de creatividad y la socialización. Por lo anterior, es importante el acompañamiento familiar, la educación, la regulación y el diseño apropiado para diferentes rangos de edad.
Finalmente, coincidió con Cicero sobre que es necesario “poner mucho el dedo en el renglón para que haya un diseño centrado en la niñez, que no existe en este momento, donde los modelos de negocios de estas plataformas realmente respondan a las necesidades de niñas, niños y adolescentes; sabemos que estas plataformas tienen patrones manipulativos. Y, por supuesto, todo esto está insertado en sistemas de estructuras más grandes de cada país; es importantísimo que haya un sistema de salud mental que pueda acompañar y un sistema de educación en donde se pueda hacer toda esta formación en cultura digital, ciudadanía digital y entendimiento algorítmico”.
PCL