Comunidad

UNAM desarrolla protocolo para uso ético de IA en posgrados

Advirtieron que la Inteligencia Artificial puede generar redacciones convincentes, pero factualmente incorrectas, ambiguas o incluso inventadas.

Según la encuesta interna 2025 de la Coordinación de Evaluación, Innovación y Evaluación Educativa de la UNAM, que consultó a 4 mil 725 estudiantes de posgrado y a 2 mil 69 docentes en diversos campos de la Universidad, el 86 por ciento de estudiantes reportó usar herramientas de Inteligencia Artificial (IA), y el 76 por ciento de docentes alguna interacción con estas tecnologías.

Por ello, con miras al uso de IA de manera ética, la Universidad Nacional Autónoma de México (UNAM) diseñó un Protocolo para el uso ético de IA en posgrados, cuyo objetivo será orientar prácticas de investigación que incorporen IA sin sustituir el juicio académico y garantizar que el desarrollo del trabajo intelectual sea transparente y auténtico.

Durante un acto organizado por el Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) de la UNAM, se presentó este manual para el empleo ético de IA en posgrados, el cual se trata de un esfuerzo colectivo entre docentes y estudiantes del Laboratorio de Inteligencia Artificial (IA) Aplicada a la Investigación Social del Posgrado de la Facultad de Ciencias Políticas y Sociales de UNAM.

Los especialistas explicaron la importancia de los criterios de vigilancia epistémica, transparencia y alfabetización digital para integrar a la IA como herramienta complementaria en la investigación posgradual

Mauricio Sánchez Menchero, director del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), abrió la sesión con una reflexión del aclamado cineasta mexicano Guillermo del Toro: “la IA se puede ir al carajo”; frase que pronunció al finalizar la proyección de su más reciente película, Frankenstein.

La referencia, explicó, fue para colocar la discusión sobre la mesa: ¿puede la técnica deshumanizar cuando se emplea sin marcos bioéticos?

La obra original, escrita por Mary Shelley, fue invocada para subrayar cómo la ciencia puede eliminar al humano si no se considera la dimensión ética. Es decir, según dicho comunicólogo, el debate de los límites y deberes parte de plantear que el poder crear ‘vida’ no justifica hacerlo sin responsabilidad.

Ana Saldivar, en representación de la doctora Karla Valverde, directora del Posgrado UNAM, insistió en que el uso de herramientas basadas en IA no busca limitar la creatividad académica, sino garantizar que ésta sea transparente y auténtica.

Los protocolos establecen algunos criterios: declarar cuándo se usa, qué modelos, qué instrucciones se emplearon, y en qué etapas de la investigación intervino la herramienta.

Asimismo, que cualquier producción que la incorpore presente una Declaración de Uso Ético de IA con tres apartados mínimos:

  1. Identificación de herramientas y modelos
  2. Registro de prompts, instrucciones y procedimientos
  3. Especificación de las etapas en que se recurrió a ella

Eduardo Martínez y Ana Cortez, representantes de dicho grupo de investigadores, plantearon la urgencia de un plan, recordando la aceleración de procesos a distancia durante la pandemia y la masificación del uso de modelos como ChatGPT.

Los argumentos detallaron, para institucionalizar un protocolo, se agrupan en tres factores:

  • Incertidumbre: conviven escenarios en que la IA facilita procesos de aprendizaje con otros donde introduce sesgos sociales, reduciendo la profundidad del aprendizaje.
  • Deshonestidad académica: prácticas como el ghost writing asistido por IA y el plagio tecnológico exigen mecanismos de transparencia y verificación que eviten que el trabajo generado por IA se presente como autoría propia.
  • Centralidad del factor humano: la incorporación de la IA no es solamente técnica, pues requiere formación, vigilancia epistémica y metodológica para que las herramientas no sustituyan la capacidad crítica.

En tanto, se manejan los ejes cruciales para reconocer los límites del modelo: la IA puede generar redacciones convincentes, pero factualmente incorrectas, ambiguas o incluso inventadas; es decir, las llamadas alucinaciones, que exigen verificación humana sistemática. Además, se destacó que ningún modelo es neutral y que pueden reproducir sesgos sociales, geográficos, e inclusive de género, gracias a lo que van aprendiendo con el tiempo.

Para entender qué tan comunes son las alucinaciones, existen datos como los registrados en el estudio AI Index Report del 2024, realizado en la universidad de Stanford: donde ChatGPT fabricó información inverificable en aproximadamente el 19.5 por ciento de sus respuestas, ante cuestionamientos de diversos temas, como el lenguaje, clima e incluso tecnología.

En consecuencia, la transparencia y declaración del protocolo proponen que todo proyecto desarrollado con estas inteligencias declare públicamente su uso, con la finalidad de permitir la curaduría crítica de la información y rendición de cuentas.

Señalaron que esta tecnología debe servir como complemento (transcribir ideas, revisar tablas, cotejar con fuentes oficiales o detectar errores estructurales), pero no como generador de las conclusiones finales ni como sustituto del análisis crítico del investigador. Los modelos de lenguaje deben usarse bajo la premisa de no sustituir la elaboración propia de argumentaciones académicas; así como la evaluación debe exigir contraste constante para evitar la difusión de información no verificada

Para lograr esto, explicaron los investigadores, se debe de comenzar con una alfabetización digital y una formación para capacitar a estudiantes y docentes mediante talleres accesibles, que manejen una base de uso ética en IA. Lo cual permitirá identificar sesgos, verificar fuentes o documentar procesos.

Además, se recomienda integrar evaluadores expertos en coloquios y exámenes que supervisen su uso metodológico sin estigmatizar a quienes la empleen.

“Es importante recordar que esta tecnología, no es neutral. Influye en cómo interpretamos la realidad. Por eso debemos justificar su uso en la metodología, marcando claramente sus límites, sin modificar frases completas ni delegar el razonamiento crítico. El objetivo no es prohibir, sino normar y educar: garantizar que se le incorpore como herramienta auxiliar, basada en la transparencia, vigilancia y formación continua”, acotaron los investigadores.

Con información de Arlette Morales y Eva Zacarías

LP

Google news logo
Síguenos en
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.