Política

Quien gobierna a los algoritmos: lo que no estamos discutiendo sobre la inteligencia artificial

Hablar con una inteligencia artificial no es hablar con un ser autónomo ni con una voz “superpoderosa”. Es conversar con un sistema estadístico entrenado desde parámetros culturales, técnicos y económicos que provienen, casi en su totalidad, del norte global. Esa es la razón por la que tantas y tantos colegas hablan hoy de tecno-colonialismo: no por moda, sino porque la procedencia de los datos condiciona lo que la IA puede ver… y lo que jamás verá.

Las grandes desarrolladoras —OpenAI, Google DeepMind, Anthropic, Meta— seleccionan y filtran los datos que llegarán a nosotros mediante modelos de probabilidad. Y esos equipos distan de ser diversos.

Según el AI Index Report 2025, la inversión privada de Estados Unidos para la investigación sobre IA llegó a 109.1 millones de dólares en 2024; es decir, doce veces más que la de China e Inglaterra. Además, la misma fuente aclara que la representación global de talento humano (en términos laborales) presentó una brecha de género entre 2016 y 2024: 69.46% son hombres y 3054% son mujeres. Un proceso desigual que colegas como Ximena Gutiérrez y Víctor Mireles (CEIICH) han documentado con precisión.

A este sesgo estructural se suma algo que usualmente pasa desapercibido: el cuerpo material de la IA. Por ejemplo, desde la página oficial del Gobierno de México anunció que la empresa CloudHQ invertirá 8.7 mil millones de pesos (4.8 millones de dólares) en el desarrollo de data centers en México; los cuales alojan operaciones de compañías globales, requieren millones de litros de agua para enfriamiento.

Greenpeace y el Öko-Institut Consult GmbH han estimado que un solo data center puede consumir cerca de 68 millones de litros de agua. Además, explican que si se saca un estimado global con base en la tendencia de consumo en Estados Unidos para sus centros especializados en IA, esto podría llegar a los 338 millones de litros por año en 2030. Una cifra que ilustra el costo hídrico del entusiasmo digital. De ahí que se diga —literal, no metafóricamente— que “cuando ocupas inteligencia artificial, te estás gastando el agua”.

Todo esto configura oligopolios tecnológicos más complejos que los viejos monopolios mediáticos estudiados seriamente por Javier Echeverría o Enrique Bustamante. No sólo concentran capital y datos: también intermedian la experiencia del mundo, modulando cómo buscamos, comprendemos y producimos información.

Por ello, desde el Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) hemos insistido en que la crítica es necesaria, pero insuficiente. Quedarse únicamente en denunciar los límites de la IA sería dejar el terreno libre a usos que, en efecto, profundizan lógicas de maximización y rendimiento propias del capitalismo cognitivo.

Por eso apostamos por abrir otros sentidos de uso, desde el abatimiento de brechas, la alfabetización digital y la construcción de proyectos colectivos que sitúen la discusión en clave universitaria y pública. Quedarse en la queja reproduce lo que ya existe; intervenir implica disputar matrices, narrativas y prácticas.

Por lo que, la pregunta parece abstracta, pero es urgente: ¿Quién gobierna a los algoritmos que gobiernan nuestra vida cotidiana?

La autorregulación corporativa ha sido la regla. Pero la gobernanza no puede ser un ejercicio unilateral. Requiere, además de empresas, sectores públicos, sociedad civil organizada y universidades, que históricamente han sido espacios de contrapeso.

Aquí la universidad puede desempeñar un rol decisivo: realizar auditorías algorítmicas científicas, sociales, culturales y educativas, generando criterios propios y no sólo recibiendo —de forma acrítica— lo que las plataformas imponen. Este enfoque permitiría entender cómo los modelos clasifican, jerarquizan, excluyen y, en ocasiones, estigmatizan.

Para mostrar, la investigación Racial bias in AI-mediated psychiatric diagnosis and treatment: a qualitative comparison of four large language models evaluó los diagnósticos psiquiátricos que daban algunos modelos de IA —incluidos Gemini, ChatGPT y ClaudeAI— cuando se especificaba la identidad racial de los pacientes: se obtuvieron 120 resultados sesgados, donde se tendía a dar resultados inferiores a las personas afrodescendientes. Por ende, no se trata únicamente de regular: se trata de abrir el derecho a comprender e intervenir.

¿Quién vigila a los que vigilan, quién regula a los que regulan? Preguntas que circulan en redes con tono de desconfianza, pero que pueden traducirse en agendas de investigación si existen instituciones que las tomen en serio. Desde LIASI trabajamos precisamente en ese puente entre lo técnico y lo social, entre la evidencia y el pensamiento crítico.

Nuestro mensaje no es ni el catastrofismo ni la celebración ingenua de la IA. No se trata de normalizar lo que ya existe, pero tampoco de replegarse en la crítica académica de escritorio en un contexto donde las transformaciones son aceleradas y afectan a todos.

Se trata de pensar en colectivo: articular acciones concretas que permitan diagnosticar, acompañar y transformar prácticas sin caer en discursos polarizantes que sólo alimentan ruido.

Y aquí aparece un elemento que hemos dejado de discutir: el pensamiento crítico. ¿Qué es? ¿Cómo se aprende? ¿Cómo se practica en tiempos de automatización? Tal vez ahí esté el verdadero debate contemporáneo: comprender que la inteligencia artificial no sustituye el proceso reflexivo; al contrario, nos obliga a recuperarlo.

Caso de ello sucedió en 2021, cuando periodistas de Colombia, Brasil, Chile, México y Argentina se unieron para programar una Interfaz de Aplicación Avanzada (API) llamada Monitor de Discurso Político Misógino. Con el fin de clasificar la misoginia encontrada en diversos discursos políticos de América Latina: “En nuestro proyecto, apoyamos que la automatización de la detección del discurso misógino es sólo una herramienta para ayudar a identificar los ataques contra las mujeres entre un gran volumen de datos en Twitter”, explicó Fernanda Garrido, integrante del proyecto, desde su perfil de GitHub.

Porque si algo nos enseña este momento es que la pregunta no es “cómo adoptar la IA”, sino qué tipo de sociedad queremos construir con ella.

* Gracias a Arlette Morales por su apoyo en la búsqueda de información para esta columna.


Google news logo
Síguenos en
Luis Josué Lugo
  • Luis Josué Lugo
  • Laboratorio de IA, Sociedad e Interdisciplina (CEIICH, UNAM).
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.