Tecnología

En busca de una IA feminista e igualitaria: Paola Ricaurte y los riesgos sociales de la Inteligencia Artificial

La investigadora Paola Ricaurte ha dedicado su vida al estudio y activismo en el entorno de la nueva tecnología

Lo que actualmente se conoce como Inteligencia Artificial está cambiando muchas ramas de la sociedad, desde el arte y entretenimiento, hasta las decisiones de gobiernos y empresas, algo peligroso si no se regula o realiza de la manera adecuada, ese es el campo de investigación de Paola Ricaurte Quijano.

A través de su investigación, la doctora busca incidir en el desarrollo de políticas y tecnologías mediante el análisis crítico, feminista y decolonial; así como ampliar el debate sobre la dimensión social de la tecnología, su relación con el entorno, la diversidad cultural y la pluralidad de conocimientos el problema es que el mundo es finito y que el desarrollo tecnológico de esos sistemas sociotécnicos amplía las brechas sociales.

“En la historia de la humanidad, las tecnologías dominantes han servido para controlar la naturaleza y abonar a una idea de lo que debe ser la sociedad, el trabajo y las relaciones. Si los sistemas sociotécnicos que vemos hoy responden a la visión del mundo donde lo importante es la acumulación del dinero, el incremento de la productividad y la eficiencia el problema es que el mundo es finito y que el desarrollo tecnológico de esos sistemas sociotécnicos amplía las brechas sociales”, expone.

Nombrada por la revista TIME como una de las 100 personas más influyentes del mundo en Inteligencia Artificial, Paola es investigadora titular de la Escuela de Humanidades y Educación del Tecnológico de Monterrey, además de investigadora asociada del Berkman Klein Center for Internet & Society de la universidad de Harvard.

Paola Ricaurte | Especial
Paola Ricaurte | Especial
“Siempre he dicho que la Inteligencia Artificial tiene muchos sesgos y en muchos niveles. Desde su creación porque las realizan personas que no son como nosotras, y también cuando se forman las bases de datos, cuando se construyen los algoritmos, y su implementación”, declaró en entrevista con MILENIO.
“Las corporaciones que toman decisiones sobre qué datos alimentan los sistemas y qué tipos de modelos se diseñan para que interactuemos con ellas no están interesados en hacer que esas diferencias se eliminen”, insistió.

Para Paola la ética en el desarrollo de tecnologías es elemental para evitar las desigualdades y antes de combatir los sesgos hay que entender de dónde vienen. Ha sido integrante de organizaciones de la sociedad civil en la defensa de derechos digitales y ha participado como consejera y consultora en el desarrollo de políticas públicas relacionadas con la tecnología.

“Hay tecnologías que si se desarrollan bajo marcos del mercado e intereses económicos en lugar de buscar un beneficio social, van a agrandar esas desigualdades. Si queremos controlar los sesgos debemos tener acceso y transparencia a los procesos de implementación o desarrollo en la IA, que es un conjunto de tecnologías muy diversas”, expuso.

Toma como responsabilidad de la sociedad el impulsar nuevas tecnologías que ayuden a revertir esas desigualdades sistémicas y asegura que es posible: “Curar bases de datos para que sean representativas de las poblaciones para las que están diseñadas estas tecnologías”.

“Usar estas tecnologías con los sesgos que tienen pueden afectar desproporcionadamente a ciertas poblaciones marginadas y realizadas, a las divergencias sexogenéricas y a las precarizadas, también es responsabilidad de los gobiernos ya que utilizan estas tecnologías para la toma de decisiones”, busca abrir la discusión.
“La tecnologías no son neutras, todo lo que creamos como seres humanos refleja lo que somos, las tecnologías basadas en IA llevan incrustadas las marcas sociales de su producción, si las produce un hombre blanco con mucho privilegio va a crear algo que solo lo ayudará a sus propósitos”, confirmó.

Paola Ricaurte | Especial
Paola Ricaurte | Especial

La Red Feminista de Investigación en Inteligencia Artificial (FAIR)

Paola Ricaurte es activista en Tierra Común, una iniciativa académica que busca la descolonización de datos en Latinoamérica. Además, impulsa la Red Feminista de investigación en Inteligencia Artificial (FAIR) que “ha sido una iniciativa para poner en la práctica hipótesis acerca de si es posible construir tecnologías bajo principios feministas, en particular aquellas que pueden ser problemáticas relacionadas a la Inteligencias Artificial”.

Paola sostiene que las malas prácticas de IA ya expuestas afectan más a las mujeres, a las personas racializadas, marginadas y excluidas por no ser ellos quienes los desarrollan, entonces buscan “Descolonizar despatriarcalizar, desmercantilizar las tecnologías”.

“Es una hipótesis que hemos estado tratando de poner en el mundo. Hay muchas discusiones acerca de los sesgos de género y raciales de la IA, para nosotras es importante entender las tecnologías como relaciones de poder. Si no cambias la matriz del poder, vas a seguir teniendo sistemas que a lo mejor funcionan, pero estos seguirán reproduciendo esas relaciones de poder asimétricas en la sociedad. Por eso, nuestra perspectiva tiene que ser feminista”, justificó su misión.
“Queremos abonar a las causas de la desigualdad y de las relaciones asimétricas de poder y de las violencias estructurales que se reproducen a través de estos sistemas en todos esos planos y en todo el ciclo de vida de la IA, no solamente en el momento de los datos o el modelo; quiero que contemplemos todo cómo afecta a las relaciones laborales, los sistemas democráticos, al ambiente. Mientras no tengamos esa visión un poco más compleja no estamos solucionando ningún problema”.

jk

Google news logo
Síguenos en
Omar A. G. Pardavé
  • Omar A. G. Pardavé
  • Licenciado en Ciencias de la Comunicación y Maestro en Marketing Digital, con estudios en arte, teatro y guionismo. Experiencia como editor audiovisual en noticieros de Milenio TV, actualmente reportero de entretenimiento en M2, principalmente Cine y Música.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.