La ciencia por gusto

Prejuicios y computadoras

Todos tenemos prejuicios. Algunos los reconocemos abiertamente; otros los negamos, o no somos conscientes de tenerlos.

¿De dónde surgen? Algunos parecen ser producto de elecciones conscientes. Pero también es probable que influyan, sobre todo en los prejuicios inconscientes, la educación, cultura, entorno social y experiencias personales.

En la cultura del combate a la discriminación se maneja la idea de que el lenguaje puede fomentar o combatir prejuicios. De ahí las campañas de su uso inclusivo para eliminar prejuicios de género.

¿Cómo saber si realmente existe una relación directa entre el lenguaje de un grupo social y sus prejuicios? Algunos desarrollos recientes de computación e inteligencia artificial están proporcionando herramientas para saberlo.

En 1998 se introdujo el método IAT (Test de Asociación Implícita) para detectar las correlaciones que una persona percibe entre palabras y conceptos. Consiste en presentar parejas de palabras en una computadora y medir el tiempo que el sujeto tarda en oprimir teclas para indicar si halla relación entre ellas. Así se demostró, por ejemplo, que los individuos tienden más a asociar nombres masculinos con ocupaciones profesionales y femeninos con ocupaciones del hogar (aunque los sujetos nieguen conscientemente tener prejuicios de género).

El 14 de abril la revista Science publicó un artículo de Aylin Caliskan y su grupo, de la Universidad de Princeton, que muestra que una computadora, analizando qué tan frecuentemente aparecen unas palabras en relación con otras en un cuerpo de textos, puede hallar exactamente las mismas correlaciones reveladoras de prejuicios que la prueba IAT.

Generaron un algoritmo que representa cada palabra, tomada de un vocabulario de 2.2 millones de vocablos extraídos de internet, como un vector de 300 “dimensiones semánticas”, y luego analiza matemáticamente la correlación entre dichos vectores. Logra así “extraer” de la base de datos no solo información, sino significado.

En particular, lograron replicar con exactitud los hallazgos, obtenidos previamente en estudios IAT, de que el lenguaje lleva implícitos ciertos juicios. Algunos son éticamente neutros (“insecto” se relaciona con “desagradable” y “flor” con “agradable”). Otros reflejan estereotipos indeseables (los nombres masculinos se asocian más con actividades profesionales, y los femeninos con actividades del hogar).

Lo asombroso es que el algoritmo puramente matemático de Caliskan, partiendo simplemente de una base de datos, logra saber que los grupos humanos tienen esos juicios (y prejuicios) sin que sea necesario estudiar a personas.

Estos algoritmos pueden ser utilísimos en muchas áreas. Para estudiar, por ejemplo, los prejuicios y asociaciones de grupos humanos del pasado, siempre y cuando hayan dejado textos para analizar. Pero también para aclarar si los prejuicios incrustados en el lenguaje son causa, o más bien efecto, de los prejuicios de una sociedad.

El método también se podrá usar para estudiar los sesgos y prejuicios inherentes en los medios electrónicos y escritos, y entender mejor cómo influyen en fenómenos de polarización política o ideológica.

Quizá un día podamos entender mejor las raíces de nuestros prejuicios y comprendamos en qué grado somos o no culpables de tenerlos.

Dirección General de Divulgación de la Ciencia, UNAM

mbonfil@unam.mx