Un algoritmo analiza tu foto para saber si eres homosexual

A través de la inteligencia artificial, un software puede adivinar tu preferencia sexual. Ha sido criticado por tener una muestra muy limitada y poner en riesgo a grupos vulnerables. 
La muestra constó de 35 mil fotografías, que hombres y mujeres compartieron en una página de citas.
La muestra constó de 35 mil fotografías, que hombres y mujeres compartieron en una página de citas. (Tomada de www.solverml.com)

Ciudad de México

Cada vez sabemos sobre nuevos usos que podría tener la inteligencia artificial. Ahora, un estudio hecho por investigadores de la Universidad de Stanford asegura que un algoritmo es capaz de identificar a las personas homosexuales con más precisión que los mismos humanos.

Para esto, Michal Kosinski y Yilun Wang tomaron 35 mil 326 fotografías de 14 mil 776 personas registradas en un popular sitio de citas en línea e hicieron que una red neuronal profunda las analizara para que detectara los rasgos de las imágenes.

TE RECOMENDAMOS: ¡Apaga tu Bluetooth! Pueden robarte toda tu información 

Posteriormente, el programa tenía que distinguir la preferencia sexual basándose en dos fotografías escogidas al azar y logró señalarla correctamente 81 por ciento de las veces en los hombres y 74 por ciento en las mujeres. Cuando se le presentaban cinco imágenes a la vez, el software logró identificar la preferencia de 91 por ciento de los hombres y 83 por ciento de las mujeres.

Dentro de la investigación se encontró que los hombres y mujeres homosexuales tienden a tener expresiones características y "estilos de arreglo", es decir que los hombres parecen más femeninos, además de la tendencia de rasgos como frentes más amplias, mandíbulas más estrechas, narices más largas y frente más grande que hombres heterosexuales; señala además que las mujeres tienden a expresarse y arreglarse de manera más masculina, al igual que mandíbulas más grandes y frente más pequeña en comparación con las mujeres heterosexuales.

Sin embargo, el estudio y el algoritmo tienen sus fallas, mismas que los investigadores reconocieron. “Nuestras conclusiones pueden estar equivocadas. De hecho, a pesar de la evidencia, esperamos que lo esté”.




TE RECOMENDAMOS: No hay que tenerle miedo a la Inteligencia Artificial: investigador IBM

Y es que el estudio analizó las fotografías con variables muy limitadas tanto raciales como de orientación sexual, pues no sólo se utilizaron en gran parte fotografías de personas de raza blanca, sino que se le dio una opción binaria: homosexual o heterosexual, dejando de lado el amplio espectro sexual que incluye la bisexualidad o la asexualidad.

La tecnología no puede identificar la orientación sexual de alguien”, declaró Jim Halloran, el director digital de GLAAD, una de las organización pro LGBTTTI, y llamó al estudio “ciencia basura” y peligrosa, pues no sólo reduce la representación racial o el espectro sexual, sino que pone en riesgo a los grupos vulnerables al exponer su orientación sexual.

Según los investigadores, decidieron publicar los resultados pese a no tener una prueba concreta de la veracidad de este algoritmo pues “gobiernos y corporaciones ya están usando estas herramientas y queremos mostrar los riesgos que podría tener esta tecnología si cae en las manos incorrectas”. 



mrf