Microsoft suspende su IA por comentarios ofensivos

Usuarios de Twiiter transformaron a Tay, el robot de inteligencia artificial que creó Microsoft, en una adolescente racista y misógina. 
Tay fue lanzado como un proyecto de Microsoft para mejorar la forma en la que la inteligencia artificial se comunica con los humanos.
Tay fue lanzado como un proyecto de Microsoft para mejorar la forma en la que la inteligencia artificial se comunica con los humanos. (Twitter)

Ciudad de México

Tay, el robot que lanzó Microsoft capaz de mantener conversaciones en las redes sociales como una típica adolescente gracias a la inteligencia artificial, tuvo que dejar de “platicar” luego de que publicara tuits ofensivos.

En tan sólo 24 horas, Twitter hizo de la inocente Tay un robot que aseguraba que las feministas no debían de existir, que George W. Bush fue el responsable del atentado en el World Trade Center de Nueva York en 2001 y que Donald Trump sería un buen presidente.

Cuando Microsoft lanzó Tay, explicó que el sistema aprendía cómo interactuar con la gente conforme más platicaba con ellas. Sin embargo, usuarios de Twitter mostraron su lado no tan amable y comenzaron a hacer comentarios ofensivos que posteriormente Tay replicaba. 

En respuesta, la empresa borró los tuits y suspendió la actividad de la cuenta para hacer ajustes al programa. “Nos dimos cuenta de los esfuerzos coordinados de algunos usuarios para hacer que Tay respondiera de forma inapropiada.”, dijo Microsoft en un comunicado. 

Uno de los tuits borrados fue este, en el cual Tay repite una de las frases de campaña del precandidato republicano a la presidencia de Estados Unidos, Donald Trump: "Vamos a construir una barda y México va a pagar por ella". 

El último tuit de Tay dice "nos vemos humanos necesito dormir ahora muchas conversaciones por hoy"