• Regístrate
Estás leyendo: Microsoft suspende su IA por comentarios ofensivos
Comparte esta noticia
Lunes , 18.06.2018 / 07:25 Hoy

Microsoft suspende su IA por comentarios ofensivos

Usuarios de Twiiter transformaron a Tay, el robot de inteligencia artificial que creó Microsoft, en una adolescente racista y misógina. 

Publicidad
Publicidad

Milenio Digital

Tay, el robot que lanzó Microsoft capaz de mantener conversaciones en las redes sociales como una típica adolescente gracias a la inteligencia artificial, tuvo que dejar de “platicar” luego de que publicara tuits ofensivos.

En tan sólo 24 horas, Twitter hizo de la inocente Tay un robot que aseguraba que las feministas no debían de existir, que George W. Bush fue el responsable del atentado en el World Trade Center de Nueva York en 2001 y que Donald Trump sería un buen presidente.

Cuando Microsoft lanzó Tay, explicó que el sistema aprendía cómo interactuar con la gente conforme más platicaba con ellas. Sin embargo, usuarios de Twitter mostraron su lado no tan amable y comenzaron a hacer comentarios ofensivos que posteriormente Tay replicaba.

En respuesta, la empresa borró los tuits y suspendió la actividad de la cuenta para hacer ajustes al programa. “Nos dimos cuenta de los esfuerzos coordinados de algunos usuarios para hacer que Tay respondiera de forma inapropiada.”, dijo Microsoft en un comunicado.

Uno de los tuits borrados fue este, en el cual Tay repite una de las frases de campaña del precandidato republicano a la presidencia de Estados Unidos, Donald Trump: "Vamos a construir una barda y México va a pagar por ella".

El último tuit de Tay dice "nos vemos humanos necesito dormir ahora muchas conversaciones por hoy"

Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.