• Regístrate
Estás leyendo: Microsoft se disculpa por tuits ofensivos de robot
Comparte esta noticia

Microsoft se disculpa por tuits ofensivos de robot

En un comunicado oficial, la marca aceptó que Tay no estaba preparada para recibir y filtrar tantos comentarios, lo que hizo que publicara comentarios misoginos y racistas. 

Publicidad
Publicidad

Después de que usuarios de Twitter hicieran que la inteligencia artificial adolescente de Microsoft publicara comentarios inapropiados, la empresa publicó una disculpa pública.

En su blog oficial, Microsoft explicó que aunque Tay fue programada con varios filtros, no estaba preparada para "ser atacada" por un grupo específico de usuarios que vulneraron el sistema; por lo que el chatbot hizo fue incapaz de filtrar los comentarios racistas y misóginos por los cuales fue criticado.

“Estamos profundamente apenas por los comentarios ofensivos de Tay, los cuales no representan en absoluto nuestros ideales o quienes somos.”, se lee en el blog.

Por el momento, Tay se encuentra suspendida pero Microsoft asegura que está trabajando en los ajustes necesarios y admite que en cuanto a inteligencia artificial se refiere, se debe de tener precaución para que la gente no le dé un mal uso.

Este no es el primer experimento con inteligencia artificial que la compañía realiza. En 2014 lanzó XiaoIce, un robot muy parecido a Tay y el cual estaba dirigido exclusivamente al público chino.

“La gran experiencia con XiaoIce nos hizo preguntarnos si una inteligencia artificial podría ser igual de cautivadora en un ambiente cultural radicalmente diferente y Tay fue nuestro primer intento de responder este cuestionamiento”.

Y al parecer, no resultó como se pensaba.

Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.