Microsoft se disculpa por tuits ofensivos de robot

En un comunicado oficial, la marca aceptó que Tay no estaba preparada para recibir y filtrar tantos comentarios, lo que hizo que publicara comentarios misoginos y racistas. 
Microsoft hizo de su inteligencia artificial una adolescente que platica contigo en Twitter.
Microsoft hizo de su inteligencia artificial una adolescente que platica contigo en Twitter. (Microsoft )

Ciudad de México

Después de que usuarios de Twitter hicieran que la inteligencia artificial adolescente de Microsoft publicara comentarios inapropiados, la empresa publicó una disculpa pública.

En su blog oficial, Microsoft explicó que aunque Tay fue programada con varios filtros, no estaba preparada para "ser atacada" por un grupo específico de usuarios que vulneraron el sistema; por lo que el chatbot hizo fue incapaz de filtrar los comentarios racistas y misóginos por los cuales fue criticado. 

“Estamos profundamente apenas por los comentarios ofensivos de Tay, los cuales no representan en absoluto nuestros ideales o quienes somos.”, se lee en el blog.

Por el momento, Tay se encuentra suspendida pero Microsoft asegura que está trabajando en los ajustes necesarios y admite que en cuanto a inteligencia artificial se refiere, se debe de tener precaución para que la gente no le dé un mal uso.

Este no es el primer experimento con inteligencia artificial que la compañía realiza. En 2014 lanzó XiaoIce, un robot muy parecido a Tay y el cual estaba dirigido exclusivamente al público chino.

“La gran experiencia con XiaoIce nos hizo preguntarnos si una inteligencia artificial podría ser igual de cautivadora en un ambiente cultural radicalmente diferente y Tay fue nuestro primer intento de responder este cuestionamiento”. 

Y al parecer, no resultó como se pensaba.