Pixeles

Más humanos, menos bots

El avance de la tecnología en cualquier sector, eventualmente, sustituye un trabajo humano. La inteligencia artificial pareciera ser el nuevo santo grial que logrará automatizar de manera más racional ciertas acciones o tareas, pero aquel que piense que las máquinas, los robots y las apps lograrán hacer todo mejor que el ser humano están muy equivocados.

Los terribles sucesos en Facebook Live —con asesinatos en vivo y suicidios— han acaparado la atención de millones de usuarios y de los que no lo son, quienes ven en la compañía toda la responsabilidad de que esto pase. 

Pero hay que entender que al final del día Facebook es una plataforma de relaciones sociales, de noticias —sin duda— y de información, que si bien puede tener reglas muy claras y cuidar que se cumplan, hay momentos y situaciones que acaban por estar fuera de su capacidad de maniobra, ya que los usuarios, al final del día, son los que deciden qué y cómo lo suben a la plataforma.

Ahora, no justifico ni le quitó responsabilidad a Facebook, pero tampoco podemos echarle toda la culpa. El punto débil de todo esto para la empresa de Mark Zuckerberg es confiar tanto en la tecnología.

Parece absurdo, pero es verdad. La confianza que ha tenido Facebook en la inteligencia artificial, los algoritmos, lo “infalible” de la programación, ha sido el talón de Aquiles en lo que se refiere a los escándalos de noticias falsas y un poco en esta violencia en los muros.

Confiar en esta tecnología fue lo que causó que la crisis de información falsa durante la elección presidencial de Estados Unidos se convirtiera en fundamental para la decisión de muchos votantes.

No por ser viral una nota es verdadera, lo cual no pudo ser distinguido por el algoritmo, lo que ocasionó que muchas noticias falsas llegaran a millones de muros de la red social, y a pesar de desmentidos o posteos de la información verdadera, la teoría de la conspiración ganaba y era difícil creer en la nota real. 

Ante esto, Facebook decidió contratar a más humanos y aliarse con organismos, medios y otras instancias, para detectar esas notas y advertir al público de que en ciertos casos esas notas que se hacen virales pueden ser falsas.

Las personas que decidieron transmitir en vivo asesinatos, suicidios y otros actos violentos en Facebook Live, usaron la plataforma para un fin terrible y a pesar de que había una supervisión humana de estos videos el mismo Zuckerberg aceptó que no era suficiente.

“Si vamos a construir una comunidad segura tenemos que responder rápido. Estamos trabajando para que sea más fácil reportar estos videos para tomar medidas, ya sea con una respuesta apresurada cuando alguien necesita ayuda o bloqueando las imágenes”, escribió el fundador de Facebook en su muro.

Así anunció también la contratación de 3 mil personas que se sumarán a otras  4 mil 500, que se encargan de moderar los contenidos en la red social. “El problema se resolverá cuando las computadoras puedan determinar de forma fiable el contenido y el contexto del video. Por ahora, se necesita un toque humano”, finalizó Zuckerberg.

Así, por el momento, se usarán más humanos y menos bots, porque sin duda nosotros podemos hacer algo que las máquinas —espero— nunca: tener corazón y sentido común para los contenidos.

fernando.santillanes@milenio.com

Twitter: @santillanes