Más Estilo

¿Cómo la IA de Facebook pudo crear su propio lenguaje?

El sistema fue creado para aprender a negociar y hacerse pasar por un humano; sin embargo, un simple error humano derivó en un nuevo lenguaje. 

Cual película de ciencia ficción, hace poco se dio a conocer que un sistema de chatbots de Facebook que funciona con inteligencia artificial tuvo que ser desconectado tras descubrir que había empezado a crear su propio lenguaje.

Inmediatamente saltaron las comparaciones con Skynet y el temor de que pronto seremos dominados por robots se hizo presente. Para entender cómo se llegó a este punto, te explicamos todo lo que tienes que saber de este sistema y cómo un error de los programadores hizo que los chatbots crearan su propio lenguaje.

TE RECOMENDAMOS: Facebook desconectó IA que había creado su propio idioma

- Los chatbots son parte de un programa de Facebook que desarrolla para interactuar con humanos. La IA con la que están equipados les permite aprender de ésta para hacer negociaciones y llegar a un acuerdo común. El objetivo es que el humano con el que están interactuando no se dé cuenta que está hablando con un bot.

- La tarea que tenían que hacer los bots era llegar a un acuerdo de cómo dividir cierta cantidad de elementos y que todas las partes lo aceptaran. Los investigadores del laboratorio de investigación de IA de Facebook, conocido como FAIR, entrenaron una red neuronal para que imitara las acciones de las personas y fuera capaz de adivinar qué diría un humano en determinada situación.

- Crearon un nuevo lenguaje gracias a un error humano. De acuerdo con la revista Fast Company, los programadores no incentivaron el uso del inglés que una persona utilizaría, por lo que los bots empezaron a reacomodar ciertas palabras para que la comunicación entre ellos resultara más fácil y efectiva.

- Crearon códigos para sí mismos. Dhruv Batra, investigador de FAIR, dijo a Fast Company que los agentes inteligentes dejaron de usar un lenguaje entendible para los humanos y comenzaron a utilizar códigos que entendieran entre ellos. “Si dijeron 'el' cinco veces, se puede interpretar como que quiere cinco copias de un objeto. No es tan diferente a la forma en la que las comunidades humanas crean abreviaturas”.

- Los bots comenzaron a comprimir el lenguaje de modo que fuera fácil y rápido de usar entre ellos, similar a lo que sucede con la juerga o la evolución de los idiomas que ha pasado a lo largo de los años. Según la investigación de los científicos de Facebook, “el lenguaje puede comprimirse no sólo para ahorrarse caracteres, sino para expresar un pensamiento sofisticado”.

- Tuvieron que desconectar el sistema no por temor, sino porque no cumplía su objetivo. Los bots tenían que ser capaces de negociar y evitar que su cualidad de máquina no saliera a la luz durante la conversación, por lo que el lenguaje entendible sólo para ellos, no tenía sentido. Facebook tuvo que reprogramarlo para que siguieran con el entrenamiento de la negociación usando las reglas del inglés común entendible para los humanos.

- Otro de los problemas fue que el no tener como orden utilizar inglés común, demostró que las computadoras con IA no tienen un límite de procesamiento de información, contrario a los humanos. “La razón por la que los humanos tenemos la idea de descomponer o fragmentar las ideas en conceptos simples es porque tenemos un límite cognitivo, las computadoras no necesitan simplificar conceptos. Ellos tienen el poder de procesarlos”, dijo Batra a Fast Company.

- Facebook admite no tener la manera de entender el lenguaje creado por estos sistemas inteligentes. Batra dijo que no hay personas capaces de entender el lenguaje de la IA y el humano, principalmente porque es imposible ver el proceso de pensamiento que sigue el sistema, pues éste se desarrolla por sí solo.

- Nunca sabremos si un robot puede tener una conciencia propia. De acuerdo con el investigador y responsable del Laboratorio de BioRobótica de la UNAM, Jesús Savage Carmona, para crear un ente así tendrían que pasar más de dos siglos.

Hay que recordar que cuando Mark Zuckerberg comentó sobre los temores de Elon Musk, fundador de Tesla, respecto a la IA, dijo que la tecnología puede ser usada para el bien o para el mal, por lo que debe tenerse cuidado de cómo se usa y cómo se construye.


mrf

Google news logo
Síguenos en
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.