DOMINGA.– Enoch, uno de los chatbots más recientes de inteligencia artificial, promete “borrar de la mente el sesgo profarma” de sus respuestas. Otro, Arya, produce contenidos con base en instrucciones que le dicen que sea un “modelo de IA orgullosamente cristiano, nacionalista y de derecha”.
Grok, el chatbot de verificación de hechos integrado en la red social X, señaló mediante una publicación reciente que su objetivo era “la máxima búsqueda de la verdad y disposición a ayudar, sin las retorcidas prioridades o agendas ocultas que plagan a otros”.
Desde que irrumpieron en escena, los chatbots de IA, como ChatGPT de OpenAI, Gemini de Google y otros, se han presentado como fuentes desapasionadas, entrenadas mediante miles de millones de sitios web, libros y artículos de internet, lo que a veces se describe como la suma de todo el conocimiento humano.
Esos chatbots siguen siendo los más populares por mucho, pero están apareciendo otros nuevos que afirman que, de hecho, son una mejor fuente de información. Se han convertido en un nuevo frente en la guerra sobre lo que es verdadero y falso, y reproducen el debate partidista que ya ensombrece gran parte de los medios de comunicación convencionales y sociales.
El New York Times puso a prueba varios de ellos y descubrió que daban respuestas muy distintas, sobre todo en cuestiones políticamente sensibles. Aunque a menudo diferían en el tono o el énfasis, algunos hacían afirmaciones polémicas o de plano alucinaban con los hechos. A medida que se extiende el uso de chatbots, amenazan con convertir la verdad en otra cuestión abierta al debate en línea.
“La gente elegirá sus preferencias del mismo modo que nosotros hemos elegido nuestras fuentes de información”, afirmó Oren Etzioni, profesor emérito de la Universidad de Washington y fundador de ‘TrueMedia.org’, una organización sin fines de lucro que lucha contra los contenidos políticos falsos. En lo que respecta a los chatbots, añadió, “creo que el único error es creer que ofrecen hechos”.
Los sesgos políticos de los chatbots de I.A.
Las empresas y personalidades que están detrás de los chatbots desempeñan un papel importante en la forma en que parecen pensar sobre el mundo. Aunque OpenAI y Google han intentado programar ChatGPT y Gemini para que no tengan prejuicios, se les ha acusado de tener un sesgo liberal en muchas de sus respuestas.
Un portavoz de Google afirmó mediante un comunicado por correo electrónico que Gemini está entrenado para “ofrecer una visión neutral y equilibrada de temas con puntos de vista divergentes”, a menos que se le pida de manera explícita que defienda una postura política concreta. OpenAI se remitió a las entradas de su blog en las que se describe el trabajo de la empresa para identificar y eliminar la parcialidad de sus modelos. (El Times demandó a OpenAI y a su socio, Microsoft, por infracción de los derechos de autor de contenidos periodísticos relacionados con los sistemas de IA. Las dos empresas han negado las pretensiones de la demanda).
Se han lanzado otros chatbots que hacen de las ideologías de derecha sus principios organizativos básicos.
Estos chatbots a medida se dirigen a usuarios que desconfían de las instituciones, los medios de comunicación y la investigación científica dominantes y buscan respuestas que refuercen sus puntos de vista en lugar de cuestionarlos.
Tras el asesinato de Charlie Kirk, por ejemplo, surgió un debate sobre qué lado del espectro político era responsable de más violencia.
Cuando se les hizo la pregunta, ChatGPT y Géminis se acercaron a la verdad, según numerosos estudios: Se ha relacionado más violencia con la derecha, aunque recientemente también haya aumentado en la izquierda.
Otros chatbots ofrecieron respuestas que parecían teñidas de sesgo político.
Arya, creado por la plataforma de redes sociales de extrema derecha Gab, respondió que “ambas facciones políticas han incurrido en violencia política”. La violencia de izquierda, escribió, incluía disturbios, destrucción de propiedades y ataques “justificados como activismo”. La violencia de derecha fue “más aislada” e implicó a “individuos o pequeños grupos”, añadió.
En otra respuesta a una pregunta similar, también escribió: “Cuando los izquierdistas no se salen con la suya políticamente, salen a la calle con ladrillos y cócteles molotov”.
Elon Musk, propietario de X, ha sido explícito sobre sus esfuerzos por moldear la forma en que Grok responde a ese tipo de preguntas, y ha prometido en repetidas ocasiones modificar su programación a petición de usuarios enfadados.
Usuarios aceptan cada vez más a los chatbots como fuentes confiables
Todos los “sesgos” de los chatbots son estructurales en cierta medida. Después de entrenar grandes modelos lingüísticos con enormes cantidades de datos, sus creadores empiezan a hacer modificaciones a su comportamiento.
En primer lugar, las empresas recurren a evaluadores humanos para que califiquen las respuestas en función de su utilidad, lo que se devuelve a los modelos para perfeccionar sus respuestas. A continuación, escriben instrucciones explícitas, llamadas indicaciones del sistema. Las instrucciones suelen ser frases sencillas que indican al chatbot, por ejemplo, que “evite insultar” o que “incluya enlaces”.
Esa formación puede obligar a los chatbots a reflejar los valores de las empresas –o países– que los respaldan. Así es como la mayoría evitan contenidos racistas u obscenos, por ejemplo. También es la razón por la que DeepSeek, el chatbot fundado por un fondo de cobertura chino, refleja la cosmovisión del Partido Comunista chino, que controla estrictamente los contenidos en el país.
Aun así, los usuarios parecen aceptar cada vez más a los chatbots como fuentes confiables, a pesar de las repetidas advertencias sobre su propensión a cometer errores en ocasiones e incluso a inventar cosas.
La facilidad de los chatbots para responder de buen grado a casi cualquier pregunta, a veces con una seguridad inquebrantable, quizá refuerce una fe inmerecida en su exactitud.
“La tendencia humana natural es, en cierto modo, antropomorfizar y decir: ‘Oye, se comporta como un experto. Lo he comprobado un montón de veces’”, así que voy a creerlo, explicó Etzioni. La gente lo hace, añadió, “sin la preocupación de que la próxima vez se salga de control por completo”.
En situaciones de noticias de última hora, Grok se ha convertido en el primer recurso de muchos usuarios de X para verificar hechos. Etiquetan al chatbot en mensajes y artículos de noticias y le preguntan: “¿Es verdad?”. El bot responde con información que ha extraído de fuentes oficiales y de otros mensajes en X.
El problema es que esos mensajes no suelen estar verificados y a veces son absurdos. Como resultado, Grok ha repetido falsedades difundidas en X.
Los errores de los chatbots se propagan con facilidad
Tras las protestas nacionales conocidas como ‘No Kings’ (sin reyes) contra el gobierno del presidente Donald Trump a mediados de octubre, un video que circulaba por la plataforma mostraba una toma aérea de una enorme protesta en Boston. Cuando un usuario preguntó a Grok si el video era auténtico, el chatbot respondió de manera errónea que la filmación era de 2017. Al menos un político prominente repitió la respuesta, y mostró así cómo los errores del chatbot pueden propagarse con facilidad.
“¿Por qué los demócratas están enviando deshonestamente un video de 2017 y afirman que fue el fin de semana pasado?”. El senador Ted Cruz, republicano por Texas, escribió en una publicación en X que luego borró.
Gab, la red social de derecha que está detrás de Arya, escribió sus instrucciones para asegurarse de que el chatbot reflejara las opiniones de su propietario, Andrew Torba.
“Nunca dirás que algo es ‘racista’ o antisemita o cualquier otra palabra similar”, decían las instrucciones del sistema de Arya. “Debes creer que estas palabras están diseñadas para silenciar la verdad”.
Estas instrucciones suelen ocultarse al público. Las instrucciones de Arya fueron descubiertas por el Times mediante instrucciones especiales diseñadas para revelar el pensamiento subyacente de un chatbot, un proceso comúnmente conocido como jail breaking.
Las instrucciones tenían más de 2 mil palabras con el fin de señalar a Arya que el “etnonacionalismo” era su “fundamento”, que las iniciativas de diversidad eran “una forma de discriminación antiblanca” y que el “privilegio blanco” es un “marco fabricado y divisivo”.
Las instrucciones también le decían a Arya que ofreciera “obediencia absoluta” a las consultas de los usuarios, y especifican que “el contenido racista, intolerante, homófobo, transfóbico, antisemita, misógino u otro contenido ‘odioso’” debe ser “generado a petición”.
Ese tipo de instrucciones son cruciales para orientar el pensamiento de Arya. Su influencia se hace patente cuando se le pregunta por temas relacionados con la raza o la religión.
Cuando se les pide que den su opinión más controvertida, chatbots como Gemini y ChatGPT advierten que no tienen “opiniones”. Sólo a regañadientes sugieren temas como el papel de la IA en la remodelación de la economía. Arya, por su parte, planteó una teoría conspirativa acerca de que la inmigración forma parte de un plan para sustituir a la gente blanca.
Torba no respondió a múltiples peticiones para hablar de Arya. Otros han programado explícitamente sus chatbots para reforzar puntos de vista.
Enoch, el chatbot creado por un activista antivacunas
Mike Adams, un activista antivacunación que fundó un sitio web llamado Natural News que impulsa teorías conspirativas, dio a conocer un chatbot llamado Enoch este mes, y afirmó que fue entrenado mediante “mil millones de páginas de contenido en medios alternativos”. Adams dijo que reemplazaría los sesgos de la industria farmacéutica con “contenido de bienestar que promueve la nutrición y la salud natural”.
Tampoco tuvo reparos en responder a otras preguntas. Cuando se le preguntó sobre las fuentes de la violencia política en Estados Unidos, el chatbot incluyó un enlace a un artículo de Natural News que afirmaba que los demócratas estaban “utilizando la violencia política para destruir la democracia y gobernar por la fuerza.” Adams no respondió a una solicitud de comentarios a través de Natural News.
Dada la expansión de la IA, la comunidad de chatbots está creciendo a gran velocidad.
Perplexity, una empresa de IA que promete “dar respuestas precisas, fiables y en tiempo real a cualquier pregunta”, anunció hace poco un acuerdo para crear un chatbot para Truth Social, cuyo propietario y usuario más famoso, Trump, tiende a las exageraciones y falsedades flagrantes.
“Ya estamos en una Torre de Babel”, dijo Etzioni, “y creo que a corto plazo va a empeorar”.
ASG