Comunidad
  • Grok y la mentira perfecta: cuando la IA decide qué es verdad y qué es noticia

Las 'fake news' se crean y distribuyen aún más rápido que los procesos de verificación | Milenio

La IA ya escribe, manipula y verifica noticias en México. El problema: también se equivoca y no hay reglas para frenar su impacto en la democracia.

DOMINGA.– El 11 de marzo pasado la Cámara de Diputados rechazó una iniciativa de reforma electoral enviada por Claudia Sheinbaum, generando una discusión sobre la pertinencia de realizar cambios al sistema político mexicano. Aunque el debate se ha centrado en analizar qué hizo que sus aliados –el Partido Verde y el Partido del Trabajo– votaran en contra, dentro de ese paquete de modificaciones había un punto que sí generaba consenso entre casi todas las fuerzas: la necesidad de regular la Inteligencia Artificial (IA) en los procesos electorales.

De cara a las elecciones de 2027, hay un temor fundado de que las campañas se conviertan en una guerra sucia digital en la que sea casi imposible distinguir la información falsa de la verdadera. Las herramientas con IA son capaces de hacer imágenes que parecen fotos reales, videos donde es casi imposible encontrar las costuras digitales de su fabricación y audios que dicen con claridad cosas que políticos no dijeron. Por si fuera poco, cualquiera tiene acceso a ellas porque las redes sociales las han ido integrando. En X está Grok; Meta IA en Instagram, Facebook y Whatsapp; Gemini en Google; y hasta LinkedIn integró un asistente de IA.

Esta no es una realidad hipotética o un episodio de Black Mirror. Los estragos del uso de la IA para desinformar los podemos ver en todas las redes sociales acerca de temas graves, como las guerras en Medio Oriente, donde apenas hace una semana se difundió un video falso de un bombardeo a Tel Aviv para justificar el ataque de Israel a Irán; y también en casos más cercanos, como el pánico que desató las imágenes falsas de aviones en llamas en el aeropuerto de Guadalajara el día de la detención y abatimiento de Nemesio Oseguera El Mencho.

Foto de Grok
Grok es una IA que fue integrada a X, antes Twitter | Especial


“Grok, ¿esto es verdad?”
. Hechos un mar de dudas, hemos confiado en que la IA puede decirnos qué es real y qué no. Pero muchas veces la IA termina por equivocarse y agravar la desinformación. En enero de este año se publicó un estudio conjunto de las universidades de Oxford, Cornell y Paris-Saclay sobre el uso de Grok para verificar información en Estados Unidos. El paper revela que Grok acierta en verificar información 54% de las veces, y que tienden más los republicanos –partido que llevó al poder a un presidente que brilla por su capacidad de mentir– que los demócratas a recurrir a esta herramienta para verificar información.

Pareciera entonces que estas herramientas de IA, más que ayudar a encontrar la información precisa, prefieren alimentar los sesgos de sus usuarios para que le sigan preguntando cosas. Ahora bien, ¿podemos como sociedad darnos el lujo de dejar pasar la discusión sobre IA? Imposible porque es una realidad que no sabe de coyunturas y no esperará a que políticos y medios de comunicación estén listos para comenzar a hacer algo al respecto. La pregunta es más bien, ¿cómo podemos hacer frente a una realidad donde como ciudadanos nos es más difícil saber en qué creer?

Mentir al margen de la ley

Claudia Sheinbaum anunció que enviará el próximo lunes un Plan B que busca mantener el objetivo central de la Cuarta Transformación.
Claudia Sheinbaum envía Plan B de la reforma electoral al Congreso | Jorge Carballo


Enrique Gutiérrez
es académico de la Ibero y tiene amplia experiencia laboral y de investigador en procesos electorales en México y América Latina. Llega a nuestra reunión por Zoom después de un día en el que confiesa que no ha parado de “correr”. La razón es obvia: después de que se desechó la reforma electoral, la presidenta anunció un Plan B y tanto la prensa como la ciudadanía quiere entender por dónde viene este segundo intento por “ajustar” las reglas de la democracia.

Gutiérrez piensa que el Plan B ya no es una reforma electoral como tal, sino un paquete de modificaciones a la ley que tienen que ver con reestructuración administrativa, es decir, con homologar el costo de los congresos locales y de las regidurías y también con empujar cambios a mecanismos de participación como la revocación de mandato. Por eso ve muy difícil, y hasta como una oportunidad perdida, que la regulación de la IA vuelva a aparecer en la discusión pública, aunque la arena de debate está puesta en el Congreso.

“La lógica era subirlo a la arena de discusión y discutirlo para plantear cuáles son los límites de la libertad de expresión y los límites en términos de las propias campañas y la propaganda”, apunta Gutiérrez y para él es un tema que está estrechamente vinculado a los asuntos de fiscalización.

Pensemos por ejemplo en los spots que generan los partidos políticos. ¿Qué pasa si uno dice que costó tres millones de pesos un spot que hizo con IA y que en realidad pudo haber costado 300 pesos? Esa posibilidad de reportar sobrecostos deja un dinero público “libre” que puede ser utilizado para prácticas ilegales o desleales en una campaña electoral, como la compra de bots para denostar a un candidato.


También está el interés por evitar el uso de la IA para propagar fake news. Sin embargo, con la legislación actual es muy poco lo que se puede hacer para frenar ese fenómeno. Gutiérrez explica que el INE tiene una comisión de quejas y denuncias donde los candidatos y los partidos políticos podrían pedir que se “baje” un material que miente. El problema está en que el sistema está hecho para la radio y la televisión.

Esa desactualización que enfrenta el árbitro es grave porque en las contiendas actuales es casi la norma que se use material falso para afectar a otro candidato o para posicionarlo sin gastar dinero que tenga que ser fiscalizado. Por ejemplo, se crean cuentas falsas y desde ahí se paga para promocionar el contenido y que llegue el material a más personas.

El anonimato de las redes sociales hace más difícil el trabajo de regulación que tiene que hacer el INE porque es evidentemente más fácil dar con quién paga un spot de radio o televisión o un espectacular que un posteo en Facebook.

Millones de emails expuestos son 'pequeña parte' de filtración masiva
El anonimato que permiten las redes sociales dificulta el rastreo y la verificaición de la información que se comparte. (Shutterstock)


Desde la perspectiva de Gutiérrez, que la ley no entre de lleno a regular el contenido en redes sociales está vinculado a que siempre existe la tentación de utilizar esas facultades para caer en actos de censura o de limitar libertades. Es decir, ¿quién va a decidir qué contenido debe bajarse y por qué? ¿Qué va a pasar entonces cuando un candidato denuncie la propagación de una noticia falsa, quizás un video hecho con IA diciendo algo que no dijo o cometiendo un delito? ¿A quién van a sancionar si el origen de esos posteos con información falsa viene de cuentas que actúan como bots?

Los incendios de la IA: llamen a los bomberos

Circuló información falsa en redes sociales.
El operativo en el que cayó el líder del CJNG dejó a su paso una oleada de fotografías y videos falsos o descontextualizados | Captura de pantalla


El caso de El Mencho nos revela que la desinformación con la IA puede ser un asunto de vida o muerte en contextos de violencia. Omar Marroquín es fact-checker en el equipo de México y Centroamérica de AFP. Me cuenta que después del abatimiento del líder del Cártel Jalisco Nueva Generación el pasado 22 de febrero, se desató una ola de desinformación. Uno de los casos que le tocó investigar es el de un video de la presidenta Sheinbaum bajando de un helicóptero que aterriza en un buque de la Marina. Los videos insinuaban que mientras el país enfrentaba una crisis de seguridad, la figura política más importante en México estaba escondiéndose.

Marroquín empezó a fragmentar el video en imágenes manualmente y a hacer búsquedas en Internet, después cruzó la información encontrada con la agenda de la presidenta. Gracias a ello encontró que el video era del primero de febrero y se trataba de una visita de la presidenta a Guaymas, Sonora, para inaugurar un museo subacuático.

Como ese video, durante el domingo que siguió al operativo donde murió El Mencho, se viralizaron montones de imágenes y clips que mostraban las ciudades de Jalisco en llamas y que hacían imposible distinguir desde las redes sociales qué era una denuncia ciudadana y qué era una incitación al pánico.

“Es retador porque la verificación nunca puede ir al ritmo de la propagación de la desinformación. La desinformación es como fuego en tierra árida, va muy rápido y nosotros somos los bomberos, pero el esfuerzo lo vale”, dice Marroquín.


La metáfora del incendio es precisa no sólo porque describe cómo la información falsa avanza más rápido que la verdadera, sino porque, al igual que en los incendios, las fake news no siempre son esparcidas deliberadamente y por eso en el lenguaje de los verificadores se habla dos términos en inglés distintos a la mentira: disinformation y misinformation.

“Quizás usamos las palabras en inglés porque no hay una traducción exacta [al español], pero hablamos de disinformation cuando quien propaga sabe que esa información es mentira y por eso mismo lo propaga; y hablamos de misinformation cuando la gente no sabe que es mentira lo que está compartiendo”, dice.

Quien miente por error lo hace por ignorancia, pero quien miente a propósito, ¿qué es lo que busca?

Óscar Nogueda es verificador en Animal Político desde hace cuatro años y me hace ver que hay muchos motivos para mentir. “Los políticos mienten porque buscan ganar electorado, mejorar su imagen o posicionar una agenda como ocurre con los grupos antiderechos. Hay otro sector que miente por interés económico, grupos antivacunas que venden suplementos alimenticios o páginas que invitan a oportunidades de inversión, pero que son estafas”.

Twitter y la OEA lanzan guía para combatir las fake news
Cuestionar las fake news revela intenciones y posturas éticas en el entorno digital | Especial


Nogueda insiste en que como sociedad debemos pensar en que alguien recibe algún rédito por mentir ya sea político, económico o incluso seguidores en redes sociales. Por eso la labor de desinformar también va acompañada de un esfuerzo por deslegitimar a los medios que son los encargados de frenar las fake news.

Ejemplo de esto es lo que ocurrió en Filipinas el año pasado, donde el trabajo de periodistas ha logrado encontrar el vínculo entre las noticias falsas e influencers y vloggers a sueldo por parte del Estado y eso ha llevado incluso a iniciar procesos judiciales contra políticos de alto nivel en ese país. Sin embargo, Nogueda y Marroquín apuntan a que en México no hay un marco legal que permita frenar a quienes incitan la desinformación y sin eso seguirá siendo muy complejo combatirlo.

Cuando la Inteligencia Artificial alucina

.
Guerra en Medio Oriente. | AFP


Sin embargo, el fenómeno que describe el periodista Omar Marroquín nos deja todo un flanco abierto y es el de la propagación de noticias falsas por error. En ese asunto, no sólo estamos las personas que nos dejamos llevar por el impulso de nuestros sesgos, sino que en ocasiones es la propia tecnología la que se equivoca.

El ejemplo más reciente de esto ocurrió el 28 de febrero cuando la agencia de noticias EFE publicó varias imágenes y videos de la devastación en Irán producto de un ataque coordinado entre Israel y Estados Unidos. En esos bombardeos fue destruida una escuela femenil en la ciudad de Minab y como resultado murieron más de 165 personas, la mayoría eran niñas de no más de 12 años.

Usuarios en X empezaron a preguntar al chatbot operado con IA si las imágenes eran falsas o reales y Grok respondió que eran reales pero que se trataban de imágenes de 2021, lo cual no era cierto. El falso negativo de Grok provocó que EFE saliera a desmentir, revelando que las imágenes sí eran reales, que periodistas en campo las habían conseguido y que la tecnología de Elon Musk estaba errada.


¿Cómo pudo equivocarse Grok?
El error se entiende desde el diseño de esta propia tecnología, de acuerdo con lo que me explica Javier Guajardo. Él es Ingeniero en Tecnologías Computacionales y trabaja con procesos de automatización que integran ese mundo difuso que desde fuera llamamos “Inteligencia Artificial”.

“Lo de llamarlo inteligencia, creo que es un asunto de mercadotecnia. Estas ideas que asociamos hoy a la IA tienen que ver con crear procesos autónomos, reconocer patrones y hacer cosas que se han discutido desde los años cincuenta pero que no podíamos hacer realidad por falta de capacidad computacional”, dice Guajardo.

Apunta que herramientas como ChatGPT o Grok son la “salida pop” que ha tenido esta tecnología porque utilizan algo llamado LLM –Modelos de Lenguaje Grande–, que lo que hacen es tomar el “lenguaje natural”, las palabras que usamos, y lo transforman en un código que activa procesos computacionales y devuelve una respuesta. “Yo quiero una computadora que haga lo que quiero, no lo que le digo” es una frase que escuché cientos de veces decir a mi mamá cuando trabajaba en su laptop y cometía algún error por picarle al botón equivocado. El drama de mi madre por no poder comunicarse claramente con la computadora se resolvió con los LLM, ahora podemos “decirle” a la máquina lo que queremos que haga y ésta lo puede “entender” y actuar en consecuencia porque es capaz de transformar nuestro lenguaje en una cadena de números que puede utilizar en su código.

Por ejemplo, cuando le preguntamos al chatbot si una imagen es real, convierte esa foto en una cadena de números y busca en su “contexto” –la información disponible a la que tiene acceso– patrones donde esa cadena se repite. Así puede ver en qué otros contextos han utilizado esa foto y dar una respuesta como la que dio Grok: con el “contexto” que tenía disponible pensó que esa cadena de números era de una foto de 2021 y no de un suceso de guerra que se estaba desenvolviendo en ese preciso momento.

Bots con cierto corte ideológico

Dominios web y servidores utilizados por los atacantes han sido identificados por el gobierno de EU como parte de una campaña de piratería de Corea del Norte.
Cadenas de números conforman las respuestas que da la Inteligencia Artificial | Especial


Así, este tipo de tecnología tiende a fallar más para verificar sucesos que se están desenvolviendo al momento. Guajardo insiste en que la forma en que se diseña qué contexto acercar a la tecnología puede provocar sesgos. “Si yo quisiera hacer un bot que verifique noticias, pero sólo le doy medios de cierto corte ideológico, siempre va a analizar los hechos desde cierta perspectiva”, señala.

Esas limitaciones pueden provocar que, si hay una noticia falsa repetida suficientes veces desde fuentes que son validadas por el contexto al que tiene acceso la IA, la tecnología pueda dar por real una mentira. “Eso es una alucinación”, me dice Javier Guajardo. Por eso para él la discusión tiene que ver con quién define el contexto de estos modelos, cómo y por qué.


Me cuenta que hay una empresa llamada Anthropic, creada por un exfundador de Open IA, donde están haciendo constituciones como en los países– para regir el funcionamiento de sus modelos. Sin embargo, Javier se pregunta si esas “constituciones” las deberían redactar las propias compañías o deberían ser los gobiernos de distintos países o regiones.

Al terminar la entrevista le pregunto a Guajardo si usa alguna IA para verificar lo que le aparece en redes sociales y me responde que prefiere buscar en los medios. “No hay que renunciar a toda la fricción”, responde y lo miro con extrañeza. “Hoy programamos para que todo sea más eficiente y rápido. Para que no haya puntos de fricción, obstáculos ni pausas, pero creo que a veces está bien tomarse una molestia”.


GSC/ATJ

Google news logo
Síguenos en
Luis Mendoza Ovando
  • Luis Mendoza Ovando
  • Periodista de investigación en la productora Detective y columnista en el periódico El Norte. Cuenta con una maestría en Periodismo de Investigación en Políticas Públicas por el CIDE.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.