Esta semana Donald Trump decidió postear —y luego borrar— un video hecho por IA donde aparecía él mismo promoviendo las inexistentes “camas curativas” que, según la pieza, pronto tendrían todos los estadunidenses.
El segmento estaba editado como si fuera de Fox News, pero la propia cadena confirmó que jamás salió al aire. No hay explicación —aunque sea Trump— de qué demonios estaba pensando. ¿De verdad creyó que alguna vez lo dijo y lo olvidó?
Lo preocupante es lo que esto significa: estamos cada vez más cerca de un punto en el que no podremos creer absolutamente nada de lo que veamos. Y mientras tanto, OpenAI lanza Sora, una herramienta que permite crear videos completos incluso con el estilo y los universos de South Park o Rick and Morty, salvo que los dueños de esos derechos exijan ser retirados del sistema. En otras palabras: un modelo de “opt-out” que podría detonar una avalancha de demandas.
Oficialmente, Sora no permite usar la imagen de personas reales para ponerles palabras en la boca, pero entre los “peros” y las excepciones, la frontera es muy delgada. Y admitámoslo: muchas veces le hacemos más caso a Kyle y Cartman que a actores de carne y hueso. Peligro.
Para rematar, está el caso de Tilly Norwood, la nueva actriz creada 100% con IA que ya “busca agente”. Los sindicatos de actores reaccionaron con un grito más que justificado: este no es un futuro hipotético, es un presente que amenaza con cambiar las reglas del juego en Hollywood.
Unas pocas semanas más como estas, y de verdad ya no sabremos si lo que estamos viendo es remotamente real. La pregunta es inevitable: ¿estamos listos para esto? Yo, definitivamente, no.