Tecnología

Rusia propone que redes sociales detengan difusión de videos creados con IA

El regulador ruso Roskomnadzor planteó que las plataformas digitales detecten y bloqueen temporalmente contenido ‘deepfake’ mientras se verifica si fue creado con inteligencia artificial.

El regulador ruso de las comunicaciones, Roskomnadzor, lanzó un llamado a las redes sociales para que asuman un papel más activo en el combate contra los contenidos 'deepfake', es decir, videos, imágenes o audios generados mediante inteligencia artificial que pueden simular personas y situaciones reales.

De acuerdo con el diario ruso Kommersant, la propuesta fue presentada durante un foro enfocado en el desarrollo de tecnologías de IA “confiables”, donde se planteó que las plataformas digitales deberían ser capaces de detectar y limitar la difusión de materiales sospechosos hasta comprobar si son auténticos.

La iniciativa surge en medio del creciente debate internacional sobre los riesgos de la inteligencia artificial generativa, especialmente por el uso de contenido manipulado para desinformación, fraudes o suplantación de identidad. Roskomnadzor considera que las redes sociales deben contar con mecanismos para detener la propagación de este tipo de publicaciones mientras se revisa su veracidad.

Imagen ilustrativa 'deepfake'. | Pexesl
Imagen ilustrativa 'deepfake'. | Pexesl

Entre las medidas planteadas por el organismo ruso se encuentra el etiquetado obligatorio de materiales creados con inteligencia artificial, así como la creación de una base de datos sobre amenazas tecnológicas relacionadas con los ‘deepfake’.

Sin embargo, especialistas citados por Kommersant advirtieron que actualmente las plataformas no cuentan con herramientas completamente fiables para identificar contenidos generados con IA sin cometer errores.

Los expertos señalaron que los modelos de inteligencia artificial avanzan rápidamente y podrían superar los sistemas automáticos de detección en poco tiempo. Además, alertaron que bloqueos incorrectos podrían derivar en conflictos con usuarios, creadores de contenido e incluso marcas comerciales.

Expertos ven difícil frenar los ‘deepfake’ solo con filtros automáticos

Ante estas limitaciones, analistas consideran que la opción más viable sería implementar un sistema mixto. Bajo este esquema, los filtros automatizados detectarían publicaciones sospechosas, pero la decisión final quedaría en manos de moderadores humanos encargados de verificar la autenticidad del contenido.

El debate sobre los ‘deepfake’ se ha intensificado en distintos países debido al aumento de videos falsos relacionados con figuras públicas, campañas políticas y celebridades, mientras gobiernos y empresas tecnológicas buscan nuevas regulaciones para enfrentar el problema.

jk



Google news logo
Síguenos en
Johan Kalet Segura Clemens
  • Johan Kalet Segura Clemens
  • Johan.Segura@milenio.com
  • Orgulloso egresado de la Universidad Autónoma de Tamaulipas. Escribo un poco de todo; amante de los conciertos, las series, el cine, las tortas de la barda y las nuevas tendencias en internet.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.