• Regístrate
Estás leyendo: Esta app crea videos porno con la cara de cualquier mujer
Comparte esta noticia
Viernes , 22.03.2019 / 23:41 Hoy

Esta app crea videos porno con la cara de cualquier mujer

Con tecnología de reconocimiento facial e inteligencia artificial, FakeApp es capaz de sustituir el rostro de una actriz porno, lo que ha causado polémica por fomentar el bullying.

Publicidad
Publicidad

La tecnología de reconocimiento facial ha llegado muy lejos, y no en el buen sentido. Una nueva aplicación, llamada FakeApp permite a sus usuarios reemplazar el rostro de actrices porno por alguna foto de su ex novia, amiga, celebridades o cualquier mujer, pues no reconoce rostros masculinos.

Esta nueva tendencia conocida como deepfake, comenzó a popularizarse en Reddit gracias a los algoritmos de Machine Learning que están abiertos al público. Con ellos, se puede tomar cualquier video o foto que esté públicamente disponible y sobreponerlo en el cuerpo de una actriz porno.

TE RECOMENDAMOS: ¿Reales o bots? Así son los 'followers' de los aspirantes

Para hacer esto, era necesario tener un conocimiento ligeramente avanzado de programación, pero alguien tuvo la idea de hacerlo mucho más fácil y convertirlo en una app: FakeApp, disponible sólo para computadoras y descargable a través de Reddit.

Si alguien quiere lograr un montaje convincente, sólo necesita uno o dos videos de alta calidad y en el que se vea claramente el rostro que quieren tomar además de una buena unidad de procesamiento gráfico para que en aproximadamente 12 horas, la computadora pueda sustituir el rostro de la actriz porno por el que eligió el usuario cuadro por cuadro, se lee en el foro de Reddit de FakeApp.

[Un gif de una escena porno con el rostro sobremontado de Gal Gadot.]

La app se ha vuelto tan popular que ya existen diversos tutoriales para aprender a utilizarla. Sin embargo, antes de que se te ocurra atentar contra alguna persona utilizando esta aplicación para crear un montaje de "broma", debes considerar que podrías meterte en problemas legales por difamación o bullying, pues muchos la han ocupado para hacer porno de venganza falso.

Pero ese no es el único problema. Al tener resultados tan convincentes, logra engañar al ojo humano. De acuerdo con el sitio Motherboard, hace unas semanas se publicó un video en el que supuestamente Emma Watson tomaba un baño con otra chica; sin embargo, el material fue el resultado de deepfake.


RL

Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.