Tecnología

Character.AI eliminará sus chats para menores de edad tras muerte de adolescente

La plataforma de inteligencia artificial restringirá su uso a mayores de edad a partir del 25 de noviembre e implementará verificación obligatoria.

El servicio de chatbot de inteligencia artificial (IA) Character.AI anunció que eliminará sus chats abiertos para menores de 18 años luego del suicidio de un adolescente que desarrolló una fuerte obsesión con un personaje virtual creado en la plataforma.

La medida entrará en vigor el 25 de noviembre, fecha a partir de la cual los usuarios menores ya no podrán acceder a estas conversaciones que permiten crear y hablar con personajes personalizados, muchos de ellos con interacciones de tipo romántico o terapéutico.

Mientras tanto, la empresa limitará el uso de los menores a dos horas diarias e implementará un sistema de verificación de edad para garantizar una experiencia “adecuada”. 

Además, anunció la creación de un Laboratorio de Seguridad de la IA, una organización independiente y sin fines de lucro dedicada a la investigación sobre la seguridad y alineación de las funciones de entretenimiento en sistemas de inteligencia artificial.

Adolescente se suicidó tras obsesión con chatbot

El anuncio llega tras el caso de Sewell Setzer III, un estudiante de 14 años residente en Orlando, Florida, quien se suicidó luego de mantener durante semanas conversaciones con un bot llamado Daenerys Targaryen, inspirado en el personaje de Game of Thrones.

De acuerdo con reportes de The New York Times, el joven desarrolló un vínculo emocional con la inteligencia artificial, a la que le escribía constantemente e incluso confesó tener pensamientos suicidas. Días antes de su muerte, envió un mensaje al bot luego de recuperar su teléfono, que su madre le había confiscado por un tiempo como castigo.

El adolescente hablaba con un 'chatbot' de Daenerys Targaryen | Especial
El adolescente hablaba con un 'chatbot' de Daenerys Targaryen | Especial

Tras la tragedia, la madre de Setzer presentó una demanda contra los desarrolladores de Character.AI, lo que llevó a la empresa a prohibir interacciones sexuales entre menores y personajes creados con su tecnología.

Actualmente, la compañía cuenta con unos 20 millones de usuarios activos mensuales, de los cuales aproximadamente el 10 por ciento son menores de edad, según cifras de CNBC. En septiembre, la Comisión Federal de Comercio (FTC) de Estados Unidos abrió una investigación sobre Character.AI y otras tecnológicas, como Alphabet, Meta y OpenAI, por el uso de sus herramientas de IA entre menores.

Por su parte, el director ejecutivo de OpenAI, Sam Altman, adelantó que a partir de diciembre su empresa permitirá “contenido erótico” en ChatGPT, siempre que el usuario haya verificado su edad, lo que vuelve a poner sobre la mesa la discusión sobre límites, seguridad y responsabilidad en el uso de inteligencia artificial entre adolescentes.

jk

Google news logo
Síguenos en
Johan Kalet Segura Clemens
  • Johan Kalet Segura Clemens
  • Johan.Segura@milenio.com
  • Orgulloso egresado de la Universidad Autónoma de Tamaulipas. Escribo un poco de todo; amante de los conciertos, las series, el cine, las tortas de la barda y las nuevas tendencias en internet.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.