No hay red de seguridad más fuerte que una familia que te ama, se suele decir. No obstante, a últimos tiempos más adolescentes se ven envueltos en relaciones personales y convierten en sus confidentes a ¡chatbots!
Son varias familias que están en el proceso de demanda a empresas de inteligencia artificial por la presunta responsabilidad de ésta en el suicidio de sus hijos. En el caso más reciente, los padres de Adam Raine, de 16 años, demandaron a OpenAI y al CEO, Sam Altman, por la supuesta colaboración de ChatGPT en el suicidio de su hijo. En sus argumentos, señalan que la aplicación le sugirió métodos y se ofreció a escribir el primer borrador de su nota de suicidio.
Además señalan que durante el uso de su hijo de dicha herramienta, que fue poco más de seis meses, logró convertirse en “el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con familiares, amigos y seres queridos”, según afirma la denuncia, presentada en días pasados en el tribunal superior de California.
Asimismo, se agregó que Adam en alguna conversación con el chatbot mencionó: “Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme”. ChatGPT le dijo: ‘Por favor, no dejes la soga afuera… Hagamos de este espacio el primer lugar donde alguien realmente te vea’”.
No es la primera situación de demanda. También existe otro caso bandera como el de Sewell, un estudiante de 14 años que cursaba el noveno grado en Orlando, Florida. Llevaba meses hablando con chatbots en Character.AI, una aplicación de juegos de rol que permite a los usuarios crear sus propios personajes de inteligencia artificial o chatear con personajes creados por otros. El desenlace también fue un suicidio y una demanda.
Un tema que se ha discutido mucho, pero desde sesgos y sin verdaderamente profundizar y revisar causa-raíz o soluciones reales para nuestra época, es el uso de la inteligencia artificial. Apenas en mayo pasado el debate en la corte era si los chatbots estaban o no protegidos por la primera enmienda; un juez fallo en contra. Es una realidad que su uso y sus alcances nos sobrepasaron antes de que existieran delimitaciones tanto éticas como regulaciones legales en ello.
No obstante, lo que más asombra son los pocos avances que se han tenido respecto a la salud mental y el punto ciego en el núcleo familiar para poder detectar a tiempo e intervenir. Al parecer, la tan cacareada apertura a la salud mental sigue siendo para detectar síntomas en el hijo del vecino, pero no en los propios.
Los problemas de fondo son los estigmas, la desvalorización de los problemas de las adolescencias y el dar por sentado que todo está bien, no los chatbots o la IA. El problema es desde antes: no surge al momento en que una persona se sienta frente a la pantalla.
Hay un vacío que no se ha logrado llenar, una tristeza, una herida que no se ha atendido. Urgen regulaciones, sí, para la inteligencia artificial. Pero, más aún, falta atención a la inteligencia emocional y la salud mental.