Durante años se nos enseñó que las redes sociales existían para conectar personas. La promesa era simple: más comunicación, más cercanía, más comunidad. Lo que realmente se consolidó fue otra cosa: plataformas diseñadas para capturar atención, retener usuarios el mayor tiempo posible y convertir esa permanencia en ingresos mediante el bombardeo de propaganda comercial.
El reciente fallo contra Meta y YouTube en Los Ángeles obliga a dejar de ignorar el hecho de que las redes sociales son dañinas. Esto cobra relevancia no por el monto de la indemnización —seis millones de dólares, irrelevantes para empresas de ese tamaño—, sino por lo que establece. El fallo demuestra, reconoce y acepta que el diseño de estas plataformas puede generar daño y que ese daño no es un efecto colateral inevitable, sino el resultado de decisiones concretas, malas prácticas y, en algunos casos, desinterés.
El 25 de marzo de 2026, un jurado del Tribunal Superior del Condado de Los Ángeles concluyó que Meta y YouTube actuaron con negligencia en un caso vinculado con afectaciones a la salud mental de una joven usuaria. Se otorgaron tres millones de dólares en daños compensatorios y otros tres millones en daños punitivos. Más relevante aún, el caso funciona como prueba piloto dentro de un litigio mayor que agrupa miles de reclamaciones similares, lo que establece un precedente que puede ser utilizado en otros procesos judiciales.
Un día antes, en Nuevo México, otro jurado ordenó a Meta pagar 375 millones de dólares por violaciones a la ley estatal de protección al consumidor en un caso relacionado con la seguridad de menores. Nuevamente, el punto no es la cifra, sino el patrón: dos decisiones consecutivas que apuntan en la misma dirección, la responsabilidad de las empresas tecnológicas en la protección de sus usuarios y cómo esta es sistemáticamente minimizada cuando se trata de maximizar las ganancias.
Durante años, las grandes tecnológicas han sostenido una narrativa convenientemente acomodada: que los efectos negativos asociados a sus plataformas son demasiado complejos, difusos o individuales como para atribuirles responsabilidad directa. Si un adolescente desarrolla ansiedad, dependencia o problemas de autoestima, se argumenta que no puede reducirse a una aplicación. Dicho en otras palabras: no es su problema.
Esa postura es parcialmente cierta y profundamente engañosa. Nadie serio sostendría que una plataforma explica por sí sola la vida psicológica de una persona. Pero de ahí no se sigue que sea irrelevante. La pregunta correcta no es si estas plataformas son la única causa del problema, sino si están diseñadas para explotar vulnerabilidades humanas —especialmente en menores— maximizando exposición, compulsión y permanencia. Justamente eso fue lo que se sentenció en los fallos contra las tecnológicas de los días recientes. Un fallo justo y necesario.
La evidencia acumulada apunta a que sí.
Estas empresas no compiten por informar ni por fortalecer vínculos sociales. Compiten por tiempo de pantalla. Su modelo de negocio depende de mantener a los usuarios conectados, reaccionando y regresando. En ese contexto, el contenido que más retiene no es necesariamente el más útil, sino el más estimulante: lo extremo, lo ansiógeno, lo polarizante.
El problema, por tanto, no es solo el contenido, sino la plataforma misma: su arquitectura y el modelo de negocio que soporta la propagación de ese contenido.
Numerosas investigaciones han demostrado que los algoritmos no son neutrales. Son artefactos que optimizan aquello que se les pide optimizar. Y si la métrica central es la retención, el sistema tenderá a amplificar lo que capture más atención, independientemente de sus efectos psicológicos o sociales. Esto no es un fallo técnico, sino una consecuencia lógica del diseño —o peor aún, un objetivo deliberado—.
Por eso resulta cada vez más inadecuado seguir llamándolas “redes sociales”. ¿Qué tienen realmente de social? Lo social es el medio, no el fin. El fin es la extracción: de tiempo, de datos, de patrones de conducta y de atención. La interacción humana funciona como insumo.
Las empresas responderán, como ya lo han hecho, que la salud mental adolescente es un fenómeno multifactorial. Es correcto. Pero esa obviedad no las exime de responsabilidad, especialmente cuando son cada vez más el vehículo mediante el cual se propaga contenido nocivo, racista, xenófobo y una larga lista de etcéteras. Otros sectores han utilizado el mismo argumento para diluir responsabilidades, como ocurrió durante décadas con la industria del tabaco. La complejidad nunca ha sido una excusa válida para ignorar daños sistemáticos derivados de productos diseñados para ser consumidos de forma intensiva.
Lo que estos fallos comienzan a desmantelar es precisamente esa coartada: la idea de que estas plataformas son simples intermediarias donde “ocurren cosas”. No lo son. Son entornos diseñados con objetivos claros, métricas precisas y mecanismos de enganche deliberados.
Los veredictos de Los Ángeles y Nuevo México no transformarán por sí solos el ecosistema digital, pero marcan un cambio relevante: el paso de la crítica cultural a la atribución jurídica de responsabilidad.
Y ese cambio, aunque llegue tarde, era inevitable.