Política

La escuela donde la IA se volvió arma

En la Secundaria Técnica 1 de Zacatecas las niñas dejaron de entrar tranquilas al baño.

Un compañero de 14 años se paraba en la puerta con el celular en la mano. Un clic rápido al rostro. Un par de días después, esas mismas caras aparecieron desnudas en pantallas que nunca habían visto. Cuerpos falsos, vergüenza real. Más de 400 alumnas descubrieron, al mismo tiempo, que la inteligencia artificial también sabe humillar.

Las fotos no eran “packs” robados ni poses que alguien decidió compartir. Eran rostros tomados a la salida del baño, pegados con software a cuerpos que no existen, animados en videos que sí existen. Un catálogo en la nube, organizado con nombres y grados escolares, circulando en grupos de WhatsApp y redes sociales.

La escuela tardó en reaccionar. Las familias no.

Salieron a la puerta a exigir algo tan básico como que alguien se hiciera cargo. La Fiscalía abrió una carpeta por delitos contra la intimidad sexual. Las autoridades educativas prometieron protocolos. Las niñas, mientras tanto, tuvieron que volver al salón con la sensación de que su cara ya no les pertenece del todo.

Este caso no es un accidente aislado. Ya habíamos visto la versión universitaria: Diego “N”, exalumno del IPN, con más de 160 mil imágenes manipuladas con IA de niñas y mujeres, finalmente sentenciado a cinco años de cárcel por trata en modalidad de pornografía infantil.

Hay leyes como la Olimpia, colectivas organizadas, abogadas especializadas. Y aun así, aquí estamos: una secundaria entera aprendiendo de golpe lo que significa violencia digital.

La latencia, en este caso, es brutal. La tecnología para fabricar pornografía falsa ya está al alcance de un adolescente con conexión y un celular. Las leyes, los protocolos escolares y la capacidad emocional para acompañar a las víctimas vienen varios pasos atrás. Entre lo que la IA puede hacer y lo que el Estado puede proteger hay un hueco donde hoy caben cientos de niñas.

Nos hemos acostumbrado a hablar de “democratizar herramientas”. Lo que casi nunca decimos es que también estamos democratizando el poder de dañar. Si cualquier persona puede crear una imagen falsa en segundos, no basta con celebrar la innovación: hay que decidir quién responde cuando esa innovación se convierte en arma.

Una escuela debería ser el lugar donde aprendamos a habitar el mundo. En Zacatecas, estas alumnas están aprendiendo otra cosa: que el mundo puede usarlas como insumo. Que su imagen puede ser capturada, alterada y distribuida sin preguntarles nada.

México discute leyes de inteligencia artificial, marcos de ciberseguridad, estrategias digitales. Pero el examen más importante no está en el Congreso, sino en el patio de esa secundaria: qué hacemos cuando una generación entera descubre que la violencia ya no necesita tocarte para marcar tu cuerpo.

La IA no “se volvió mala” en Zacatecas. Solo mostró, con precisión de máquina, lo que pasa cuando dejamos a las niñas solas entre la pantalla y el daño.


Google news logo
Síguenos en
Héctor Faya
  • Héctor Faya
  • Fundador de Aurora Policy Solutions y profesor de IA y derecho en la Ibero CDMX.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de MILENIO DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.