Un estudio realizado por investigadores daneses ha revelado que Meta, propietaria de Instagram, permite que el contenido relacionado con autolesiones prospere en su plataforma, al no eliminar imágenes explícitas y fomentar, a través de algoritmos, la conexión entre usuarios involucrados en este tipo de publicaciones. Según el informe, la moderación de este contenido por parte de Meta es "extremadamente inadecuada" y pone en peligro la salud mental y física de jóvenes usuarios.
La organización Digitalt Ansvar (Responsabilidad Digital) creó una red privada de perfiles falsos en Instagram, incluyendo cuentas de adolescentes de 13 años, donde compartieron 85 publicaciones relacionadas con autolesiones, aumentando gradualmente la gravedad del contenido. A pesar de la severidad de las imágenes, que incluían sangre, cuchillas y mensajes que alentaban el daño personal, ninguna fue eliminada durante el mes que duró el experimento.
A través de una herramienta de inteligencia artificial desarrollada por los investigadores, se detectaron automáticamente el 38% de las imágenes y el 88% de las más graves, demostrando que Instagram cuenta con la tecnología necesaria para identificar estos contenidos pero no la implementa de manera efectiva.
El estudio también señala que Meta podría estar incumpliendo la Ley de Servicios Digitales de la Unión Europea, que exige a las grandes plataformas digitales identificar riesgos sistémicos que afecten el bienestar físico y mental. Según Digitalt Ansvar, los algoritmos de Instagram no solo no bloquean estas redes de autolesiones, sino que las ayudan a expandirse al recomendar conexiones entre sus miembros.
Aunque un portavoz de Meta aseguró que la empresa eliminó más de 12 millones de publicaciones relacionadas con autolesiones en 2024, el estudio contradice estas afirmaciones. "Pensamos que, al aumentar gradualmente la gravedad del contenido, alcanzaríamos un umbral en el que sus herramientas lo detectaran. Pero no fue así", expresó Ask Hesby Holm, director de Digitalt Ansvar.
Lotte Rubæk, psicóloga y exmiembro del grupo de expertos global de Meta en prevención del suicidio, criticó duramente la inacción de la compañía. "Es preocupante que no hayan eliminado ni una sola de las 85 publicaciones. Esto no solo contradice sus declaraciones públicas, sino que también tiene un impacto devastador en jóvenes vulnerables", dijo.
El estudio destaca que la falta de moderación puede tener consecuencias graves, como el aumento de casos de autolesiones y suicidios entre adolescentes. Rubæk calificó la situación como "una cuestión de vida o muerte" y acusó a Meta de priorizar el tráfico y el beneficio económico sobre el bienestar de los usuarios más jóvenes.
La investigación plantea serias dudas sobre la efectividad de las políticas de Meta para proteger a sus usuarios y subraya la necesidad de una regulación más estricta para evitar que plataformas como Instagram se conviertan en espacios peligrosos para niños y adolescentes.