En un esfuerzo por salvaguardar la salud mental de los adolescentes, Meta, la empresa matriz de Instagram y Facebook, ha anunciado una actualización significativa en sus políticas de contenido. La iniciativa se centra en ocultar temas delicados como el suicidio, las autolesiones y los trastornos alimentarios en todas sus plataformas.
Hasta ahora, el contenido sensible se bloqueaba en secciones específicas como Reels y Explorar. Con la nueva medida, estas publicaciones no se mostrarán en el Feed y las Historias de usuarios menores de 18 años, incluso si son compartidas por cuentas seguidas. En su lugar, los adolescentes serán redirigidos a recursos especializados para proteger su bienestar en línea.
Las cuentas de jóvenes usuarios también experimentarán ajustes automáticos en sus filtros de contenido, limitando la visualización de publicaciones consideradas sensibles o de baja calidad. Aunque los usuarios pueden personalizar estas configuraciones, el ajuste predeterminado será el más restrictivo.
Esta actualización es parte de un esfuerzo general de Meta en respuesta a la creciente atención de reguladores y legisladores sobre la seguridad de los niños en las redes sociales. La empresa colaboró con expertos en desarrollo humano, psicología y salud mental para identificar contenidos menos apropiados para adolescentes.
Rose Jean es toda una sensación en Instagram por amarse siendo talla 6XL
Algunas herramientas como el "Control de contenidos delicados" en Instagram y "Reducir" en Facebook serán las encargadas de limitar el acceso a ciertos contenidos en áreas como Búsqueda y Explorar. Además, Meta ha trabajado en ajustar la configuración de privacidad recomendada para que los adolescentes revisen regularmente y utilicen las últimas herramientas disponibles.
Meta implementará la ocultación de resultados relacionados con nuevos términos de búsqueda asociados al suicidio, autolesiones y trastornos alimentarios, guiando a los usuarios hacia recursos de ayuda. Los posts que mencionen estos temas sensibles compartirán recursos de organizaciones expertas, como la National Alliance on Mental Illness.
La Dra. Rachel Rodgers de la Northeastern University elogió estos cambios como un paso vital hacia la creación de plataformas sociales seguras para los jóvenes. La iniciativa también alienta a los adolescentes a activar la configuración recomendada, limitando quién puede compartir su contenido y contactarlos directamente, así como ayudando a ocultar comentarios ofensivos.
Estos cambios coinciden con la creciente atención regulatoria a nivel global, incluyendo audiencias en el Senado de Estados Unidos, donde Mark Zuckerberg, CEO de Meta, comparecerá para abordar la seguridad infantil.
En medio de esta atención, las políticas de Meta también se alinean con iniciativas legislativas como la Ley de Servicios Digitales de la Unión Europea y la Ley de Seguridad en Línea del Reino Unido, destacando la importancia de proteger a los menores en el entorno digital.