Meta hizo el anuncio en un momento en que enfrenta demandas de decenas de estados de Estados Unidos que la acusan de perjudicar a los jóvenes y contribuir a la crisis de salud mental juvenil.
Meta anunció este martes que empezará a ocultar contenido inapropiado de las cuentas de adolescentes en Instagram y Facebook, incluidas publicaciones sobre suicidio, autolesiones y trastornos alimenticios.
El gigante de las redes sociales, con sede en Menlo Park, California, ha explicado en su blog que, aunque su objetivo ya es no recomendar a los adolescentes este tipo de material “inapropiado para su edad”, ahora tampoco lo mostrará en su sección de noticias, aunque lo comparta una cuenta a la que sigan.
“Queremos que los adolescentes tengan experiencias seguras y apropiadas para su edad en nuestras aplicaciones”, aseveró Meta.
Los usuarios adolescentes, siempre que no hayan mentido sobre su edad al registrarse en Instagram o Facebook, también verán sus cuentas configuradas en los ajustes más restrictivos de las plataformas, y se les bloqueará la búsqueda de términos que puedan ser perjudiciales.
“Tomemos el ejemplo de alguien que publica sobre su lucha constante con pensamientos de autolesión. Es una historia importante y puede ayudar a desestigmatizar estos problemas, pero es un tema complejo y no es necesariamente adecuado para todos los jóvenes”, dijo Meta. “Ahora, empezaremos a eliminar este tipo de contenido de las experiencias de los adolescentes en Instagram y Facebook, así como otros tipos de contenido inapropiado para su edad”.
Meta hizo el anuncio en un momento en que enfrenta demandas de decenas de estados de Estados Unidos que la acusan de perjudicar a los jóvenes y contribuir a la crisis de salud mental juvenil al diseñar de forma consciente y deliberada funciones en Instagram y Facebook que crean adicción en los niños a sus plataformas.
Los críticos afirman que las medidas de Meta no son suficientes.
“El anuncio de hoy de Meta es otro intento desesperado de evitar la regulación y una increíble bofetada a los padres que han perdido a sus hijos a causa de perjuicios virtuales en Instagram”, dijo Josh Golin, director ejecutivo de Fairplay, un grupo de defensa de los niños en internet. “Si la empresa puede ocultar contenidos prosuicidio y sobre trastornos alimentarios, ¿por qué han esperado hasta 2024 para anunciar estos cambios?”