Meta a commencé à masquer le contenu sensible aux adolescents de moins de 18 ans sur Facebook et Instagram, a annoncé un blog de l’entreprise mardi. À partir de maintenant, Meta commencera à supprimer le contenu des flux et des Stories sur des sujets sensibles qui ont été signalés comme préjudiciables aux adolescents par des experts du développement adolescent, de la psychologie et de la santé mentale. Cela comprend le contenu sur l’automutilation, le suicide et les troubles alimentaires, ainsi que le contenu abordant les biens restreints ou présentant de la nudité. Même si un contenu sensible est partagé par des amis ou des comptes que les adolescents suivent, les adolescents seront bloqués de le visualiser, a confirmé Meta. Tout adolescent recherchant un contenu sensible sera invité à contacter un ami ou à consulter « des organisations expertes telles que l’Alliance nationale sur les maladies mentales », a annoncé Meta. En plus de cacher plus de contenu aux adolescents, Meta a également annoncé que dans les semaines à venir, il bloquera à tous les utilisateurs de ses applications la recherche d’une gamme plus large de termes sensibles « qui enfreignent intrinsèquement » les règles de Meta. Meta n’a pas spécifié quels nouveaux termes pourraient être bloqués, mais a noté qu’il masquait déjà les résultats pour les termes de recherche sur le suicide et l’automutilation.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation