Les réseaux sociaux ont permis à davantage de personnes de faire entendre leur voix, mais certaines s’en servent dans le seul but de nuire à autrui.
C’est pourquoi nos Standards de la communauté définissent ce qui est autorisé ou non sur nos applications, et nous supprimons tout contenu qui enfreint ces règles. Quant aux contenus qui n’enfreignent pas nos politiques mais qui ont été jugés faux par des médias de vérification indépendants, nous réduisons leur diffusion afin d’éviter qu’ils ne se propagent à grande échelle. Nous fournissons également du contexte afin que vous puissiez déterminer en toute connaissance de cause ce que vous voulez lire, partager, et ce qui est fiable ou non.
Nous consultons régulièrement des experts du monde entier pour examiner et mettre à jour nos Standards afin qu’ils reflètent ce qui est autorisé ou non sur Meta.
Nos équipes de sûreté et de sécurité comptent plus de quatre fois plus de membres qu’en 2016, soit maintenant plus de 40 000 personnes.
Nous détectons la majorité des contenus que nous supprimons avant même qu’un utilisateur ne nous les signale.
Nous empêchons quotidiennement la création de millions de faux comptes.
Nous vous offrons la possibilité de contrôler votre expérience en vous permettant de bloquer, de ne plus suivre ou de masquer des utilisateurs et des publications.
Vous pouvez modérer les commentaires sur vos publications, et sur Instagram, nous vous avertissons si le contenu que vous êtes sur le point de publier est offensant, afin que vous puissiez décider si vous souhaitez réellement le publier.
Découvrez comment nous mettons à jour nos Standards de la communauté, mesurons les résultats, collaborons avec nos partenaires, et priorisons le contenu pour examen.
Nous travaillons aujourd’hui avec plus de 90 partenaires dans le monde entier afin d’examiner des contenus potentiellement trompeurs dans plus de 60 langues.
Nous incluons des avertissements sur les publications qui sont considérées comme fausses, afin que vous puissiez déterminer ce que vous voulez lire ou partager.
Lorsque des médias de vérification tiers considèrent qu’un contenu est faux, nous réduisons considérablement sa diffusion afin qu’il soit visible par le moins d’internautes possible.
Dès que l’Organisation mondiale de la santé a qualifié le COVID-19 d’urgence sanitaire publique de portée internationale, nous nous sommes efforcés de proposer à nos audiences des informations fiables issues des autorités sanitaires et avons pris des mesures strictes afin de lutter contre les fausses informations et la diffusion de contenu nuisible.
Les internautes peuvent émettre un signalement ou faire appel de certaines décisions s’ils estiment que nous avons fait une erreur en supprimant un contenu.
Ce groupe international d’experts examinera de manière indépendante les décisions les plus délicates de Meta relatives au contenu, et leur avis sera contraignant.
Chaque trimestre, nous publions un rapport fournissant des indicateurs sur la manière dont nous appliquons nos politiques en matière de contenu.
En savoir plus sur notre approche