Rapport de transparence
1er juillet 2023 au 31 décembre 2023

Publication :

25 avril 2024

Mise à jour :

25 avril 2024

Pour donner un aperçu plus large des efforts de Snap en matière de sécurité ainsi que de la nature et du volume du contenu signalé sur notre plateforme, nous publions ce rapport sur la transparence deux fois par an. Nous nous engageons à continuer à rendre ces rapports plus complets et plus instructifs afin d'assurer la sécurité et le bien-être de notre communauté et des nombreuses parties prenantes qui s'intéressent de près à nos pratiques en matière de modération de contenu et d'application de la loi.

Ce rapport sur la transparence couvre le deuxième semestre 2023 (du 1er juillet au 31 décembre). Comme pour nos précédents rapports, nous partageons les données sur le nombre total de contenus dans l'application, les signalements au niveau des comptes que nous avons reçus et sanctionnés dans des catégories spécifiques de violations des politiques, la manière dont nous avons répondu aux demandes des forces de l'ordre et des gouvernements, et nos différentes sanctions ventilées par pays. et nos mesures d’exécution ventilées par pays. Dans

le cadre de notre engagement permanent à améliorer nos rapports sur la transparence, nous introduisons quelques nouveaux éléments avec cette publication.

Tout d'abord, nous avons élargi notre tableau principal pour y inclure les rapports et les mesures d'application contre les contenus et les comptes liés au terrorisme et à l'extrémisme violent ainsi qu'à l'exploitation et aux abus sexuels concernant des enfants (CSEA). Dans les rapports précédents, nous avions mis en évidence les suppressions de comptes effectuées en réponse à ces violations dans des sections distinctes. Nous continuerons à décrire nos efforts proactifs et réactifs contre le CSEA, ainsi que nos rapports à la NCMEC, dans une section séparée.

Deuxièmement, nous avons fourni des informations plus détaillées sur les recours, en indiquant le nombre total de recours et de rétablissements par application des règles communautaires. 

Enfin, nous avons élargi notre section sur l'Union européenne, ce qui nous permet de mieux comprendre les activités de Snap dans l'UE. Plus précisément, nous publions notre dernier rapport de transparence de l'ASD et des données supplémentaires concernant notre analyse des médias du CSEA.

Pour plus d'informations sur nos politiques de lutte contre les contenus préjudiciables en ligne et sur nos plans visant à améliorer nos pratiques de signalement, veuillez consulter notre récent blog sécurité et impact sur ce rapport de transparence. Pour trouver des ressources supplémentaires en matière de sécurité et de vie privée sur Snapchat, cliquez sur notre onglet À propos du rapport sur la transparence au bas de la page.

Veuillez noter que la version la plus récente de ce rapport de transparence est disponible en anglais (en-US).

Aperçu du contenu et des comptes en infraction

Entre le 1er juillet et le 31 décembre 2023, Snap a pris des mesures contre 5 376 714 éléments de contenu dans le monde entier qui nous ont été signalés et qui ont violé nos règles communautaires.

Au cours de la période couverte par le rapport, nous avons constaté un taux de visualisation violente (VVR) de 0,01 %, ce qui signifie que sur 10 000 visualisations de Snap et de story sur Snapchat, 1 contenait un contenu jugé contraire à nos politiques. Le délai médian de mise en œuvre du contenu signalé était d'environ 10 minutes.

Analyse des violations de contenus et de comptes

Nos taux globaux de signalement et d'application sont restés relativement similaires à ceux des six mois précédents Au cours de ce cycle, nous avons constaté une augmentation d'environ 10 % du nombre total de rapports sur le contenu et les comptes.

Le conflit entre Israël et le Hamas a débuté au cours de cette période, ce qui a entraîné une augmentation des contenus violents. Le nombre total de signalements liés à des propos haineux a augmenté de ~61%, tandis que le nombre total d'infractions liées au contenu des propos haineux a augmenté de ~97% et le nombre d'infractions liées à des comptes uniques a augmenté de ~124%. Les signalements de terrorisme et d'extrémisme violent ont également augmenté, bien qu'ils représentent moins de 0,1 % du total des contenus mis en application sur notre plateforme. Nos équipes de confiance et de sécurité continuent de rester vigilantes face aux conflits mondiaux afin d'assurer la sécurité de Snapchat. Nous avons également élargi notre rapport sur la transparence afin d'y inclure davantage d'informations au niveau mondial et national concernant le nombre total de rapports, de contenus appliqués et de comptes uniques appliqués pour des violations de notre politique en matière de terrorisme et d'extrémisme violent.

La lutte contre l'exploitation et les abus sexuels à l'encontre des enfants

L'exploitation sexuelle de tout membre de notre communauté, en particulier des mineurs, est illégale, odieuse et interdite par nos règles communautaires. La prévention, la détection et l'éradication des images d'exploitation et d'abus sexuels sur des enfants (ACSE) sur notre plateforme est une priorité absolue pour Snap, et nous développons continuellement nos capacités à combattre ces types de crimes comme beaucoup d'autres.

Nous utilisons des outils de détection de technologie active tels que le hachage robuste de PhotoDNA et l'appariement d'imagerie pédopornographique de Google, pour identifier les images et vidéos illégales connues d'abus sexuels sur des enfants, respectivement, et les signaler au centre américain pour les enfants disparus et exploités (NCMEC), comme l'exige la loi. Le NCMEC ensuite, à son tour, collabore avec les forces de l'ordre nationales ou internationales, selon les besoins.

Au cours du second semestre 2023, nous avons détecté de manière proactive 59 % de l'ensemble des violations signalées en matière d'exploitation et d'abus sexuels concernant des enfants et nous avons pris des mesures à cet égard. Cela reflète une diminution totale de 39% par rapport à la période précédente, en raison des améliorations apportées aux options de signalement des Snapchatters, augmentant ainsi notre visibilité sur les envois potentiels de l'ACSE sur Snapchat.

*Notez que chaque soumission au NCMEC peut contenir plusieurs éléments de contenu. Le total des pièces individuelles de média soumises au NCMEC est égal au total du contenu sanctionné. Nous avons aussi exclu les soumissions rétractées au NCMEC de ce numéro.

Contenu portant sur l'automutilation et le suicide

La santé mentale et le bien-être des utilisateurs de Snapchat nous tiennent particulièrement à cœur, ce qui continue d'influencer nos décisions de construire Snapchat différemment. En tant que plateforme conçue pour les communications entre et parmi de vrais amis, nous pensons que Snapchat peut jouer un rôle unique en permettant aux amis de s'entraider dans les moments difficiles.

Lorsque notre équipe Trust & Safety a connaissance d'un Snapchatter en détresse, elle peut lui transmettre des ressources de prévention et d'assistance en matière d'automutilation et avertir le personnel d'intervention d'urgence, le cas échéant. Les ressources que nous partageons sont disponibles sur notre liste mondiale de ressources en matière de sécurité, et ces ressources sont accessibles à tous les Snapchatters.

Appels

Dans notre précédent rapport, nous avons introduit des statistiques sur les recours, en indiquant le nombre de fois où les utilisateurs nous ont demandé de réexaminer la décision initiale de modération de leur compte. Dans ce rapport, nous avons élargi nos appels afin de capturer l'ensemble des catégories de notre politique en matière de violations au niveau des comptes.

* L'arrêt de la diffusion de contenus ou d'activités liés à l'exploitation sexuelle des enfants est une priorité absolue. Snap consacre des ressources importantes pour cet objectif et ne tolère aucunement ce type de comportement.  Une formation spéciale est nécessaire pour examiner les appels de dénonciation d'exploitation sexuelle des enfants, et une équipe limitée d'agents qui est chargée de ces examens en raison de la nature graphique du contenu.  Au cours de l'automne 2023, Snap a mis en œuvre des changements de politique qui ont affecté la cohérence de certaines mesures contre les exploitations sexuelles des enfants, et nous avons remédié à ces incohérences par le biais d'une nouvelle formation des agents et d'une assurance qualité rigoureuse.  Nous nous attendons à ce que le prochain rapport sur la transparence de Snap révèlera les progrès réalisés dans l'amélioration des délais de réponse aux appels de dénonciation d'exploitation sexuelle des enfants et dans l'amélioration de la précision des mesures d'exécution. 

Modération des publicités

Snap s'engage à faire en sorte que toutes les publicités soient totalement conformes à nos Politiques PublicitairesPolitiques Publicitaires. Nous croyons en une approche responsable et respectueuse de la publicité, en créant une expérience sûre et agréable pour tous nos utilisateurs. Vous trouverez ci-dessous un aperçu de notre modération des publicités payantes sur Snapchat. Notez que les publicités sur Snapchat peuvent être supprimées pour diverses raisons décrites dans les politiques publicitaires de Snap, y compris le contenu trompeur, le contenu adulte, le contenu violent ou dérangeant, les discours haine et la violation de la propriété intellectuelle. En outre, vous pouvez maintenant trouver la Galerie des publicités de Snapchat dans la barre de navigation de ce rapport sur la transparence. 

Aperçu régional et national

Cette section fournit un aperçu de l'application de nos Règles communautaires dans un échantillon de régions géographiques. Nos Règles s'appliquent à tout le contenu de Snapchat - et à tous les Snapchatters - à travers le monde, peu importe leur localisation.

Les informations relatives aux différents pays, y compris tous les États membres de l'UE, peuvent être téléchargées via le fichier CSV ci-joint.