Facebook introduit une politique de "grève unique" pour lutter contre les abus de son service de streaming en direct – TechCrunch


Facebook s'attaque à son service de diffusion en direct après avoir été utilisé pour retransmettre les fusillades massives qui ont fait 50 morts dans deux mosquées de Christchurch en Nouvelle-Zélande en mars. Le réseau social a annoncé aujourd’hui qu’il mettait en œuvre une règle du «grève unique» qui empêcherait les utilisateurs qui enfreignent ses règles d’utiliser le service Facebook Live.

«Désormais, toute personne qui enfreindra nos règles les plus graves n'aura plus le droit d'utiliser Live pour des périodes définies, par exemple 30 jours, à compter de la première infraction. Par exemple, une personne qui partage un lien vers une déclaration d'un groupe terroriste sans contexte sera immédiatement empêchée d'utiliser Live pendant une période déterminée », a écrit Guy Rosen, vice-président de Facebook pour l'intégrité.

La société a annoncé son intention d'imposer des restrictions supplémentaires à ces personnes, notamment en limitant leur capacité à diffuser des annonces sur le réseau social. Ceux qui enfreignent la politique de Facebook contre «les individus et les organisations dangereux» – une nouvelle introduction qui interdisait plus tôt un certain nombre de personnalités de droite – ne seront pas autorisés à utiliser Live, bien que Facebook ne soit pas précis sur la durée de celle-ci. les interdictions ou ce qu'il faudrait pour déclencher une barre permanente de streaming en direct.

Facebook utilise de plus en plus l'IA pour détecter et contrer les contenus violents et dangereux sur sa plate-forme, mais cette approche ne fonctionne tout simplement pas.

Au-delà du défi des langues autres que l'anglais – le système de détection de l'IA de Facebook a échoué au Myanmar, par exemple, malgré ce que le PDG Mark Zuckerberg avait affirmé – le système de détection n'était pas robuste pour faire face aux conséquences de Christchurch.

Le flux lui-même n'a été signalé à Facebook que 12 minutes après sa fin, tandis que Facebook n'a pas réussi à bloquer 20% des vidéos du flux en direct qui ont ensuite été téléchargées sur son site. En effet, TechCrunch a trouvé plusieurs vidéos encore sur Facebook plus de 12 heures après l’attaque, malgré les efforts du réseau social pour sélectionner les «statistiques de la vanité» cela semblait montrer que son intelligence artificielle et ses équipes humaines contrôlaient la situation.

Reconnaissant cet échec de manière indirecte, Facebook a annoncé qu'il investirait 7,5 millions de dollars dans "de nouveaux partenariats de recherche avec des universitaires de premier plan issus de trois universités, conçus pour améliorer les technologies d'analyse d'images et de vidéos".

Parmi les premiers partenaires de cette initiative, citons l’Université du Maryland et l’Université Cornell. et l’Université de Californie à Berkeley, qui, selon elle, aidera à la détection d’images, de vidéos et de sons manipulés. Un autre objectif consiste à utiliser la technologie pour identifier la différence entre ceux qui manipulent délibérément les médias et ceux qui le font «sans le savoir».

Facebook a déclaré qu'il espérait ajouter d'autres partenaires de recherche à cette initiative, qui est également axée sur la lutte contre le deepfakes.

«Bien que nous ayons déployé un certain nombre de techniques pour trouver ces variantes, y compris la technologie de correspondance audio et vidéo, nous avons compris qu’il s’agissait d’un domaine dans lequel nous devions investir davantage dans la recherche», a reconnu Rosen dans son blog.

L'annonce de Facebook intervient moins d'un jour après qu'un groupe de dirigeants mondiaux, dont la première ministre néo-zélandaise, Jacinda Ardern, a appelé les entreprises de haute technologie à s'engager à intensifier leurs efforts pour lutter contre les contenus toxiques.

Selon des personnes travaillant pour le ministère de l'Économie français, l'appel de Christchurch ne contient aucune recommandation spécifique concernant la nouvelle réglementation. Au lieu de cela, les pays peuvent décider de ce qu’ils veulent dire par contenu violent et extrémiste.

"Pour l'instant, il s'agit d'un événement en particulier qui a posé problème à plusieurs pays", a déclaré le ministre français du Numérique, Cédric O, lors d'un point de presse.