Zoom n°9 : Tribalisme !

Zoom n°9 : Tribalisme !

« Internet dans son incarnation actuelle est une machine qui confirme les préjugés » a dit Jeff Bezos, le PDG d'Amazon. Cette déclaration de l'homme le plus riche de la planète doit particulièrement inquiéter du fait que les médias sociaux se présentent comme un couteau à double tranchant. Le père du Web, Tim Berners Lee estime que le web est un outil de confirmation et d'amplification des préjugés et cela est une préoccupation commune à de nombreux observateurs et experts, tout d’abord.

Les préoccupations sont aujourd’hui multiples et ce n’est pas demain la fin des dérives. Il y’a quelques jours Brenton Tarrant, le terroriste de Christchurch, a filmé la tuerie et a pu la diffuser en direct sur Facebook. Et ces vidéos ont été partagées sur d’autres plateformes par des adeptes de la même idéologie qu’il avait prévenus. Dix minutes avant de passer à l’acte, il avait mis un lien vers sa page sur la plateforme américaine 8Chan, fréquentée par les suprémacistes blancs et autres néo-nazis.

Avant Brenton Terrant d’autres personnes ont utilisé Facebook pour commettre de la violence. En avril 2017, à Alabama aux Etats-Unis, James M. Jeffrey, âgé de quarante-neuf ans a documenté son suicide une semaine avant avec une vidéo retransmise en direct sur son profil. Quelques jours plus tôt, un père thaïlandais avait fait de même après avoir tué sa fille de 11 mois. Et toujours aux États-Unis, à la mi-avril, Steve Stephens avait sorti la vidéo de ses aveux d’une douzaine de meurtres, puis il s'est suicidé quelques jours avant son arrestation.

Dans les trois cas, les vidéos sont restées en ligne pendant plusieurs heures avant d'être supprimées, provoquant des critiques sur le manque de modération immédiate des vidéos inappropriées et violentes par le réseau social.

Ces mêmes critiques sont aujourd’hui encore portées contre Facebook sur l’attentat de Christchurch. Le « live » de Brenton Terrant a duré 17 minutes, sans que Facebook n’ait bloqué les images et cela à même étonné la première ministre néo-zélandaise. Mais à Facebook les plateformes contrôlent à posteriori ce n’est qu’une fois alertées que les milliers de modérateurs passent à la censure. Mais le mal était fait.

A Christchurch, Facebook a annoncé avoir retiré dans les 24 heures quelque 1 million et demi de copies de la vidéo du terroriste, dont 1,2 million en phase de chargement, donc avant diffusion.

C’est encore plus spectaculaire chez YouTube, la plateforme de vidéo. Dans les heures qui ont suivi la tuerie, les vidéos de Christchurch étaient téléchargées au rythme d’une par seconde, plus vite que la capacité de YouTube à les effacer ; d’autant que, pour échapper aux systèmes automatiques, des versions éditées et à peine modifiées de la vidéo étaient mises en ligne, plus difficiles à déceler. Dépassées, les équipes de YouTube ont dû désactiver pour la première fois certaines fonctionnalités pour freiner la viralité.

Comme Daech il y a quelques années, les terroristes de tout acabit savent échapper à la surveillance, et utiliser des technologies accessibles à tous. Là encore, un défi majeur pour Facebook et l’ensemble des GAFA.

Face à un salve de critiques, pour la diffusion des images choquantes sur le réseau social, Mark Zuckerberg, le PDG de Facebook avait déclaré qu’« en plus d'investir dans des ressources humaines supplémentaires, nous développons également de meilleurs outils pour assurer la sécurité de notre communauté ». Nous faciliterons le signalement des problèmes, ce qui permettra aux modérateurs de déterminer plus facilement les publications qui enfreignent nos normes et de contacter les forces de l'ordre si quelqu'un avait besoin d'aide. Lorsque ces outils seront disponibles, ils contribueront à rendre notre communauté plus sûre ». Ce que Mark Zuckerberg n’a pas dit, c’est comment empêcher la diffusion d’images choquantes avant sa diffusion. Des milliers, voire des millions de modérateurs n’y pourront rien. Une seule seconde de diffusion est autre échec pour Facebook.

Une technologie qui augmente les biais, la distorsion cognitive qui tend à renforcer les convictions, n'est pas une bonne chose. Cela conduira à un plus grand tribalisme et nous y sommes. Le problème, cependant, n’est pas l’instrument mais son utilisation : Des livres diaboliques ont été écrits qui ont conduit à de mauvaises révolutions. Des régimes fascistes ont été créés avec des livres, mais cela ne signifie pas qu’ils sont mauvais. Finalement, il faut une réponse prospective à toutes ces dérives et cela, est la responsabilité première des GAFA.

Mouhamet Ndiongue

Commentaires