Meta promeut des vidéos violentes et macabres sur Instagram

Meta promeut des vidéos violentes et macabres sur Instagram

L’algorithme d’Instagram a mis en avant des images choquantes pendant un certain temps. Des mineurs se sont également vus présenter des vidéos macabres sur la plateforme de Meta.

Instagram a fait la promotion de vidéos violentes et carrément macabres dans le fil d’actualité des bobines hier soir, principalement auprès des jeunes utilisateurs. C’est ce qu’a rapporté la VRT après que des jeunes aient signalé le problème à NWS.NWS.NWS, mais le problème ne s’est pas limité à notre pays. Dans le monde entier, des vidéos choquantes de bagarres, de meurtres et même d’un homme piétiné par un éléphant ont été diffusées de manière non sollicitée.

Violation des conditions

Les images violent les conditions et les paramètres de Meta concernant les contenus sensibles indiqués par les utilisateurs eux-mêmes. Pourtant, des personnes peu méfiantes faisant défiler la fonction Explore d’Instagram ou Reels se sont vu montrer de telles images. Dans l’article initial, la VRT renvoyait à Tele-Onthaal (numéro de téléphone 106) ou à Awel for Young People (numéro de téléphone 102) pour les personnes ayant besoin d’une conversation après avoir vu une vidéo macabre.

Meta s’est depuis excusé et affirme que le problème a été corrigé. « Nous avons corrigé un bug qui faisait que certains utilisateurs voyaient dans leurs posts Instagram des contenus qui ne devraient pas être recommandés », peut-on lire.

L’entreprise ne dit rien sur la nature exacte du problème et sur la manière dont le système peut présenter des vidéos potentiellement traumatisantes pour les jeunes et les moins jeunes. De plus, Meta a mis du temps à communiquer sur le problème, même après une couverture internationale.

Meta, sous la pression du président américain Trump, réduit drastiquement ses règles autour de la modération des contenus sur toutes les plateformes, dans un premier temps aux États-Unis. Désormais, les contenus racistes et transphobes n’enfreindront plus les conditions générales de Meta. Les images horribles que les utilisateurs voyaient maintenant provenaient de comptes portant des noms tels que BlackPeopleBeingHurt.

Bien que Meta ne soit pas enclin à faire preuve de transparence sur la manière dont le problème a pu se produire, un porte-parole est sur place pour affirmer que cela n’a rien à voir avec la politique de modération mise à jour. Il est impossible de vérifier si cette affirmation est vraie. Le fait est, cependant, que Meta a précédemment indiqué qu’il souhaitait modifier l’algorithme de modération automatique afin de le rendre plus tolérant.

Bien que Meta soit peu disert sur l’incident, des personnes, y compris des jeunes du monde entier, ont vu des images qui peuvent être traumatisantes. Ce n’est pas la première fois que les algorithmes d’Instagram échouent, mais c’est sans doute la plus grave. Par le passé, Instagram a déjà présenté de la pornographie aux utilisateurs qui suivaient de jeunes créateurs de contenu. Pourtant, la plateforme reste immensément populaire, même auprès des annonceurs dont le contenu était entrecoupé de mutilations et de meurtres la nuit dernière.