Meta poursuivi pour 1,6 milliard de dollars pour avoir alimenté la violence ethnique en Éthiopie – Ethiopie

Meta doit réformer ses pratiques commerciales pour s’assurer que les algorithmes de Facebook n’amplifient pas la haine et n’alimentent pas les conflits ethniques, a déclaré Amnesty International aujourd’hui à la suite d’une action en justice historique contre Meta déposée devant la Haute Cour du Kenya.

L’action en justice prétend que Meta a encouragé les discours qui ont conduit à la violence ethnique et aux meurtres en Éthiopie en utilisant un algorithme qui priorise et recommande les contenus haineux et violents sur Facebook. Les pétitionnaires cherchent à empêcher les algorithmes de Facebook de recommander un tel contenu aux utilisateurs de Facebook et obligent Meta à créer un fonds d’aide aux victimes de 200 milliards de dollars (1,6 milliard de dollars). Amnesty International se joint à six autres organisations de défense des droits humains et juridiques en tant que parties intéressées dans l’affaire.

« La diffusion de contenus dangereux sur Facebook est au cœur de la recherche de profit de Meta, car ses systèmes sont conçus pour maintenir l’engagement des gens. Cette action en justice est une étape importante pour obliger Meta à rendre des comptes pour son modèle commercial néfaste », a déclaré Flavia Mwangovya, directrice régionale adjointe d’Amnesty International pour l’Afrique de l’Est, la Corne et la région des Grands Lacs.

L’un des membres du personnel d’Amnesty dans la région a été pris pour cible à la suite de publications sur la plate-forme de médias sociaux.

« En Éthiopie, les gens comptent sur les médias sociaux pour obtenir des nouvelles et des informations. En raison de la haine et de la désinformation sur Facebook, les défenseurs des droits humains sont également devenus la cible de menaces et de vitriol. J’ai vu de mes propres yeux à quel point la dynamique sur Facebook a nui à mon propre travail en faveur des droits humains et j’espère que cette affaire corrigera le déséquilibre », a déclaré Fisseha Tekle, conseillère juridique à Amnesty International.

Fisseha Tekle est l’un des pétitionnaires qui portent l’affaire, après avoir été soumis à un flux de messages haineux sur Facebook pour son travail dénonçant les violations des droits humains en Éthiopie. Un ressortissant éthiopienil vit désormais au Kenya, craint pour sa vie et n’ose pas retourner en Éthiopie pour voir sa famille à cause du vitriol qui lui est adressé sur Facebook.

L’action en justice est également intentée par Abraham Meareg, le fils de Meareg Amare, professeur d’université à l’université de Bahir Dar, dans le nord de l’Éthiopie, qui a été pourchassé et tué en novembre 2021, des semaines après que des messages incitant à la haine et à la violence à son encontre se soient répandus sur Facebook. . L’affaire affirme que Facebook n’a supprimé les publications haineuses que huit jours après le meurtre du professeur Meareg, plus de trois semaines après que sa famille eut alerté l’entreprise pour la première fois.

La Cour a été informée qu’Abraham Meareg craint pour sa sécurité et demande l’asile aux États-Unis. Sa mère qui a fui à Addis-Abeba est gravement traumatisée et hurle chaque nuit dans son sommeil après avoir été témoin du meurtre de son mari. La famille a vu sa maison à Baher Dar saisie par la police régionale.

Les publications nuisibles ciblant Meareg Amare et Fisseha Tekle n’étaient pas des cas isolés. Les allégations d’action en justice Facebook est inondé de messages haineux, incitatifs et dangereux dans le contexte du conflit éthiopien.

Meta utilise des systèmes algorithmiques basés sur l’engagement pour alimenter le fil d’actualités, le classement, les recommandations et les fonctionnalités de groupes de Facebook, façonnant ce qui est vu sur la plateforme. Les méta-bénéfices lorsque les utilisateurs de Facebook restent sur la plateforme le plus longtemps possible, en vendant des publicités plus ciblées.

L’affichage de contenus incendiaires – y compris ceux qui prônent la haine, constituant une incitation à la violence, à l’hostilité et à la discrimination – est un moyen efficace de maintenir plus longtemps les gens sur la plateforme. En tant que tel, la promotion et l’amplification de ce type de contenu sont essentielles au modèle commercial basé sur la surveillance de Facebook.

Des études internes datant de 2012 ont indiqué que Meta savait que ses algorithmes pouvaient entraîner de graves dommages dans le monde réel. En 2016, les propres recherches de Meta ont clairement reconnu que « nos systèmes de recommandation aggravent le problème » de l’extrémisme.

En septembre 2022, Amnesty International a documenté comment les algorithmes de Meta amplifiaient et promouvaient de manière proactive les contenus qui incitaient à la violence, à la haine et à la discrimination contre les Rohingyas au Myanmar et augmentaient considérablement le risque d’une flambée de violence de masse.

« De l’Éthiopie au Myanmar, Meta savait ou aurait dû savoir que ses systèmes algorithmiques alimentaient la propagation de contenus préjudiciables entraînant de graves préjudices dans le monde réel », a déclaré Flavia Mwangovya.

« Meta s’est montré incapable d’agir pour endiguer ce tsunami de haine. Les gouvernements doivent intensifier et appliquer une législation efficace pour freiner les modèles commerciaux basés sur la surveillance des entreprises technologiques. »

L’action en justice prétend également qu’il existe une disparité dans l’approche de Meta dans les situations de crise en Afrique par rapport à ailleurs dans le monde, en particulier en Amérique du Nord. La société a la capacité de mettre en œuvre des ajustements spéciaux à ses algorithmes pour supprimer rapidement le contenu incendiaire pendant une crise. Mais bien qu’ils aient été déployés ailleurs dans le monde, selon les pétitionnaires, aucun de ces ajustements n’a été effectué pendant le conflit en Éthiopie, ce qui a permis aux contenus préjudiciables de continuer à proliférer.

Les méta-documents internes divulgués par la dénonciatrice Frances Haugen, connue sous le nom de Facebook Papers, ont montré que l’entreprise de 300 milliards de dollars américains n’avait pas non plus suffisamment de modérateurs de contenu parlant les langues locales. Un rapport du comité de surveillance de Meta a également soulevé des inquiétudes quant au fait que Meta n’avait pas investi suffisamment de ressources dans la modération du contenu dans des langues autres que l’anglais.

« Meta n’a pas réussi à investir de manière adéquate dans la modération de contenu dans les pays du Sud, ce qui signifie que la propagation de la haine, de la violence et de la discrimination a un impact disproportionné sur les communautés les plus marginalisées et les plus opprimées à travers le monde, et en particulier dans les pays du Sud ».

Téléphone : +44 20 7413 5566
Courriel : press@amnesty.org
Twitter : @amnestypress

__

Avatar de Slimane Berhanu