[ad_1]
Amnesty International a rapporté mercredi que la plate-forme de médias sociaux X, anciennement Twitter, a joué un rôle central dans l’alimentation de la violence anti-musulmane et anti-migrante au Royaume-Uni après les coups de couteau de Southport 2024.
L’organisation des droits a cité des défauts de conception dans l’algorithme de la plate-forme qui le rendait enclin à l’amplification du contenu nuisible. Sacha Deshmukh, directrice générale d’Amnesty International au Royaume-Uni, a déclaré: «L’algorithme de la plate-forme n’a pas seulement échoué à« briser le circuit »et à arrêter la propagation de mensonges dangereux; ils sont très susceptibles de les avoir amplifiés».
Le groupe a appelé les régulateurs britanniques à renforcer la loi sur la sécurité en ligne, à enquêter sur la propagation algorithmique de la haine sur les réseaux sociaux et à établir des remèdes aux communautés touchées par la désinformation ciblée. Il a exhorté les législateurs à reconnaître que l’autorégulation par des plateformes comme X n’est plus suffisante pour protéger la sécurité publique ou les droits fondamentaux.
Le rapport survient un an après qu’Axel Rudakubana, 17 ans, a tué trois jeunes filles et blessé dix autres personnes lors d’un événement de danse sur le thème de Taylor Swift à Southport. Quelques heures après l’attaque, les influenceurs d’extrême droite ont commencé à répandre de fausses réclamations sur X que Rudakubana était musulman ou réfugié. Bien que la police ait confirmé plus tard qu’il était né à Cardiff de parents chrétiens et n’avait aucun motif politique ou religieux, les postes promouvant la désinformation avaient déjà atteint des millions. Des émeutes ciblant les musulmans et les migrants ont éclaté dans des villes du Royaume-Uni dans les jours qui ont suivi.
Selon Amnesty International, l’algorithme de recommandation de X, qui privilégie le contenu susceptible de provoquer l’engagement, les articles systématiquement élevés contenant un discours de haine, des mensonges et un langage inflammatoire. Le groupe a souligné les publications publiques d’Elon Musk et Tommy Robinson qui ont reçu des dizaines de millions de vues malgré des allégations non vérifiées ou trompeuses. À eux seuls, les postes de Robinson auraient reçu plus de 580 millions d’impressions en deux semaines.
Le rapport a également critiqué le recul par X des pratiques de modération après la prise de contrôle d’Elon Musk en 2022. Amnesty a noté que les équipes de sécurité avaient été réduites, les comptes interdits ont été réintégrés et que les garanties des droits de l’homme ont été affaiblies sans une surveillance suffisante.
Bien que l’attaquant de Southport n’ait aucun motif idéologique, les troubles sociaux ont dégénéré après que la désinformation l’a lié à l’immigration. Les foules ont vandalisé les mosquées, attaqué des entreprises appartenant à des minorités et ciblé les demandeurs d’asile en Angleterre et en Irlande du Nord. L’année dernière, l’ancien premier ministre écossais Hamza Yousaf a exhorté le gouvernement britannique à désigner la Ligue de défense anglaise en tant qu’organisation terroriste, citant son rôle dans l’organisation de émeutes dans le Merseyside et la propagation de la rhétorique islamophobe sous le couvert du public.
Les régulateurs britanniques ont reconnu le danger. Dans une lettre ouverte l’année dernière, l’Ofcom a exhorté les plateformes à agir maintenant à prévenir une violence similaire, avertissant que les tâches en vertu de la nouvelle loi sur la sécurité en ligne nécessiteront bientôt des garanties de contenu plus solides.
Amnesty a averti qu’en dépit de l’ampleur de la violence et de la préoccupation du public, peu a changé. Des rumeurs en ligne récentes sur les transferts d’asile à l’hôtel Brittania à Canary Wharf ont provoqué des manifestations renouvelées, soulignant les risques posés par un contenu viral non modéré.
[ad_2]
Source link
