Site icon La Revue Internationale

«Geography of hate»: une cartographie de la haine sur Twitter

[image:1,l]

#UnBonJuif, #SiJetaisNazi… Twitter fait parfois les frais de sa popularité, en laissant passer entre les mailles du filet des mots-clés à caractère raciste.

« Loups solitaires »

Récemment, le Centre Simon Wiesenthal, qui traque les criminels de guerre nazis, a demandé au site de micro-blogging qu’il retire tous les tweets « incitant à la haine ». En 2013, l’organisation a déclaré avoir relevé pas moins de 20 000 hashtags ou références à l’extrémisme ou au terrorisme.

« La multiplication des formations pour terroristes et l’utilisation abusive des médias sociaux et des forums de discussions par les extrémistes laissent présager la multiplication d’attaques de loups solitaires ici comme à l’étranger », avait prévenu le président du Centre à Washington, Abraham Cooper.

La haine « géotaggée »

Un groupe d’étudiants de l’université de Humboldt, en Californie, a ainsi créé une carte interactive de plus de 150 000 tweets « géotaggés », publiés sur Twitter entre juin 2012 et avril 2013. Déjà, après la réélection de Barack Obama, le groupe Floating-sheep avait mis au point une cartographie des tweets contenant des insultes racistes envers le président.

« Les espaces virtuels des réseaux sociaux sont intensément liés à des contextes socio-spatiaux du monde réel, et comme le montre cette carte, la géographie des discours haineux en ligne n’est pas différente », écrit le groupe de recherche. Cette fois-ci, plutôt que de concentrer leur étude sur les tweets géolocalisés à l’encontre d’un seul individu, les étudiants ont analysé un spectre plus large du discours discriminatoire sur les réseaux sociaux, incluant l’utilisation d’insultes racistes, homophobes et sexistes.

Plus de 41 000 tweets contenant « nigger »

Entre juin 2012 et avril 2013, les étudiants ont par exemple trouvé 41 306 tweets contenant le mot « nigger » (« négro »), et 95 123 tweets homophobes. Les étudiants ont lu chacun de ces tweets afin de déterminer s’ils étaient utilisés de manière positive, négative ou neutre.

« Cela nous a permis d’éviter d’utiliser un algorithme d’analyse des sentiments […] qui aurait pu classer un tweet dans la catégorie « négatif » alors que le mot était utilisé de façon neutre ou positive », expliquent-ils. Seuls les tweets jugés négatifs par les étudiants sont répertoriés sur la carte.

Quitter la version mobile