Le gouvernement brésilien a lancé une nouvelle plateforme d’intelligence artificielle, baptisée Platform of Respect(Plateforme du respect), destinée à repérer et signaler les contenus haineux ou mensongers visant les personnes LGBTQ+ sur le Web. Une initiative saluée par les militant·e·s des droits queer — mais qui soulève aussi des débats sur la liberté d’expression.
Une IA pour traquer la désinformation et les discours haineux
Dévoilée le 16 septembre par le ministère brésilien des Droits de la personne, en partenariat avec l’ONG Aliança Nacional LGBTI+, la plateforme s’appuie sur un outil d’intelligence artificielle nommé Aletheia. Son rôle : analyser en continu les réseaux sociaux, les blogues et les sites d’actualité afin d’y détecter des propos qualifiés de désinformation ou de discours de haine, y compris ceux qui remettent en cause les identités de genre ou les réalités trans.
L’initiative est partiellement financée par la députée trans Erika Hilton, figure emblématique de la représentation politique LGBTQ+ au Brésil. « Nous avons créé une plateforme composée de plusieurs outils d’IA qui surveillent en continu les pages, profils, sites Web et blogues », explique Jean Muksen, coordonnateur du projet. Selon lui, Aletheia a été développée sur 18 mois par une équipe de juristes, de communicateur·rice·s et de journalistes. Le système est capable de comprendre le portugais dans ses nuances, incluant l’ironie et le sarcasme — des subtilités souvent utilisées dans les discours transphobes ou homophobes pour contourner les règles des plateformes.
De la détection à la poursuite judiciaire
Lorsqu’un contenu est repéré par l’IA, il est archivé dans une base de données, puis analysé manuellement par un·e avocat·e de l’ONG Aliança Nacional LGBTI+. Si le message est jugé conforme à la définition de désinformation ou de discours haineux, il peut ensuite être transmis aux autorités judiciaires, ouvrant la porte à d’éventuelles poursuites criminelles.
Cette approche vise, selon Muksen, à responsabiliser légalement les auteur·rice·s de propos diffamatoires ou discriminatoires contre les personnes LGBTQ+.
« La haine en ligne a des conséquences bien réelles : elle alimente les agressions, les suicides et les politiques d’exclusion. Le Brésil devait agir », a résumé Muksen lors du lancement.
Une mesure saluée, mais aussi perçue comme controversée
Si la plateforme est perçue par plusieurs organismes LGBTQ+ comme un outil essentiel de protection contre la violence numérique, elle est aussi accusée par certains groupes conservateurs de restreindre la liberté d’expression.
Isabella Cêpa, militante connue pour ses positions anti-trans, a dénoncé la mesure dans les pages du European Conservative : « Utiliser l’intelligence artificielle pour traquer les dissidents politiques, c’est quelque chose qu’on croyait réservé à d’autres régimes. Aujourd’hui, la société brésilienne doit craindre d’être punie simplement pour avoir dit que deux et deux font quatre. »
Ces critiques reflètent une tension mondiale entre la liberté d’expression et la lutte contre la haine en ligne, notamment lorsque les algorithmes et les définitions juridiques sont appelés à juger du discours public.
Un pays où la haine est criminalisée
Depuis 2019, la Cour suprême fédérale du Brésil reconnaît la discrimination envers les personnes LGBTQ+ comme une forme de racisme, ce qui en fait une infraction criminelle au même titre que les propos antisémites ou racistes. La transphobie est également explicitement inscrite dans le Code pénal brésilien.
Ces avancées légales, historiques dans le contexte latino-américain, s’inscrivent dans un pays où la violence envers les personnes LGBTQ+ demeure dramatique : le Brésil figure chaque année parmi les pays comptant le plus d’assassinats de personnes trans et queer selon l’ONG Transgender Europe.
Une expérimentation mondiale sous surveillance
Avec Platform of Respect, le Brésil devient l’un des premiers pays à confier à une intelligence artificielle la mission de protéger la communauté LGBTQ+ contre la haine numérique.
Mais cette innovation soulève une question cruciale : comment concilier la protection des minorités et la liberté de parole dans un espace numérique où les algorithmes deviennent juges de l’intention humaine?
Si le système réussit à freiner la désinformation sans dérive autoritaire, il pourrait servir de modèle à d’autres États aux prises avec des vagues de haine anti-LGBTQ+ en ligne — notamment en Europe, en Amérique latine et même au Canada, où des initiatives semblables sont actuellement discutées dans le cadre des projets de loi C-63 et C-11 sur la régulation numérique.

