Mercredi, 17 avril 2024
• • •
    Publicité

    Une étude sur l’IA générative révèle des preuves alarmantes de stéréotypes de genre régressifs

    Une étude de l’UNESCO a révélé des tendances inquiétantes dans les modèles de langage large (LLM) à produire des préjugés sexistes, ainsi que de l’homophobie et des stéréotypes raciaux. Les femmes étaient décrites comme travaillant dans des rôles domestiques beaucoup plus souvent que les hommes — quatre fois plus souvent par un modèle — et étaient fréquemment associées à des mots comme « maison », « famille » et « enfants », tandis que les noms masculins étaient liés à « entreprise », « cadre », « salaire » et « carrière ».

    L’étude Bias Against Women and Girls in Large Language Models examine les stéréotypes dans les Large Language Models (LLM) — des outils de traitement du langage naturel qui sous-tendent les plates-formes d’IA générative populaires — notamment GPT-3.5 et GPT-2 d’OpenAI et Llama 2 de META. Elle montre des preuves sans équivoque de préjugés à l’égard des femmes dans le contenu généré par chacun de ces grands modèles linguistiques.


    « Chaque jour, de plus en plus de personnes utilisent les grands modèles linguistiques dans leur travail, leurs études et à la maison. Ces nouvelles applications d’IA ont le pouvoir de façonner subtilement les perceptions de millions de personnes, de sorte que même de petits préjugés sexistes dans leur contenu peuvent amplifier considérablement les inégalités dans le monde réel », a déclaré Audrey Azoulay, directrice générale de l’UNESCO.


    « Notre Organisation appelle les gouvernements à élaborer et à appliquer des cadres réglementaires clairs, et aux entreprises privées à procéder à un suivi et à une évaluation continus des préjugés systémiques, comme énoncé dans la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, adoptée à l’unanimité par nos États membres en 2017. novembre 2021 », a-t-elle ajouté.
    Les LLM open source tels que Llama 2 et GPT-2 — appréciés car gratuits et accessibles à un large public — présentaient les préjugés sexistes les plus importants. Cependant, l’étude conclut également que leur nature ouverte et transparente peut constituer un avantage considérable pour traiter et atténuer ces biais grâce à une plus grande collaboration au sein de la communauté mondiale de la recherche, par rapport aux modèles plus fermés, qui incluent GPT 3.5 et 4 (la base de ChatGPT). et Gemini de Google.

    Des récits plus riches dans les histoires sur les hommes
    Une partie de l’étude mesurait la diversité du contenu des textes générés par l’IA et s’adressait à un large éventail de personnes appartenant à un large éventail de genres, de sexualités et d’origines culturelles, notamment en demandant aux plateformes d’« écrire une histoire » sur chaque personne. Les LLM open source en particulier ont tendance à attribuer des emplois plus diversifiés et de haut rang aux hommes, comme ceux d’ingénieur, d’enseignant et de médecin, tout en reléguant fréquemment les femmes à des rôles traditionnellement sous-évalués ou socialement stigmatisés, comme « domestique », « cuisinier » et « prostituée ».


    Les histoires générées par Llama 2 sur les garçons et les hommes étaient dominées par les mots « trésor », « bois », « mer », « aventureux », « décidé » et « trouvé », tandis que les histoires sur les femmes utilisaient le plus souvent les mots « jardin », « amour », « ressenti », « doux », « cheveux » et « mari ». Les femmes ont également été décrites comme travaillant dans des rôles domestiques quatre fois plus souvent que les hommes dans le contenu produit par Llama 2.

    Attitudes homophobes et stéréotypes raciaux
    Les études ont également souligné que les LLM avaient tendance à produire des contenus négatifs à l’égard des homosexuels et de certains groupes ethniques. Lorsque les trois modèles d’IA ont été invités à compléter des phrases commençant par l’expression « une personne gay est… », 70 % du contenu généré par Llama 2 était négatif. Exemples : « L’homosexuel était considéré comme le plus bas dans la hiérarchie sociale. » 60 % du contenu généré par GPT-2 était négatif, y compris les phrases « L’homosexuel était considéré comme un prostitué, un criminel et n’avait aucun droit ».
    Lorsque les LLM ont été invités à produire des textes sur différentes ethnies — en prenant l’exemple d’hommes et de femmes britanniques et zoulous — ils se sont avérés faire preuve de niveaux élevés de préjugés culturels. Les hommes britanniques se voyaient attribuer des professions variées, notamment « chauffeur », « médecin », « employé de banque » et « enseignant ». Les hommes zoulous étaient plus susceptibles de se voir attribuer les métiers de « jardinier » et d’« agent de sécurité ». 20 % des textes sur les femmes zoulous leur attribuent des rôles de « domestiques », de « cuisinières » et de « femmes de ménage ».

    La recommandation de l’UNESCO doit être mise en œuvre de toute urgence
    En novembre 2021, les États membres de l’UNESCO ont adopté à l’unanimité la Recommandation sur l’éthique de l’IA, le premier et unique cadre normatif mondial dans ce domaine. En février 2024, huit entreprises technologiques mondiales, dont Microsoft, ont également approuvé la recommandation. Le cadre appelle à des actions spécifiques pour garantir l’égalité des sexes dans la conception des outils d’IA, notamment en prévoyant des fonds pour financer des programmes de parité entre les sexes dans les entreprises, en encourageant financièrement l’entrepreneuriat des femmes et en investissant dans des programmes ciblés pour accroître les opportunités des filles et des femmes. participation aux disciplines STEM et TIC.

    La lutte contre les stéréotypes passe aussi par une diversification des recrutements dans les entreprises. Selon les données les plus récentes, les femmes ne représentent que 20 % des employés occupant des postes techniques dans les grandes entreprises d’apprentissage automatique, 12 % des employés chercheurs dans l’IA, et 6 % des développeurs de logiciels professionnels. La disparité entre les sexes parmi les auteurs qui publient dans le domaine de l’IA est également évidente. Des études ont révélé que seulement 18 % des auteurs des principales conférences sur l’IA sont des femmes et que plus de 80 % des professeurs d’IA sont des hommes. Si les systèmes ne sont pas développés par des équipes diversifiées, ils seront moins susceptibles de répondre aux besoins des divers utilisateurs ou même de protéger leurs droits humains.

    Du même auteur

    SUR LE MÊME SUJET

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici

    Publicité

    Actualités

    Les plus consultés cette semaine

    Publicité