Dans un article polémique publié récemment dans le Journal of Personality and Social Psychology, Michal Kosinski et Yilun Wang affirment que l’homosexualité peut se détecter sur le visage. Les deux chercheurs de l’Université Stanford assurent avoir conçu un programme d’intelligence artificielle capable de déterminer si une personne est homosexuelle ou non, avec 81% de réussite pour les hommes et 74% pour les femmes (des chiffres qui grimpent respectivement à 91% et 83% quand cinq photos de la personne sont évaluées par le programme). Les humains ont, quant à eux, obtenu de moins bons résultats.
«Notre étude prouve qu’il y a plus d’informations sur l’orientation sexuelle contenues sur le visage que ce que le cerveau humain peut percevoir et interpréter», considèrent les chercheurs. «Les homosexuels et les lesbiennes tendent à avoir des morphologies, des expressions et des apparences faciales atypiques pour leur genre.» Et les chercheurs de soutenir que les différences ne s’arrêtent pas à la morphologie du visage: «Les hommes gais sont moins barbus et les lesbiennes ont tendance à porter moins de maquillage et à porter des vêtements moins décolletés.»
Pour arriver à ces conclusions, cette intelligence artificielle s’est «entraînée». La machine a, par elle-même, «appris» à distinguer les hétérosexuels des homosexuels (avoués) à partir de ses propres observations, sur plus de 35 000 photos d’hommes et de femmes hétérosexuels et homosexuels, issues d’un site de rencontres américain.
Ce travail présente toutefois des limites importantes. Bien que le programme réussisse quand on lui présente deux personnes, dont l’une est homosexuelle et l’autre hétérosexuelle, les deux chercheurs reconnaissent en revanche, que les résultats sont beaucoup moins concluants quand on demande au programme d’identifier les 70 à 100 personnes homosexuelles dans un échantillon de 1 000 personnes. Qui plus est, l’intelligence artificielle a été entraînée à partir d’images issues d’une population très homogène de jeunes Américains blancs. Et à partir de photos qui ne sont pas neutres. Sur un site de rencontres, les photos sont soigneusement sélectionnées – et souvent retravaillées grâce à divers logiciels –, afin de renvoyer l’image souhaitée pour séduire, quitte à exagérer certaines caractéristiques physiques ou au contraire, les dissimuler. Comme le soulignent ses détracteurs, l’étude ignore la bisexualité ou la sexualité fluide et est fondée sur une vision binaire des orientations sexuelles: soit t’es gai/lesbienne, soit tu ne l’es pas.
Évidemment, l’article a provoqué beaucoup de discussions sur les réseaux sociaux, relançant le vieux débat sur l’homosexualité innée ou acquise, et s’est attiré la colère de plusieurs organisations de défense des droits des LGBT qui ont dénoncé le travail de recherche à leurs yeux «biaisé et dangereux». Certaines critiques sont allées jusqu’à dire que ce travail menaçait la sécurité et la vie privée des personnes (LGBT ou non). Et, quand on s’y arrête, ils n’ont pas tort. Imaginez les conséquences possibles si cette recherche était utilisée pour soutenir les efforts d’un régime ou d’un groupe dont la volonté serait d’identifier et de persécuter les gais et les lesbiennes ou n’importe quelle minorité.
Avec les progrès de la vision par ordinateur, on assiste, ces dernières années, à un retour des sciences qui proposent de connaître les hommes et les femmes par l’étude de la conformation de leur corps, de leur visage. Des théories qui ont permis de justifier des choses horribles par le passé, comme l’esclavage aux États-Unis, ou le génocide des juifs.
Alors que des start-ups aujourd’hui font de l’argent en se basant sur ce principe, il est inquiétant que ces théories du passé ressurgissent associées aux technologies, au moment même où l’on assiste à un retour des autoritarismes. Vous trouvez cela exagéré? Rappelons qu’un des axes de recherche de Michal Kosinski, qui consiste à définir la personnalité d’un utilisateur de Facebook à partir de ses «Like», a été utilisé pour bâtir la start-up Cambridge Analytica, qui soutient avoir réussi à influencer les électeurs américains en faveur de Donald Trump en tenant compte de 5 000 points de référence sur 230 millions d’Américains. La technologie du Big Data ne serait-elle pas plus utile pour la lutte contre les discriminations? Sans doute est-ce utopique…
Tom Cruise dans le film Minority Report, de Steven Spielberg, avait le pouvoir de «prévenir» les crimes avant qu’ils ne soient commis. Ce qui n’est pas mauvais en théorie… Jusqu’à ce que le personnage de Cruise soit lui-même accusé de façon préventive contre un crime qu’il allait supposément commettre. En fait, il s’agissait d’un piège monté par son supérieur pour cacher son propre crime.
Les auteurs de l’étude ont tout de même réagi aux critiques, expliquant avoir été eux-mêmes «vraiment troublés» par les résultats de leurs recherches. «Très franchement, nous serions ravis si nos résultats étaient faux. L’humanité aurait un problème de moins» disent-il, en assurant avoir «passé beaucoup de temps à réfléchir» avant de décider s’il fallait ou non publier les résultats de l’étude. «Nous pensons qu’il y a urgence à ce que nos législateurs et les communautés LGBTQ soient mis au courant des risques auxquels elles font face. Les entreprises techno et les gouvernements sont tout à fait conscients du potentiel des outils de vision par ordinateur, mais pas toujours des dérives possibles. Nous pensons que les gens doivent connaître ces risques afin qu’ils puissent prendre des mesures préventives.»
Quand la technologie risque d’être utilisée comme une manière de contrôler ses minorités ou d’imposer une idéologie, il faut s’inquiéter… Vigilants, il est plus que jamais essentiel que nous le soyons.