Dico du futur de l'intelligence (et la bêtise) artificielle : SAPIA
SAPIA : Sexisme assisté par Intelligence artificielle
Cette semaine, esbrouf’Man (alias Elon Musk) a annoncé que l’intelligence artificielle sera plus intelligente que l’ensemble des humains d’ici 2029. Yann LeCun, directeur du laboratoire d’IA de Meta, a répondu : « Si c’était le cas, nous aurions des systèmes d’IA capables d’apprendre à conduire une voiture en 20 heures de pratique, comme n’importe quel jeune de 17 ans. » J’ai envie de mettre mon grain de sel dans le débat en ajoutant : « Si c’était le cas, les intelligences artificielles n’auraient pas des pratiques discriminatoires et en particulier sexistes. » Comme vous allez le découvrir avec le quatrième mot du Dico du futur de l’intelligence (et la bêtise) artificielle (sortie en novembre 2024), ce n’est pas gagné.
Les intelligences artificielles sont-elles sexistes ?
La réponse est simple. C’est non. Même si elles sont de plus en plus sophistiquées, les intelligences artificielles sont des outils. De ce fait, elles ne jugent pas et n’ont ni croyances ni préjugés.
En revanche, elles peuvent avoir des pratiques discriminantes.
Quelques exemples en témoignent.
Elles créent des discriminations à l’emploi
Il y a quelques années, Amazon a été accusée de privilégier les profils masculins aux postes de direction. L’intelligence artificielle chargée du recrutement était entrainée avec les embauches précédentes. Comme l’entreprise recrutait en priorité des hommes à ces postes, la machine a fait de même.
Les services de l’emploi autrichiens proposent un agent conversationnel utilisant la technologie de ChatGPT pour orienter les chômeurs et les étudiants. Avec le même CV, le bot propose aux candidats masculins de postuler dans le domaine de l’informatique, l’ingénierie industrielle ou les affaires internationales. Il conseille aux femmes de se tourner vers le tourisme, l’hôtellerie et la restauration, la psychologie des affaires ou la philosophie !
Des associations de femmes ont porté plainte contre les discriminations sexistes opérées par les algorithmes publicitaires de Facebook. Elles ont publié sur le réseau social des publicités pour des offres d’emploi de secrétaire, pilote de ligne, auxiliaire de petite enfance, psychologue et responsable d’une structure informatique. L’annonce du poste de secrétaire a été diffusée à des femmes dans 92 % des cas, et celle de pilote de ligne à des hommes dans 85 % des cas !
Elles proposent des revenus moindres aux femmes
Des modèles algorithmiques calculent les revenus des collaborateurs. Chez Uber, les femmes sont payées en moyenne 7 % de moins que les hommes pour le même service !
En 2019, David Heinemeier Hansson et sa femme ont souscrit à la carte de crédit Apple. Alors qu’ils déclarent conjointement leurs impôts et sont mariés sous la communauté des biens, le Danois s’est vu proposer une limite de crédit 20 fois plus élevée que sa femme.
Elles dévalorisent l’image de la femme
Si l’on tape « PDG » sur Midjourney, le logiciel génère des dizaines de photos d’hommes blancs en costume assis à leur bureau. Si l’on indique « secrétaire », l’intelligence artificielle propose un panel de jeunes femmes sexy avec une poitrine mise en valeur par un chemisier près du corps.
Deeple, un logiciel de traduction de référence, traduit « They are programmers » par «Ils sont programmeurs » et « They are nurses » par « Elles sont infirmières ».
Les IA permettant de recréer une image existante afin que la personne apparaisse nue connaissent un succès fulgurant. La plupart du temps, ce traitement fonctionne uniquement sur les femmes…
L’essor du porno généré par l’IA répand l’utilisation de l’image d’une femme sans son consentement.
Ces exemples se multipliant, l’UNESCO conclut, dans une étude datée du 7 mars 2024, que l’intelligence artificielle amplifie les stéréotypes sexistes.
D’où vient ce sexisme ?
L’IA reproduit l’existant. La société étant raciste et sexiste. Elle l’est aussi. Le problème, c’est qu’elle renforce ces discriminations en étant perçue comme objective.
Ce biais vient des données…
Les logiciels d’intelligence artificielle générative sont entraînés à partir de gigantesques quantités de données disponibles en ligne : des articles de presse, de blogs, des rapports, des pages Wikipédia, des études scientifiques, des films, des livres, des photos et vidéos… Dans cette masse d’informations, les hommes blancs sont les patrons et les femmes noires assistent les handicapés.
Pour les IA de recrutement, le principe est le même. L’IA n’ayant qu’aucun état d’âme ni de conscience, elle reproduit la suprématie masculine. Sa logique est profondément réactionnaire.
Les corpus de données existantes sont aussi le reflet des préjugés de la société. Les données médicales contiennent plus d’informations sur les maladies masculines que sur les maladies féminines. Les diagnostics sont donc moins précis pour les femmes.
Il est difficile de construire une IA qui intègre les violences faites aux femmes vu que seuls 41 % des pays produisent régulièrement des statistiques sur le sujet…
Des algorithmes…
L’algorithme est la recette de cuisine des données. On va prendre 300 g de tel paquet de données, 500 g de l’autre, les mélanger, ajouter un autre paquet de données… En fonction de l’idiosyncrasie du concepteur, la recette diffère pour un même objectif.
Le problème est que dans le domaine du développement informatique les femmes sont peu nombreuses. À cause de cette sous-représentation, un algorithme d’évaluation des compétences pourra par exemple attribuer une pondération plus élevée à des qualités perçues comme masculines, telles que l’assertivité, au détriment des qualités perçues comme féminines, comme l’empathie.
Les contrôles des résultats de ces IA sont aussi effectués par des hommes.
Joy Buolamwini, une doctorante du MIT a constaté que plusieurs algorithmes de reconnaissance faciale fonctionnent bien sur les hommes blancs. En revanche, ils n’identifient pas des femmes noires comme elles.
Comment faire pour éliminer le « sapIAsme » ?
Prendre conscience et traquer le sexisme numérique
Signaler toutes les dérives sexistes et plus largement discriminatoires des intelligences artificielles.
Aider les plus jeunes et les néophytes du numérique à les repérer
Tous les utilisateurs des intelligences artificielles doivent être vigilants et ne plus considérer que l’intelligence artificielle est un outil, donc neutre. Comme pour le marteau, il y a quelqu’un qui tient le manche. En l’occurrence ce sont les hommes.
Créer des recours
Des chercheurs de l’université d’Oxford (Royaume-Uni) défendent la mise en place d’une autorité chargée d’auditer ces algorithmes et d’enquêter quand un citoyen s’estime victime de discrimination de la part de l’algorithme.
L’Union européenne travaille sur un droit à l’explication, qui imposerait aux entreprises utilisant ces programmes d’être capables d’expliquer les décisions qu’ils prennent aux personnes concernées.
Diversifier les équipes de développeurs
Faisons le ménage dans les esprits en supprimant l’image du développeur noctambule asocial et mangeur de pizza. Cela permettra à de nombreuses femmes de choisir ce travail et l’enrichir avec leurs visions différentes.
Quelques désapIAttes…
Ou les produits et services intelligents favorisant l’égalité des sexes.
DiscrIAnotron
Permis à points de discrimination
Grâce aux capteurs sémantiques, le discrIAnotron identifie les phrases, attitudes et décisions discriminantes. Elle calcule ce potentiel d’exclusion qui aboutit aujourd’hui à ce que 80 % des femmes considèrent être victimes d’attitudes ou de décisions sexistes dans leur entreprise. Des points sont défalqués à l’auteur de discriminations. Quand son discrIAnotron est à zéro, il peut récupérer des points en vivant la vie d’une infirmière, mère de plusieurs enfants en bas âge !
Stopleboulo
IA déclenchant le blocage des ordinateurs et téléphones utilisés par les collaboratrices lorsqu’elles ont travaillé pour un équivalent salaire des hommes.
La différence de salaires entre les hommes et les femmes étant de 15 % selon Eurostat, l’organisme de statistiques de l’Union européenne, le stopleboulo intervient le 7 novembre. Si les femmes choisissent de pratiquer un stopleboulo mensuel, elles ne travaillent que deux jours, la dernière semaine du mois. Les footballeuses professionnelles étant dix fois moins payées que les footballeurs, elles arrêtent le match à la neuvième minute. Les réalisatrices étant payées 42 % de moins que leurs homologues masculins devraient arrêter la diffusion de leur film à un peu plus de la moitié.
Courdefoot
Repérage des situations où les hommes jouent un rôle central et les femmes sont spectatrices.
Dans la majorité des cours de récréation, l’espace central est occupé par un terrain de football où les garçons jouent. Autour de ce terrain, les filles ont un espace réduit pour regarder les garçons jouer. Dans l’entreprise, le schéma se reproduit. Les postes centraux sont occupés par des hommes : dans les 100 plus grandes sociétés européennes, les comités exécutifs sont composés à 89 % d’hommes… Courdefoot déclenche des coups de sifflet signalant un arrêt de ce jeu discriminant. Ils sont assez stridents pour étourdir les hommes et leur donner envie de s’éloigner de l’espace central.
Stéréotypeur
Identification des stéréotypes qui empêchent les femmes d’accéder à des postes de direction ou de s’engager dans certaines professions.
Les stéréotypes ont la vie dure. Près d’un tiers des managers (29 %) pensent encore qu’il existe une différence de compétences liée à la génétique. 77 % des managers affirment que le savoir-faire est typiquement masculin alors que le savoir-être est pour eux plutôt une compétence féminine. « Tu ne vas pas t’enfermer derrière un ordinateur. Les filles parlent aux gens, pas aux machines. » Ces stéréotypes freinent l’accès des femmes aux métiers du numérique. Ils se glissent ensuite partout de manière insidieuse pour les empêcher de rester dans la branche. Par exemple, dans tous les jeux vidéos, les personnages féminins ont les seins comme des obus.
Quand il repère un stéréotype, le stéréotypeur projette des informations positives comme : en Malaisie, il y a autant de femmes que d’hommes dans les métiers du numérique. Les métiers ont la cote parce qu’ils ne sont pas salissants et permettent d’avoir des horaires souples.
Actualité des Propulseurs
Nous terminons un projet intitulé 666.
666 est une résidence pour seniors créée en 2050. Six personnages racontent leurs quotidiens, espoirs, agacements à Robert, une IA animateur de radio. Nous avons créé un livre et un jeu de cartes pour mettre de l’humour et de la souplesse dans la réflexion sur le futur du vieillissement. Nous recherchons des partenaires qui auront plaisir à contribuer au lancement. Contactez-nous, nous sommes ouverts à toutes les idées.
Futureusement votre
Anne-Caroline