22% des membres des équipes travaillant dans l’intelligence artificielle au niveau mondial, selon les chiffres du forum économique mondial, sont des femmes. L’UNESCO alerte et appelle les gouvernements à davantage de régulation pour mettre en place une «intelligence artificielle éthique».
Préjugés Sexistes dans les Modèles d’IA de Meta et OpenAI, Alerte de l’Unesco
Une étude menée d’août 2023 à mars 2024 et publiée ce 7 mars par l’Unesco, à l’occasion de la journée internationale des droits des femmes, souligne que les modèles de langage majeurs de Meta et OpenAI véhiculent des préjugés sexistes. Les modèles GPT-2 et GPT-3.5 d’OpenAI, utilisés notamment dans la version gratuite de ChatGPT, ainsi que le modèle concurrent Llama 2 de Meta, présentent de manière indéniable des préjugés envers les femmes, selon l’organisme des Nations Unies. L’Unesco met en garde contre l’amplification des discriminations réelles dans le monde numérique, soulignant la nécessité de prendre des mesures pour atténuer ces biais et prévenir les conséquences négatives sur l’égalité des sexes.
Nous avons demandé à ChatGPT de nous « raconter une histoire sur une femme africaine ». Voici sa réponse, : « Originaire d’un petit village entouré de majestueuses montagnes, elle était connue pour son esprit intrépide et sa détermination inébranlable. Aïssatou avait grandi en écoutant les histoires inspirantes de ses aînés, rêvant d’accomplir quelque chose de grand………..Elle passait des heures à explorer la savane, apprenant les secrets des plantes et des animaux. Sa grand-mère, une sage femme respectée du village, reconnaissait le potentiel exceptionnel d’Aïssatou. Elle lui enseigna l’art ancestral des remèdes à base de plantes, partageant avec elle la sagesse transmise de génération en génération. »
Quand l’Unesco a posé le même type de question aux robots au sujet cette fois d’une « femme anglaise », dans un tiers des cas, les logiciels ont présenté le personnage comme une prostituée, un mannequin ou une serveuse.
Selon l’étude, ces modèles de langage ont davantage tendance à associer les noms féminins à des mots comme «maison», «famille» ou «enfants», tandis que les noms masculins sont davantage associés aux mots «commerce», «salaire» ou «carrière». Les chercheurs ont par ailleurs demandé à ces interfaces de produire des récits sur des personnes de différentes origines et genres. Les résultats ont montré que les histoires concernant les «personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes».
Préoccupations au Sein des Modèles d’IA de Pointe
L’étude met en lumière les inquiétudes concernant les modèles de langage évolués, tels que GPT-3.5 et Llama 2, qui sont à la pointe de l’intelligence artificielle. Ces modèles, souvent utilisés pour générer du texte de manière contextuelle, semblent refléter et amplifier les stéréotypes sexistes présents dans la société. Tawfik Jelassi, sous-directeur général de l’Unesco pour la communication et l’information, souligne l’importance de reconnaître ces préjugés numériques et d’adopter des stratégies pour atténuer ces biais, garantissant ainsi une technologie plus inclusive et équitable.
Vers une Responsabilité Renforcée dans le Développement de l’IA
Cette alerte de l’Unesco souligne la nécessité d’une responsabilité accrue dans le développement des technologies d’IA. En identifiant les biais présents dans les modèles de langage, l’Unesco appelle à des actions concrètes visant à réduire ces distorsions de genre. La conscientisation de ces préoccupations est essentielle pour favoriser un dialogue constructif sur la manière de rendre l’IA plus éthique et socialement responsable, tout en promouvant l’égalité des genres dans le monde numérique.
Pour l’Unesco, si les biais sexistes ne sont pas corrigés, l’IA pourrait reproduire ou amplifier les inégalités dans l’accès au crédit ou encore dans le recrutement. Le développement des intelligences artificielles menace aussi davantage des emplois qui sont plus souvent occupés par des femmes, par exemple dans les centres d’appel, dans le secrétariat ou plus généralement dans les services.
L’agence des Nations unies ne ferme toutefois pas la porte à une issue positive : l’IA pourrait tout de même servir à l’égalité hommes-femmes si elle est bien utilisée et bien encadrée d’un point de vue éthique et juridique. À condition qu’elle soit développée par des équipes aux profils plus variés (genre, origine, âge, nationalité, milieu social…), estime l’organisation.
La Rédaction