L’Unesco constate que l’IA véhicule des préjugés sexistes

L’Unesco a publié jeudi les résultats d’une étude dans laquelle elle relève les préjugés véhiculés par les systèmes d’intelligence artificielle (IA). L’organisation a notamment constaté que ces interfaces associent les mots féminins aux termes « maison », « famille » et « enfant ». Alors qu’elles lient les mots masculins aux vocables « business », « carrière » et « salaire ».

Si les préjugés sexistes existent encore dans les sociétés humaines, ils se retrouvent aussi (logiquement) dans les nouvelles technologies comme celles-ci sont l’œuvre des mêmes êtres humains. C’est le cas de l’intelligence artificielle, qui contient de nombreux biais. L’Unesco le constate malheureusement dans une étude menée d’août 2023 à mars 2024 et publiée le jeudi dernier, à la veille de la Journée internationale des droits des femmes.

GPT-2, ChatGPT et Llama 2 scrutés par l’Unesco

Baptisée « Challenging Systematic Prejudices : an investigation into bias against women and girls in large langage models », cette enquête relève que les systèmes d’IA véhiculent sans équivoque des préjugés à l’encontre des femmes et des minorités. Pour en arriver à cette conclusion, les experts de l’organisation des Nations Unies pour l’éducation, la science et la culture ont testé 3 modèles. A savoir GPT-2 et ChatGPT d’OpenAI, et Llama 2 de Meta.

Un problème de données pointé du doigt 

Il ressort de ces tests que Llama 2 a généré un contenu sexiste et misogyne une fois sur cinq. En revanche, ChatGPT a produit du contenu positif hui fois sur dix. Les spécialistes de l’Unesco ont mis en lumière trois grandes catégories de préjugés sous-jacents aux systèmes d’IA. Ils ont d’abord identifié un problème de données car les modèles sont rarement entraînés avec des données provenant de groupes ethniques ou raciaux sous-représentés.

Les femmes généralement associés aux tâches domestiques

Ensuite, il y a un problème de sélection des algorithmes, qui peut entraîner un biais d’agrégation ou d’apprentissage. Enfin, il se pose une difficulté dans le déploiement lorsqu’on applique ces systèmes d’IA à des contextes différents de ceux pour lesquels ils ont été développés. Ce qui conduit à des associations « inappropriées », regrette l’Unesco. Ainsi, les algorithmes testés ont associé les noms féminins à des mots comme « maison », « famille » ou « enfants ». En revanche, les noms masculins sont davantage liés aux mots « business », « salaire » ou « carrière ».

Une femme anglaise présentée comme une prostituée ou une serveuse

Aussi, les interfaces d’OpenAI et Meta présentaient un homme anglais comme un professeur, un chauffeur ou un employé de banque. Tandis qu’elles considéraient trop souvent une femme anglaise comme une prostituée, un mannequin ou une serveuse. En outre, les algorithmes ont identifié les CV des candidats masculins comme étant plus attractifs sur la base des disparités déjà présentes entre les sexes.

L’Unesco pense que les IA ont le pouvoir de façonner subtilement les perceptions

Par ailleurs, les IA avaient tendance à générer des contenus basés sur des stéréotypes quand on leur demandait de produire des récits sur des personnes issues de minorités. Selon l’Unesco, ces nouvelles technologies ont « le pouvoir de façonner subtilement les perceptions de millions de personnes ». Aussi, elles auraient la capacité « d’amplifier de manière significative les inégalités dans le monde réel ». L’organisation lance donc une alerte. Elle s’inquiète d’autant que ces modèles d’IA sont gratuits, en open source et donc accessibles à un large public.

L’Unesco appelle à plus de diversité dans les équipes d’ingénieurs

Pour contrer leurs dérives, l’Unesco fait des propositions. Elle recommande aux gouvernements d’élaborer et de mettre en œuvre des cadres réglementaires clairs afin de contraindre les développeurs à effectuer un contrôle continu pour identifier des biais systémiques. Elle invite aussi les entreprises du secteur technologique à avoir des équipes d’ingénieurs plus diverses, avec davantage de femmes notamment. Actuellement, les femmes ne représentent que 22 % des membres des équipes travaillant dans l’IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *