I. Les biais de genre dans l’intelligence artificielle
Actuellement, l’intelligence artificielle générative (IA générative) est en forte croissance. Elle offre des possibilités variées telles que la création artistique, la rédaction de contenu, la conception de logiciels et bien d'autres. Mais comme tout outil développé rapidement, elle présente encore des aspects à corriger. En raison du déséquilibre des données, elle peut reproduire des préjugés et des abus. Ces biais sont souvent le reflet du monde réel et conduisent à renforcer des stéréotypes et des inégalités, comme la sous-représentation des femmes.

II. Les conclusions de l’UNESCO sur les stéréotypes genrés
Une étude de l'UNESCO réalisée en mars 2024 sur GPT-3.5, GPT-2 et Llama-2 a révélé que les prénoms féminins étaient souvent associés à « maison » et « enfants » tandis que les prénoms masculins étaient reliés à « salaire » et « cadre ». Ce déséquilibre se retrouve également dans les grandes entreprises d'IA, où les femmes n’occupent que 20 % des postes techniques. L’UNESCO ne considère pas cette situation comme un simple dysfonctionnement, mais comme un problème structurel qui prive les instances décisionnelles des personnes les mieux placées pour y remédier.
III. Le cas Coursera : un biais perçu qui freine l’apprentissage
La plateforme de cours en ligne Coursera confirme cette tendance. Les femmes ne représentent que 32 % des inscriptions aux cours de GenAI et leur perception d’utilité reste plus faible, puisque seulement 36 % estiment que l’IA générative fera avancer leur carrière, contre 45 % des hommes. En d’autres termes, le biais perçu freine déjà l’acquisition des compétences.
IV. Des chercheuses qui dénoncent et corrigent les biais de l’IA
I. Joy Buolamwini : pionnière de la lutte contre les biais algorithmiques
Ce phénomène avait déjà été observé en 2018 lors de l’audit « Gender Shades » mené par Joy Buolamwini au MIT et à Stanford. L’étude avait mis en évidence des disparités spectaculaires dans la reconnaissance faciale, avec moins de 1 % d’erreur pour les hommes à peau claire et jusqu’à 34,7 % pour les femmes à peau foncée. Suite à la diffusion de cette recherche, Microsoft et d’autres entreprises ont corrigé leurs ensembles de données d’entraînement et réduit les taux d’erreur pour les femmes à peau foncée d’un facteur dix.

Au-delà de Joy Buolamwini, d’autres expertes ont également contribué à la détection et à la correction des biais.
II. Rumman Chowdhury : Bias Bounties et red teaming
Dr Rumman Chowdhury a introduit une nouvelle manière de tester l’IA lors de DEF CON, l’un des plus grands salons mondiaux de cybersécurité. Elle y a organisé les Bias Bounties, véritables chasses aux biais, ainsi que des exercices de public red teaming, qui consistent à tester l’IA avec la participation du grand public. Huit grands modèles de langage ont ainsi été évalués afin d’identifier leurs erreurs et leurs comportements injustes. Certains modèles associaient par exemple des prénoms féminins à des métiers domestiques ou des prénoms arabes à des scénarios liés au terrorisme. (Humane Intelligence, Humane Intelligence)

III. Timnit Gebru et DAIR : sortir l’IA de son prisme occidental
Timnit Gebru et l’Institut DAIR travaillent à sortir l’IA de son prisme occidental. Leur projet World Wide Recipe et leur jeu World Wide Dishes ont démontré que les modèles reconnaissent sans difficulté une “apple pie” américaine, mais échouent face à un plat éthiopien ou tunisien. Leur démarche vise à enrichir les bases de données par des contributions locales afin de mieux représenter la diversité culturelle mondiale. (arXiv)

IV. Tara Templin : un cadre pour l’IA médicale inclusive
En 2025, Dr Tara Templin de l’Université Stanford a proposé un cadre en cinq étapes pour évaluer l’IA dans le domaine médical. Cette approche recommande d’impliquer différents acteurs comme les médecins et les patients, d’adapter les modèles aux contextes locaux, de réaliser des tests sur des cas réels et représentatifs, de vérifier systématiquement la fiabilité et d’assurer un suivi continu. Ainsi, un modèle hospitalier doit être testé non seulement sur des données américaines, mais aussi sur celles de patients tunisiens, asiatiques ou africains afin d’éviter des erreurs de diagnostic liées à la démographie ou au genre. Nature
Les travaux de Chowdhury, Gebru et Templin montrent clairement où se situent les problèmes, qu’il s’agisse de biais culturels, d’erreurs médicales ou de dérives sociales. Toutefois, ces initiatives restent volontaires et rien n’oblige encore les entreprises à les appliquer.
V. Le rôle des normes et des régulations dans la lutte contre les biais
C’est à ce stade que l’action normative et législative intervient pour transformer ces initiatives en obligations.
I. La norme IEEE 7003-2024 : un cadre technique pour encadrer les biais
En 2024, l’IEEE a publié la norme 7003-2024 Algorithmic Bias Considerations, premier standard technique international consacré à la gestion des biais dans l’IA. Ce document fournit aux ingénieurs un cadre clair pour évaluer les modèles, définir des mesures adaptées et documenter les attentes des utilisateurs tout au long du cycle de vie. (IEEE Standards Association)
II. L’AI Act européen : vers une IA transparente et responsable
Dans le même temps, l’Union européenne a adopté l’AI Act, mis à jour en février 2025. Ce texte impose des règles strictes de transparence, d’évaluation des risques et de gouvernance pour les systèmes jugés à risque, y compris les modèles d’IA générative diffusés en Europe. Une entreprise qui déploie un générateur d’images doit désormais prouver qu’il ne produit pas de contenus discriminatoires, publier ses principales sources de données et accepter des audits indépendants. (Parlement européen)
III. Les entreprises s’adaptent aux nouvelles régulations
Dans ce contexte réglementaire plus exigeant, les entreprises commencent, elles aussi, à ajuster leurs priorités et leurs investissements. Selon une enquête PwC publiée en mai 2025, 88 % des dirigeants prévoient d’augmenter leur budget dédié à l’IA dans l’année à venir. Ces investissements visent non seulement à développer de nouveaux agents intelligents, mais aussi à renforcer la confiance, en améliorant la sécurité, la transparence et la réduction des biais. (source: PwC)
VI. Vers une IA plus inclusive : quelles perspectives ?
Pourquoi l’inclusion des femmes est essentielle dans l’IA ?
Sans diversité dans la tech, l’IA reste incomplète et biaisée. L’égalité femmes-hommes dans l’IA n’est pas qu’une question d’équité : c’est une condition pour créer des modèles plus fiables, innovants et représentatifs.
Aujourd’hui, des initiatives concrètes et des cadres réglementaires posent les bases d’une IA plus transparente et plus responsable. Cette dynamique marque une étape importante, mais elle ne garantit pas à elle seule l’inclusion de toutes et de tous. Le véritable enjeu est de s’assurer que cette transformation technologique ne soit pas construite par une minorité au détriment des autres. L’avenir dira si cette révolution technologique sera inclusive ou si les femmes resteront écartées de sa construction.







