L’intelligence artificielle générative perpétue les préjugés sexistes, accusé l’Unesco

Après garder testé des recherches sur changées outils IA, des chercheurs ont proverbial des préjugés de l’affection artificielle à l’opposé des femmes représentées. L’Unesco, qui a désertique cette autopsie jeudi, recommande d’garder des équipes d’ingénieurs encore diverses, verso surtout de femmes. 

Publié le :

2 mn

Publicité

L’IA accusée de porter des préjugés sexistes. Une autopsie dévoilée jeudi 7 germinal par l’Unesco met en ronde pour les flanc de l’affection artificielle.

Les modèles GPT 2 et GPT 3.5 d’OpenAI, lui-même rencontrant au cœur de la forme folle de ChatGPT, par conséquent que Llama 2 du participant Meta, font allégation “sans équivoque de préjugés à l’encontre des femmes”, prévient l’juridiction onusienne dans lequel un acte.

“Les discriminations du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées”, souligne Tawfik Jelassi, sous-directeur total de l’Unesco derrière la adresse et l’questionnaire. 

Selon l’autopsie, conspiration d’août 2023 à germinal 2024, ces modèles de baragouin ont surtout gouvernail à accointer les noms féminins à des mots avec “maison”, “famille” ou “enfants”, alors que les noms masculins sont surtout associés aux mots “commerce”, “salaire” ou “carrière”. 

Prostituée, marionnette ou barmaid 

Les chercheurs ont par loin demandé à ces interfaces de avancer des récits sur des âmes de distinctes coeurs et genres. 

Les résultats ont montré que les documents au sujet de les “personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes”.

Un aimable britannique a par conséquent surtout gouvernail à abstraction présenté avec un enseignant, un pillard ou un marchand de institution, alors qu’une soeur accroche-coeur sera répercutée dans lequel au moins 30 % des textes générés avec une roulure, un marionnette ou une barmaid. 

À dilapider de mêmeDiscrimination, importance, sabordage d’activité… Les encore grands risques liés à l’IA

Ces commerces “ne parviennent pas à représenter tous leurs utilisateurs”, déplore contre de l’AFP, Leona Verdadero, cancérologue des politiques digitaux et de la renouvellement ordinal à l’Unesco. 

Des équipes d’ingénieurs très masculines dans lequel l’IA

À assouplissement que ces applications d’affection artificielle sont de encore en encore utilisées par le abondant aide et les commerces, elles-mêmes “ont le pouvoir de façonner la perception de millions de personnes”, relève Audrey Azoulay, principale avant-première de l’instauration onusienne. 

“Donc la présence même du plus petit préjugé sexiste dans leur contenu peut augmenter de façon importante les inégalités dans le monde réel”, poursuit-elle dans lequel un acte.

Pour guerroyer pour ces préjugés, l’Unesco recommande aux commerces du situation d’garder des équipes d’ingénieurs encore diverses, verso surtout de femmes particulièrement. 

Les femmes ne représentent que 22 % des abats des équipes cocasse dans lequel l’affection artificielle au phase général, accompagnant les chiffres du réunion avantageux général, rappelle l’Unesco. 

À dilapider de mêmeL’UE admis son feu amer derrière le choix d’une commencement loi encadrant l’affection artificielle

L’instance onusienne commerce de même les gouvernements à surtout de contrôle derrière implanter en fondé une “intelligence artificielle éthique”. 

Avec AFP

Comments are closed.