Les assistants vocaux jugés sexistes par l’Unesco

Ce rapport a été réalisé en collaboration avec le ministère allemand de la Coopération économique et la coalition Equals Skill[Grant HINDSLEY / AFP]

Voix féminine par défaut, «personnalité docile»... Un rapport de l'Unesco publié vendredi reproche aux assistants vocaux numériques de véhiculer des «préjugés sexistes» et recommande à leurs développeurs d'intégrer un plus grand nombre de femmes à leurs équipes.

«La soumission et la servilité exprimées par tant d'assistantes vocales» sont «une illustration du préjugé sexiste véhiculé par les produits faisant appel à l'intelligence artificielle», estime l'Unesco dans son étude.

Ce rapport a été réalisé en collaboration avec le ministère allemand de la Coopération économique et la coalition Equals Skills, regroupement de gouvernements et d'organisations internationales promouvant l'équilibre entre les genres dans le secteur de la technologie.

Il porte notamment sur les assistants vocaux développés par Amazon (Alexa), Apple (Siri), Google (Google Assistant) et Microsoft (Cortana), qui représentent dans de nombreux pays environ «90% du marché». 

«Je rougirais si je le pouvais»

Selon l'Unesco, le rapport «I'd blush if I could» (Je rougirais si je le pouvais, NDLR) tire son titre de la réponse donnée pendant plusieurs années - mais rectifiée en avril dernier - par l'assistant vocal Siri, lorsque l'utilisateur lui adressait des insultes.

Les auteurs de l'étude constatent que la plupart des assistants vocaux sont dotés par défaut de noms et voix de femmes ainsi que d'une «personnalité docile».

«Les machines obéissantes et serviles qui se présentent comme des femmes entrent dans nos maisons, nos voitures et nos bureaux», souligne Saniye Gülser Corat, directrice de la division sur l'égalité des genres à l'Unesco, citée dans le rapport. Or «leur asservissement programmé influe sur la façon dont les hommes s'adressent aux voix féminines et façonnent la manière dont les femmes réagissent aux demandes et s'expriment».

Entre autres impacts négatifs sur les représentations des femmes, le rapport pointe «un modèle d'acceptation et de tolérance du harcèlement sexuel et de la violence verbale» ou encore la façon dont les assistants vocaux «ont des femmes le ‘visage’ des défauts et des erreurs résultant des limitations du matériel et des logiciels conçus principalement par des hommes».

Ces «stéréotypes» trouvent leur «origine dans l'inégalité des sexes en matière d'éducation et dans le secteur technologique», selon l'étude, qui précise que les femmes ne représentent que 12% des chercheurs dans le domaine de l'intelligence artificielle et 6% des développeurs de logiciels.

À suivre aussi

Ailleurs sur le web

Derniers articles