Tribune – En 2014, Amazon appelait son service vocal Alexa. Les autres Gafa ont suivi le mouvement : Siri d’Apple, Cortana de Microsoft et l’assistant Google sont tous programmés par défaut sur une voix féminine. Autant de révélateurs de la transcription des stéréotypes sexistes dans les nouvelles technologies. Par Tara O’Sullivan, Chief Marketing Officer et responsable du programme “Women in Action” chez Skillsoft.
On entend souvent que les personnes, hommes comme femmes interagiraient mieux face à une voix féminine, et ce simple préjugé a motivé le choix de GAFA et bien d’autres acteurs. Cela pose la question : est-ce naturel ou s’agit-il de normes culturelles ?
Historiquement, les opérateurs téléphoniques, hôtes de caisse et secrétaires sont majoritairement des femmes. Aujourd’hui, cette norme implicite s’étend dans le choix d’une voix féminine lors de la création des machines, synonyme pour beaucoup d’une voix apaisante, docile et agréable. En réalité, la féminisation de assistants vocaux renforce les stéréotypes sexistes préexistants.
Certains diront que la voix d’une femme n’est pas seulement plus agréable à écouter mais aussi plus simple à comprendre. Cette idée reçue, remonte à l’utilisation d’une voix féminine pour le système de navigation dans les cockpits des avions de chasse durant la seconde guerre mondiale, car la voix féminine était censée davantage se distinguer des bruits de moteurs des avions. Or, en 1998, une étude de la base aérienne de Wright-Patterson, dans l’Ohio, a révélé que la voix féminine était moins intelligible face aux bruits dans les cockpits.
Ces mythes découlent de la place différente des hommes et des femmes dans la société, qui ne se limite pas simplement à l’univers des nouvelles technologies.
Des mythes et préjugés à l’impact fort
On retrouve majoritairement des hommes, le plus souvent blancs, à l’origine des nouvelles technologies. Or lorsque ces mêmes hommes programment des machines reposant sur l’intelligence artificielle, par exemple pour un chatbot, celles-ci vont automatiquement être dépositaire des préjugés qui font partie de l’inconscient des développeurs. Les codeurs vont involontairement retranscrire leurs préjugés dans l’écriture des lignes de code.
Qu’il s’agisse de préjugés liés au sexe, à l’ethnie ou à la classe sociale, ces algorithmes, prévus pour refléter parfaitement les décisions prises par des humains, seront influencés par les idées reçues de leurs créateurs. Ce phénomène peut amplifier des stéréotypes déjà existants mais également transposer des stéréotypes généraux dans le milieu professionnel.
En effet, les programmes apprennent à partir de masses de données agrégées. Si ces données comportent des stéréotypes sexistes, ces derniers feront partie de l’algorithme et c’est ainsi que des programmes peuvent avoir des comportements choquants. L’hétérogénéité des développeurs et la sous-représentation des femmes et des autres minorités est « l’un des défis les plus critique et prioritaires pour l’informatique et l’IA », comme le souligne Erika Hayasaki, professeure à l’université de Californie.
La place des femmes dans le secteur scientifique et technologique
Les stéréotypes et idées reçues sont d’autant plus puissants que le manque de femmes travaillant dans le secteur, « programmant » la vie de demain, est palpable. Mme Hayasaki l’explique ainsi : « nous manquons de données et d’élément concernant l’IA, notamment parce que seule une partie de la population est impliquée dans la pratique de l’IA… De plus, de par sa conception, nous remarquons qu’il est possible que ces objets issus de l’IA intègrent et perpétuent les stéréotypes. »
En effet, le secteur des nouvelles technologies compte trop peu de femmes :
– En France, les femmes représentent 27 % des effectifs totaux de développeurs et 11 % des effectifs dans les métiers de la cyber sécurité (sources CIFREF) ;
– 21 % des développeurs sont des femmes, en ligne avec les 20 % de femmes que compte Google parmi ses effectifs dédiés aux technologies
– Les femmes sont moins de 10 % à diriger des entreprises numériques, et moins de 27 % dans les postes à responsabilités.
Vers une évolution ?
Il faut d’abord faire prendre conscience de l’impact des préjugés, conscients et inconscients, sur l’intelligence artificielle. Pour cela, les programmes doivent être capables de reconnaitre et corriger les préjugés insérés dans leurs lignes de codes et les données avec lesquelles les a nourris. Ensuite, il faut former les codeurs à reconnaitre leurs propres préjugés afin qu’ils ne les perpétuent pas à travers leurs logiciels.
Aujourd’hui, seulement 6,7 % des femmes poursuivent leur carrière dans le secteur des nouvelles technologies. Il est important de les soutenir afin d’en attirer davantage et de démontrer leur capacité à travailler et réussir dans ces métiers.
L’auteur
Tara O’Sullivan est Chief Marketing Officer et responsable du programme “Women in Action” chez Skillsoft