Par Mobbie Nazir, Directrice de la Stratégie du Groupe We Are Social.

Une autre femme a emménagé à la maison, du moins c’est ce que pense mon copain. Pour lui, Alexa est “elle” mais pour moi, Alexa est définitivement de genre neutre.

À maintes reprises, des études ont montré que les femmes tout autant que les hommes préféraient les assistants virtuels dotés de voix féminines, car ils les trouvent plus accueillantes et compréhensives - c’est d’ailleurs la raison pour laquelle Alexa et d’autres assistants virtuels ont été conçus avec des voix féminines douces. Mais n’est-ce pas un vieux préjugé que de penser cela ? Les assistants virtuels doivent-ils être féminins pour plaire ? Dans la mesure où l’intelligence artificielle gère de plus en plus de pans de nos vies, nous devons nous interroger sur certaines idées préconçues et ouvrir notre réflexion à de nouvelles perspectives.

L’intelligence artificielle et le machine learning s’immiscent de plus en plus dans notre quotidien, de l’organisation de nos agendas à la diffusion de nos musiques préférées en soirée. Et plus que cela encore, ils conditionnent nos comportements, nos façons de penser, nos habitudes d’achat et même notre vision du monde, un peu comme le fait la bulle de filtres de Facebook, mais à beaucoup plus grande échelle.

Les personnes qui conçoivent ces technologies ont donc aujourd’hui un impact direct sur nous et sur le monde qui nous entoure. Par conséquent, il est impératif d’avoir plus de femmes de milieux différents qui jouent un rôle dans le développement de ces technologies, et pas juste de choisir des voix féminines pour les assistants virtuels.

L’intelligence artificielle est comme un enfant, elle grandit en fonction de la nourriture qu’elle reçoit, et nous savons que jusqu’à présent, ce sont en majorité des hommes occidentaux qui s’en sont chargés. Ils ont créé, peut-être pas de façon délibérée des systèmes biaisés derrière des assistants virtuels, sous leur prisme d’hommes blancs privilégiés.

Les biais se glissent quand les données ne sont pas assez inclusives ; quand les développeurs laissent leurs propres biais s’immiscer ; quand les humains utilisent délibérément un langage raciste ou sexiste pour un bot ; et aussi quand les développeurs oublient d’utiliser leur bon sens. L’intelligence artificielle se nourrit des préjugés de ses créateurs. Nous avons ainsi tous vu comment l’algorithme Facebook peut influencer la manière dont nous percevons certains événements mondiaux en biaisant le contenu de notre fil d’actualité. Nous avons également pu observer comment Twitter a appris au chatbot Tay de Microsoft à être misogyne, raciste et antisémite en seulement une journée. C’est maintenant qu’il faut changer les choses, ce sera beaucoup plus difficile de le faire plus tard.

L’inclusion doit être le futur de l’intelligence artificielle mais il y a un possible paradoxe à accroître la diversité en faisant preuve de tolérance envers tous les points de vue. En effet, qui décide des points de vue à exprimer dans ce monde idéal et ceux à laisser de côté ? Comment créer une intelligence artificielle en accord avec l’esprit humain tout en occultant ses préjugés ? L’intelligence artificielle devrait-elle être programmée à partir d'une vision ambitieuse du monde que nous voudrions ou d'une version réaliste de notre monde actuel ? Les données peuvent prendre du temps pour rattraper la culture alors comment créer une IA qui y est plus sensible ?

C'est une distinction subtile, mais fondamentalement nous devons instaurer la confiance avec l’intelligence artificielle et ceux qui la développent, et être convaincu qu'ils créent une technologie impartiale. Ce qui n’est pas chose aisée lorsque l’on sait que les hommes représentent 85% des personnes qui travaillent sur le machine learning, et que l’on entend parler du mauvais traitement réservé aux femmes dans la Silicon Valley.

Or le secteur de l’innovation est en fait un formidable environnement pour les femmes, naturellement ouvert et collaboratif. La solution est d'intéresser les jeunes filles à rejoindre cette industrie dès leur plus jeune âge. C’est un vrai défi mais déjà des initiatives comme le mouvements STEM ou AI4All de Melinda Gates tentent de renverser la tendance.

Voilà pourquoi il est crucial qu’il y ait plus femmes dans l'intelligence artificielle. Impliquer les femmes ne signifie pas seulement cocher des cases éthiques et sociales ; c'est aussi en train de devenir un impératif commercial. Des chercheurs de l'Université d'Oxford ont ainsi montré que jusqu'à 47% des emplois pourraient être pris en charge par l'IA dans les 20 prochaines années, ce qui signifie qu’il ne resterait aux humains que ceux que les machines ne peuvent maîtriser, tels que les soins, le bien-être et l’éducation, en résumé tout travail qui nécessite un rapport humain et l'intelligence émotionnelle. On estime au Royaume-Uni que l'intelligence artificielle pourrait faire gagner 630 milliards de livres supplémentaires à l'économie d'ici 2035 et que les qualités d'empathie des femmes, leur capacité de collaborer, d'écouter et de s'auto-réguler - seront plus demandées que jamais.

Je ne crois pas que ces qualités sont intrinsèquement plus féminines que masculines. En revanche, je sais que les femmes sont plus encouragées à les développer. Cela changera peut-être à l’avenir, au fur et à mesure que les hommes réalisent les effets bénéfiques d’une attitude plus empathique : la revendication d’une intelligence artificielle universelle pourrait même aller au-delà d’un archétype masculin / féminin.

L’idée a du bon et correspond bien à l'observation de l’historien Melvin Kranzberg qui déclarait que “La technologie n’est ni bonne ni mauvaise ni même neutre”. Tout est une question de contexte pour l’intelligence artificielle, et chez moi, Alexa est de genre neutre, est-ce que c’est clair ?