Compte rendu

Office parlementaire d’évaluation
des choix scientifiques et technologiques

Audition publique sur Femmes et IA : briser les codes à l’occasion de la Journée internationale des droits des femmes

(en commun avec la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes et la délégation à la prospective du Sénat)              2

 

 


Jeudi 7 mars 2024

Séance de 8 heures 30

Compte rendu n° 186

 

session ordinaire de 2023-2024

Présidence de M. Stéphane Piednoir,
président,
Mmes Christine Lavarde, président de la délégation sénatoriale à la prospective, et Dominique Vérien, présidente de la délégation aux droits des femmes
 


Office parlementaire d’évaluation des choix scientifiques et technologiques

Jeudi 7 mars 2024

Présidence de M. Stéphane Piednoir, président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, Mmes Christine Lavarde, président de la délégation sénatoriale à la prospective, et Dominique Vérien, présidente de la délégation aux droits des femmes

La réunion est ouverte à 8 h 35.

Audition publique sur Femmes et IA : briser les codes, à l’occasion de la Journée internationale des droits des femmes (en commun avec la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes et la délégation à la prospective du Sénat)

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Bienvenue à toutes et tous à l’occasion de ce colloque consacré au thème « Femmes et IA : briser les codes », à la veille de la Journée internationale pour les droits des femmes. Je remercie chaleureusement le président du Sénat, Gérard Larcher, d’ouvrir nos travaux et l’invite à monter à la tribune.

M. Gérard Larcher, président du Sénat. – Mes chers collègues, Mesdames et Messieurs, je suis heureux de vous accueillir ce matin, à l’initiative de la délégation aux droits des femmes, de la délégation à la prospective et de l’office parlementaire d’évaluation des choix scientifiques et technologiques (Opecst), pour réfléchir aux conséquences du développement des intelligences artificielles sur l’égalité entre les femmes et les hommes.

Avant toute chose, à la veille de la journée internationale des droits des femmes, je pense aux femmes afghanes, aux femmes iraniennes, à toutes celles qui, partout dans le monde, subissent le règne de la violence, de l’oppression et de l’invisibilisation. Chaque jour, et pas seulement le 8 mars, leur combat pour la liberté nous oblige.

En préambule, j’aimerais saluer l’esprit collectif qui a présidé la réunion de ce colloque.

Le sujet aurait pu être traité par le prisme de l’égalité à la délégation aux droits des femmes, de la technologie à l’office parlementaire d’évaluation des choix scientifiques et technologiques, ou de l’impact économique de l’intelligence artificielle à la délégation à la prospective. Le résultat aurait sans doute été moins riche que ce qu’apporteront les trois tables rondes qui vous seront proposées au cours de la matinée. Merci à Dominique Vérien, Christine Lavarde et Stéphane Piednoir d’avoir joué collectif et d’avoir privilégié la transversalité.

Je voudrais aussi saluer tous les chercheurs venus nourrir notre réflexion. La représentation nationale a besoin de ce lien fort avec la recherche et l’université pour éclairer ses travaux. Je souhaite que ce lien soit encore renforcé.

Enfin et surtout, je voudrais remercier les concepteurs du sujet du colloque qui nous permettent d’inscrire à l’agenda politique un impensé des politiques publiques. À première vue, la technologie, à l’instar des anges, n’a pas de sexe. L’intelligence artificielle est essentiellement perçue au travers de l’emploi, de l’économie, de la souveraineté ou encore de la cybersécurité. Et pourtant, il suffit de lire le programme de la matinée pour mesurer les enjeux de l’intelligence artificielle en termes de parité.

Nous y voyons un sujet d’égalité d’accès à l’emploi, puisque les femmes occupent des emplois plus exposés à l’automatisation par les intelligences artificielles, notamment dans le secteur tertiaire. Ces destructions d’emploi sont à mettre en regard des créations d’emplois que l’intelligence artificielle peut générer.

Cependant, dans ce secteur, les femmes sont minoritaires, voire très minoritaires. Les chiffres qui m’ont été transmis m’ont conduit à réfléchir. Seulement 20 % des employés occupant des fonctions techniques dans les entreprises d’apprentissage automatique sont des femmes. 12 % des chercheurs en intelligence artificielle au niveau mondial et 6 % des développeurs de logiciels professionnels sont des femmes.

Il nous faut donc promouvoir la formation et l’embauche pour leur permettre d’accompagner cette grande révolution technologique, ce qui doit nous conduire à réfléchir à l’égalité face à l’orientation et à la formation.

À la rentrée 2022, les jeunes filles ne représentent que 40,6 % des effectifs de l’enseignement de spécialité de mathématiques, 14,6 % des sciences informatiques et numériques et seulement 13,6 % des sciences de l’ingénieur. Ces choix d’enseignement de spécialité préfigurent largement l’orientation postbac des élèves. Les filles ne constituent que 17 % des effectifs d’étudiants en mathématiques, ingénierie et informatique. Ces chiffres sont assez révélateurs d’une situation sur laquelle nous devons nous pencher. Nous disposons également de rapports sur Parcoursup et les orientations diverses et variées. Je me suis permis de prolonger les débats en hémicycle et les réflexions sur ce point.

J’identifie aussi un sujet d’égalité des chances, puisque les algorithmes peuvent parfois reproduire et amplifier les stéréotypes de genre. Ce point mérite une réflexion.

Ce colloque m’a contraint à réfléchir. Il ne suffit pas d’avoir nommé, au sein du Bureau du Sénat, un vice‑président délégué à l’intelligence artificielle. Nous devons entendre s’exprimer un certain nombre d’angoisses de la part de ceux qui, aujourd’hui, craignent pour leur emploi. C’est une réalité.

Parce que je suis un optimiste résolu, je crois que l’intelligence artificielle peut être une chance pour les femmes comme pour les hommes. Nous devons toutefois en identifier les écueils et faire preuve d’anticipation pour assurer une forme de transition juste et équilibrée. Le défi est de taille. Il doit nous mobiliser dans tous les secteurs, à l’école, à l’université, dans les entreprises, dans les laboratoires de recherche et, bien sûr, au Parlement.

Nous tenions hier une agora sur un tout autre sujet, les familles. Nous devons faire en sorte d’éviter une forme de stéréotype anticipé en leur sein.

Je vous souhaite une matinée riche de propositions et de prises de conscience au sein de l’hémicycle Médicis, nommé en l’honneur d’une femme. Nous l’avons préféré à l’hémicycle Clemenceau, vous en comprendrez la raison !

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Monsieur le Président du Sénat, Madame la Présidente de la Délégation sénatoriale à la prospective, Monsieur le Président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, chers collègues, Mesdames et Messieurs.

Je remercie tout d’abord chaleureusement notre président, Gérard Larcher, d’avoir accepté d’inaugurer ce colloque inédit, commun à trois structures institutionnelles : la délégation aux droits des femmes, la délégation sénatoriale à la prospective et l’office parlementaire d’évaluation des choix scientifiques et technologiques. Je le sais particulièrement attentif aux travaux que mène la délégation aux droits des femmes en faveur de l’égalité entre les femmes et les hommes, mais aussi très favorable à la mutualisation des travaux entre instances sénatoriales de façon générale.

Le sujet de notre colloque ce matin : Femmes et IA : briser les codes, répond à ce double objectif, d’une part, mettre en lumière un domaine dans lequel les enjeux d’égalité sont déterminants, d’autre part, réfléchir ensemble, de façon interdisciplinaire, à la façon de lever les obstacles au déploiement d’une intelligence artificielle générative plus égalitaire dans sa conception, ses pratiques et ses résultats.

À l’occasion de la Journée internationale des droits des femmes, nous avons choisi de mettre en lumière un domaine dans lequel modernité et égalité doivent aller de pair, un domaine où les avancées scientifiques et numériques ne doivent pas laisser la moitié de l’humanité sur le bord du chemin. Il serait opportun que, pour une fois, nous agissions en anticipation.

Notre matinée de débat s’articulera autour de trois tables rondes qui nous permettront de répondre à trois questions aujourd’hui fondamentales, du point de vue des droits des femmes, dans le domaine de l’intelligence artificielle :

- d’abord, Pourquoi si peu de femmes dans les métiers de l’IA ? Cette première séquence sera animée par notre collègue Laure Darcos, sénatrice de l’Essonne et vice‑présidente de la délégation aux droits des femmes. Elle est issue d’un territoire où ces enjeux sont majeurs. Voilà plusieurs années qu’ensemble, nous voulons travailler sur les femmes dans les sciences et mieux les reconnaître ;

- ensuite, L’IA estelle sexiste ? Cette question volontairement provocatrice sera soulevée par notre collègue sénateur Stéphane Piednoir, président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, instance commune à nos deux assemblées parlementaires ;

- enfin, Comment faire de l’IA un atout pour l’égalité femmes-hommes ? Cette troisième et dernière séquence sera animée par notre collègue Christine Lavarde, présidente de notre délégation à la prospective qui a choisi pour thématique annuelle de travail l’IA et l’avenir du service public, dans le but de réfléchir à la façon de mettre cet outil au service de l’intérêt général et d’exploiter son potentiel sans rien céder sur nos libertés, notre humanité et notre souveraineté.

Je laisse sans plus tarder la parole à Laure Darcos.

Mme Laure Darcos, vice-présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Chers collègues, Mesdames et Messieurs, je suis heureuse d’animer notre première table ronde de la matinée consacrée à la place des femmes dans les métiers de l’IA et aux solutions pour les attirer davantage dans ce secteur.

La place des femmes dans les filières et métiers scientifiques est une problématique qui me tient particulièrement à cœur. Je suis sénatrice de l’Essonne. Notre territoire compte un bel écosystème scientifique et technologique, autour du plateau de Saclay. Cependant, la faible présence des femmes dans cet univers constitue un sujet de préoccupation majeure.

Au niveau mondial, selon le Réseau des femmes pour une IA éthique de l’Unesco, seuls 20 % des employés occupant des fonctions techniques dans les entreprises d’apprentissage automatique, 12 % des chercheurs en intelligence artificielle et 6 % des développeurs de logiciels professionnels sont des femmes. En France, 18 % des ingénieurs informatiques sont des femmes.

Nous avons peu de raisons d’espérer une amélioration de ces statistiques lorsque l’on regarde la situation dans l’enseignement supérieur et même dans l’enseignement secondaire et primaire. Seulement 30 % des étudiants dans les formations d’ingénieurs et les sciences fondamentales et appliquées et 20 % des étudiants en DUT informatique sont des femmes. Seulement 15 % des lycéens qui choisissent la spécialité « numérique et sciences informatiques » sont des filles. Et dès le plus jeune âge, les filles sont moins encouragées que leurs camarades garçons dans les disciplines scientifiques, alors qu’elles y réussissent tout aussi bien.

Au sein de la délégation aux droits des femmes, nous croyons beaucoup au pouvoir des rôles modèles et des réseaux de femmes pour inciter les jeunes filles et les femmes à rejoindre des secteurs considérés à tort comme masculins.

Or, les femmes qui travaillent dans l’IA sont invisibilisées. Le New York Times a publié en décembre dernier un classement des personnalités-clés de l’IA : pas une seule femme n’y figurait. Pourtant, de nombreuses femmes ont joué un rôle pionner dans l’IA, à commencer par la chercheuse Fei‑Fei, qui a lancé un programme de reconnaissance d’images par machine learning dès 2007 et qui a dirigé la division de l’IA chez Google.

Le manque de diversité et de parité dans le secteur accroît le risque de biais sexistes dans la conception des algorithmes, au détriment des femmes, mais aussi de la performance de l’IA – s’il était besoin d’un argument supplémentaire pour convaincre les concepteurs de ces logiciels. Pour ne prendre qu’un exemple, on sait que les logiciels de reconnaissance faciale reconnaissent davantage les hommes blancs que les femmes noires.

Alors que ces constats sont désormais connus, pourquoi la situation ne s’améliore‑t‑elle pas ? Pourquoi le nombre de jeunes filles qui rejoignent les filières scientifiques est‑il encore si faible ? Pourquoi sont‑elles moins incitées à poursuivre des études scientifiques que leurs camarades garçons ?

Tous ces pourquoi nous invitent à rechercher des solutions pour casser les stéréotypes dès le plus jeune âge, pour contrer les biais des professeurs et conseillers d’orientation, pour encourager les jeunes filles et femmes à se lancer dans les métiers scientifiques, pour inciter les établissements d’enseignement, les laboratoires de recherche et les entreprises à recruter davantage de femmes et pour développer le mentorat et la mise en réseau de femmes.

Pour discuter de ces différents sujets et être force de propositions, nous accueillons ce matin :

- Elyes Jouini, professeur des universités en économie et mathématiques, titulaire de la chaire Unesco Femmes et Science à l’Université Paris Dauphine, créée à son initiative ;

- Sarah Cohen-Boulakia, professeure des universités, chercheuse au LISN (Laboratoire interdisciplinaire des sciences du numérique) et directrice adjointe de l’institut DATA‑IA de l’Université Paris-Saclay, qui mobilise plus de 1 200 chercheurs et enseignants‑chercheurs issus de 46 laboratoires ;

- et Hélène Deckx van Ruys, directrice RSE et copilote du groupe Femmes et IA au Laboratoire de l’égalité, qui a élaboré un Pacte pour une IA plus égalitaire, avec des propositions concrètes pour recruter davantage de femmes dans l’IA.

Merci à vous trois pour votre présence ce matin.

M. Elyes Jouini, professeur des universités en économie et mathématiques, titulaire de la chaire Unesco « Femmes et Science » à l’Université Paris Dauphine. – Bonjour à toutes et à tous. Je suis ravi d’avoir l’opportunité de m’exprimer devant vous sur un thème qui m’est particulièrement cher, celui des liens entre femmes et intelligence artificielle. Je le replace dans le cadre plus large de mon domaine, celui des femmes et des sciences.

Permettez‑moi de commencer mon propos par une anecdote. Mardi, j’étais à Toulouse, à l’initiative de l’Institut des hautes études de l’éducation et de la formation, au lycée Pierre de Fermat. Devant l’établissement, un groupe d’adolescents discutait. L’un disait qu’il n’y avait pas un seul homme professeur d’espagnol, et le second, pas un seul homme professeur d’anglais. Le dernier a répondu « oui, mais ce sont des métiers de femmes ». C’est dire combien les stéréotypes et les rôles modèles sont extrêmement importants et prégnants. Très jeunes, nos adolescents, nos enfants se font des idées sur les métiers, les filières qui seraient pour les hommes, pour les femmes, pour les personnes issues de milieux défavorisés, pour ceux qui ont les codes, qu’il s’agit ici de briser.

Ce phénomène intervient tellement tôt qu’une étude publiée par notre chaire en janvier dernier, conduite par mon collègue Thomas Breda, met en exergue un décrochage entre les filles et les garçons dès le CP en mathématiques. À l’entrée en CP, ils affichent exactement les mêmes compétences. Au milieu du CE1, un écart se creuse déjà. Il n’est évidemment pas lié à un problème de compétences de la part des filles, mais elles ne se positionnent plus au top de la classe dans cette discipline. Elles se reportent immédiatement sur d’autres disciplines. Il s’agit donc de comprendre les raisons de ce décrochage, qui se poursuit tout au long de la scolarité. Les chercheurs parlent de leaky pipeline, de tuyau percé : on perd les filles au fur et à mesure, comme dans un tuyau d’arrosage qui serait percé un peu partout. Nous devons en comprendre les raisons et identifier des solutions pour agir.

Évidemment, j’ai parlé des rôles modèles. On parle de l’information, du mentorat, mais malheureusement, ils ne suffisent pas. Nous devons aller beaucoup plus loin. La recherche montre que les pays dans lesquels les filles réussissent le moins bien en sciences sont ceux dans lesquels les personnes issues de milieux défavorisés réussissent le moins bien en sciences. La corrélation est très forte. C’est donc une question d’organisation sociale, de prise en compte des inégalités et des différences, et non pas simplement une question d’information et de modèles. Dans le monde globalisé où nous vivons, nous pouvons nous saisir de modèles partout, quel que soit le pays dans lequel ils évoluent. Nous pouvons les voir sur les réseaux sociaux. Il persiste tout de même des différences extrêmement fortes entre les pays.

Par ailleurs, on peut très bien réussir en sciences, mais ne pas poursuivre d’études scientifiques. Les pays dans lesquels les filles le font le moins sont paradoxalement les plus égalitaires, les plus développés, c’est‑à‑dire notamment notre pays. On parle de paradoxe norvégien, parce que la Norvège s’était attaquée au premier problème, celui de la moindre réussite des filles en sciences. Des programmes ont été mis en place pour renforcer les compétences de ces dernières. Elles ont amélioré leur niveau, mais ne se sont finalement pas orientées davantage vers les études scientifiques, à tel point que l’on a remis en cause ces programmes coûteux, disant qu’il était inutile de dépenser de l’argent public si l’objectif fixé n’était pas atteint. Par ailleurs, ce constat revient à dire que si dans les pays égalitaires, respectueux des droits, les filles ne suivent pas d’études scientifiques, c’est que, probablement, elles n’aiment pas cela, et qu’il ne faut pas les y forcer.

Évidemment, la réponse est beaucoup plus compliquée. Les sociologues montrent que, dans les pays les plus égalitaires, on est un peu soumis à l’injonction de l’expression de soi. Il faut s’identifier et se chercher une identité. La plus naturelle à laquelle se raccrocher est l’identité de genre. On a démontré également que c’est dans ces pays les plus égalitaires que les stéréotypes sont les plus forts.

Nous en arrivons à cette question des stéréotypes, absolument essentielle. Nous devons parvenir à changer le regard des filles sur les différentes filières, sur les différents métiers, mais aussi le regard des garçons, de la société dans son ensemble. Trop souvent, quand on parle de stéréotypes, quand on dit que les filles ont moins confiance en elles, qu’elles sont plus réticentes à prendre des risques, on leur fait porter la responsabilité du problème. On dit qu’elles n’ont qu’à devenir un peu plus courageuses, qu’elles doivent regarder celles qui les ont précédées. Ce n’est pas vrai. C’est le regard que la société dans son ensemble porte sur les filles, sur les garçons, sur les métiers, sur les filières et sur les compétences que nous devons faire évoluer.

J’ai tendance à penser que les filles ne sont pas plus réticentes à prendre des risques ou qu’elles n’ont pas moins confiance en elles, mais qu’elles font face à un risque plus élevé. Si une fille s’oriente vers des études scientifiques et qu’elle échoue, on dira « vous voyez bien, ce n’était pas fait pour elle ». Le risque qu’elle porte est beaucoup plus important que celui que va porter un garçon. Nous devons donc changer le regard dans son ensemble.

Pour ce faire, nous avons besoin de témoignages, de mentorat, de rôles modèles, mais nous devons aussi nous fixer des objectifs, des priorités, des moyens en matière d’orientation, d’information, de structure de nos filières de formation et d’éducation. Notre enseignement supérieur est organisé en silo, pour l’essentiel, bien qu’il existe des filières mixtes. S’engager dans des études purement mathématiques ou informatiques peut peut‑être plus coïncider avec le point de vue et l’imaginaire d’un garçon et moins avec celui d’une fille, dans le contexte où l’on vit. Nous pouvons probablement agir sur ce point, en fixant des objectifs chiffrés.

Nous parlions plus tôt de l’orientation, des choix des enseignements de spécialités. On peut choisir les mathématiques expertes, l’informatique, etc., au lycée. Il est extrêmement important, là aussi, que toute l’information soit disponible. Les conseillers d’orientation doivent être particulièrement sensibilisés. Les enseignants, les proviseurs et les familles sont en outre des prescripteurs. Dans ce contexte, le partage de l’information est absolument essentiel.

J’identifie tout de même quelques raisons d’espérer. La situation est très variable d’un pays à l’autre. Si en Corée du Sud, on ne compte que 25 % de femmes dans les filières scientifiques, la Tunisie, que je connais bien, compte 55 % de femmes dans ces mêmes filières. Ainsi, la parité est tout à fait accessible.

Autre élément, le Sénégal est passé en moins de dix ans de 10 % à 29 % de femmes dans les filières scientifiques. Ainsi, rien n’est gravé dans le marbre. Ces situations sont extrêmement évolutives. Certes, il est plus facile de passer de 10 à 30 % que de 30 à 50 % de femmes, mais il est possible de faire changer les choses. Malheureusement, la France n’évolue, pour l’heure, pas nécessairement dans la bonne direction.

Par exemple, on sait que le nombre de doctorantes dans la tech a baissé de 6 % entre 2013 et 2020, là où leur nombre augmentait de 19 % en Europe. Ainsi, on peut faire bouger les choses, mais encore faut‑il les faire bouger dans la bonne direction.

Mme Laure Darcos, vice-présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Merci, Monsieur Jouini. Nous verrons si nos collègues ont quelques questions à vous poser à la fin de la table ronde. Je laisse tout de suite la parole à Sarah Cohen‑Boulakia.

Mme Sarah Cohen-Boulakia, professeure des universités, chercheuse au Laboratoire interdisciplinaire des sciences du numérique (LISN), directrice adjointe de l’institut DATAIA de l’Université Paris-Saclay. – Bonjour à toutes et à tous. Merci de me donner l’honneur de vous présenter quelques points autour de l’intelligence artificielle pour toutes à l’Université Paris-Saclay. En bonne enseignante d’intelligence artificielle que je suis, je ne peux pas m’empêcher de démarrer en recadrant le contexte.

L’intelligence artificielle n’est pas née il y a un an, avec un certain logiciel dont on parle de plus en plus, cette IA générative qui remplit nos médias aujourd’hui. Elle ne saurait d’ailleurs s’y limiter. Elle est présente dans nos vies depuis longtemps, de façon plus ou moins consciente. Elle est présente dans nos téléphones intelligents, pour nous aider à nous déplacer d’un point à un autre. Elle est présente sur les réseaux sociaux pour nous faire un certain nombre de recommandations. Elle est présente jusque dans notre téléviseur pour nous conseiller le meilleur film à regarder ce soir.

J’ai intégré des photos de chats dans mon diaporama, parce que cet élément ne sera jamais polémique. Si aujourd’hui, quand vous tapez le mot chaton dans votre moteur de recherche préféré, vous trouvez autant d’images de chatons, c’est d’abord parce qu’un certain nombre de personnes ont annoté des images. Cela ne vient pas tout seul. Rien ne permet à une IA de fonctionner sans humain. Si elle apprend vite et bien, un humain, un expert se cache au départ derrière une intelligence artificielle.

La dernière image de la diapositive présentée montre que l’intelligence artificielle va nous aider, nous guider, donner des conseils. En aucun cas elle ne remplacera les experts.

Comme beaucoup de régions en France, l’Université Paris-Saclay n’a pas attendu l’année dernière pour construire un grand institut d’intelligence artificielle. L’institut Data IA existe depuis de très nombreuses années. Nous comptons plus d’un millier de chercheurs et 58 laboratoires. Nous avons noué des relations fortes avec un grand réseau d’entreprises. Je suis directrice formation de cet institut, qui propose 530 modules d’enseignement qui concernent l’intelligence artificielle, répartis dans 64 parcours de master ou de licence.

Vous le savez probablement, l’Université Paris‑Saclay est plutôt bien positionnée dans les classements internationaux, ce qui représente un coût, en raison d’une structure assez complexe, d’où l’ensemble des logos de partenaires qui apparaissent à l’écran. C’est la rançon de la gloire.

Dans ce contexte, nous disposions en 2022 de toutes les informations nécessaires pour répondre à un appel à manifestation d’intérêt sur Compétences et métiers d’avenir en intelligence artificielle. Avec Frédéric Pascal, nous avons proposé le projet SaclAI School, qui a été désigné lauréat. Nous avons ainsi remporté 11,5 millions d’euros pour massifier et diversifier les enseignements de l’intelligence artificielle dans notre université.

On parle ici de tout niveau, tout domaine, depuis l’acculturation, y compris des personnels de l’université, de toutes et tous dans cette assemblée, pour ceux d’entre vous qui ne sont pas experts en IA, pour légiférer, pour réguler. Il est particulièrement important de comprendre les concepts sous‑jacents à l’IA. Nous visons tous les milieux et tous les âges.

L’université Paris-Saclay rassemble 48 000 étudiants. Sur une année donnée, la répartition de ses effectifs correspond globalement aux pourcentages nationaux. Sur des filières un petit peu techniques, en BUT/DUT, nous accueillons 12 % de filles. La licence d’informatique ou nos doubles diplômes dans lesquels nous mixons des mathématiques difficiles et de l’informatique difficile en attirent 20 à 30 %. La bonne nouvelle, c’est que les filles réussissent plutôt mieux, en moyenne, que les garçons. En proportion, elles sont donc un peu plus nombreuses lorsque l’on passe dans des filières à Bac+5. Elles commencent à dépasser les 20 %. À CentraleSupélec, la spécialité intelligence artificielle en attire environ 20 %, par exemple.

J’aimerais insister sur le fait que l’intelligence artificielle ne doit être laissée ni aux élites, ni aux mathématiciens et aux informaticiens. Il est urgent qu’elle s’ouvre. L’interdisciplinarité ne doit pas rester un vœu pieux. Nous le voyons dans les chiffres.

À l’Université Paris-Saclay, nous avons monté un certain nombre de licences en double diplôme, qui sont particulièrement sélectives et difficiles. Les étudiants concernés sont particulièrement dotés à la fois en informatique et en sciences de la vie, par exemple. Les chiffres sont clairs. Les effectifs sont beaucoup plus équilibrés, tant à Bac+3 qu’à Bac+5, où l’on tend vers une parité.

Une formation mêlant l’informatique et la gestion des entreprises accueille 40 % de filles. C’est plus que d’autres formations proposant de l’informatique. À mes yeux, l’interdisciplinarité est clé pour intégrer plus de filles en sciences.

Deuxième élément, puisque vous parliez de briser les codes, il nous faut donner les codes. Je rejoins complètement ce qui a déjà été dit ce matin. Ce sont les jeunes filles qui ne sont pas nées dans des milieux favorisés qui ont le plus de mal à se retrouver dans ces différentes filières, très sélectives, informatiques, mathématiques. Nous avons mis en place des bourses d’excellence qui poussent la mixité et favorisent particulièrement la parité et l’excellence.

Quelles qu’en soient leurs raisons, les filles posent un certain nombre de questions. Elles sont fondamentalement inquiètes et l’expriment. Nous avons donc cherché à les rassurer, elles, mais aussi les garçons, sur le fait que les mathématiques et l’informatique ne devaient pas faire peur. La mise en place d’un tutorat par les pairs, d’étudiantes vers les étudiantes, joue un rôle clé dans le fait de dédramatiser, de démystifier cette difficulté.

Enfin, il faut agir tôt. On a parlé du CP, c’est exactement le genre de profil exposé sur la diapositive projetée. Les jeunes filles que vous voyez, avec leurs couettes, sont à la fête de la science, en train d’apprendre comment fonctionne un algorithme de deep learning grâce à des petits robots. Sur la photo suivante figure un groupe, cette fois en licence Sciences de la Terre et Physique. Nous avons été surpris depuis plusieurs années de voir à quel point des jeunes filles qui n’étaient absolument pas parties pour faire de l’intelligence artificielle se sont révélées avoir des profils particulièrement intéressants dans ce domaine. On a pu les remettre à niveau, et elles suivent aujourd’hui des cursus en intelligence artificielle. Dans les petits clichés que l’on voit apparaître, les Simpson nous présentent ce que les adolescents appellent des geeks ou des nerds, quel que soit le cliché sous‑jacent. Je leur préfère les décodeuses du numérique du CNRS qui font l’objet d’une bande dessinée, que je vous invite à regarder. Elles ont des petits visages tout aussi sympathiques, et elles sont à mettre entre toutes les mains.

À tous les niveaux, dans tous les domaines, c’est l’interdisciplinarité qui est clé pour ouvrir les sciences aux différents milieux et à tous les âges.

Mme Laure Darcos, vice-présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Merci beaucoup, Madame Cohen‑Boulakia. En regardant les images, je me souviens en effet de La main à la pâte créée par Georges Charpak. On n’a jamais fait mieux, je pense, pour inciter nos élèves, très jeunes, à s’intéresser à la science. Madame Hélène Deckx Van Ruys, copilote du groupe Femmes et IA au Laboratoire de l’égalité, à vous la parole.

Mme Hélène Deckx Van Ruys, directrice RSE et copilote du groupe Femmes et IA au Laboratoire de l’égalité. – Bonjour à toutes et à tous. Merci pour cette invitation. Je passe en dernier, tout ce que je voulais dire l’a quasiment déjà été, mais la répétition entraîne l’assimilation.

Je suis copilote du Groupe de travail Les Femmes et l’intelligence artificielle au Laboratoire de l’égalité. Je peux vous annoncer avec fierté que nous avons lancé mardi soir le guide des bonnes pratiques pour une IA plus égalitaire entre les femmes et les hommes.

Nous avons également lancé le pacte pour une IA plus égalitaire en 2020, mais je voudrais juste revenir sur le Laboratoire de l’égalité quelques instants. Le groupe de travail Les Femmes et l’intelligence artificielle existe depuis 2017. Le Laboratoire de l’égalité promeut avant tout l’égalité professionnelle entre les femmes et les hommes et s’est emparé du sujet de l’IA avant 2017. Pourquoi ? Parce que nous avons constaté que celle‑ci générait des inégalités de genre, les diffusait, les amplifiait et les reproduisait. Nous avons mené un certain nombre de travaux, à commencer par le pacte pour une IA plus égalitaire. Nous travaillons avec de nombreuses associations telles que le Cercle d’intérêts ou Arborus. Nous ne sommes pas en compétition, mais travaillons en collaboration pour mutualiser nos savoirs et nos savoir‑faire. Nous avons également lancé le livre L’intelligence artificielle, pas sans elles !, d’Aude Bernheim et Flora Vincent, préfacé par Cédric Villani. Nous avons organisé l’année dernière le mois de l’IA égalitaire. Il a constitué un vrai détonateur. Tous les mardis midi du mois de juin, nous organisions avec les cinq parties prenantes – associations, entreprises, recherche, médias, écoles – des webinaires sur l’intelligence artificielle et recueillions leurs connaissances selon leur propre angle de vue. Nous avons collecté tant d’informations que nous nous sommes dit que nous devions aller plus loin, « cruncher la data ». Nous avons lancé une grande enquête sur l’IA, avec trois parties prenantes, les écoles, les entreprises et la recherche. Nous avons reçu un prix de la Fondation des femmes sur l’économie financière des femmes, remis par Isabelle Rome.

Mardi, nous lancions officiellement ce guide. Qu’est‑ce qui est important quand on parle d’IA et quand on parle des femmes ? Nous sommes tous d’accord, dans cette salle, pour dire qu’il nous manque des femmes, mais pourquoi ? Vous avez parlé de responsabilité au tout début de cette session. À nos yeux, elle est tripartite, partagée entre les parents, l’éducation et les entreprises.

Nous ne reviendrons pas sur les chiffres qui ont déjà été cités. Nous savons que moins de 27 % de filles sortent des écoles d’ingénieurs, qu’il manque 100 000 femmes ingénieurs aujourd’hui en France. En tant que pays civilisé et très avancé, nous nous demandons pourquoi nous avons perdu cinquante ans, parce que la bascule a eu lieu en 1984, et s’est aggravée lors de la réforme du bac. Lors de l’élaboration de notre guide, nous avons interviewé des écoles d’ingénieurs. Nous savons qu’elles accueillent très peu d’étudiantes. Celles qui y étudient sont mises en avant lors des salons de l’étudiant ou de l’orientation. Les filles ne viennent jamais seules, elles sont souvent accompagnées de leurs parents. Quand elles s’avancent vers un stand d’école d’ingénieurs, la plupart du temps, ce sont les parents qui leur disent : « Non, ce n’est pas la peine, n’y va pas, ce n’est pas pour toi, ce n’est pas un bon milieu, ce n’est pas un bon environnement, tu vas souffrir. » J’y vois donc une responsabilité des parents.

Ensuite, que se passe‑t‑il au niveau de l’orientation ? Elle arrive bien trop tard pour les filles. En seconde, c’est trop tard, elles ont déjà décidé. Il faut donc en parler bien avant. Si l’on veut discuter d’orientation dès le collège, dès l’école primaire, il faut démystifier, dégenrer les métiers de l’IA, de l’informatique, du numérique et donner envie aux filles de s’engager dans ces filières. Comment faire ?

J’aimerais saluer l’École 42, et notamment Sophie Vigier qui a œuvré pour mettre en place dès la primaire, en CM1ou CM2, des cours de code, de sensibilisation à l’informatique, au numérique, etc. Cette proposition a été actée et est en place, je crois, pour la deuxième année consécutive. Le problème qui s’est posé lorsqu’on a décidé que les petits Français devaient apprendre l’anglais en maternelle ou primaire se pose à nouveau : qui enseigne ces cours ? Ce sont les instituteurs et les institutrices qui ne sont pas formés pour le faire. On veut apprendre aux enfants, les sensibiliser au coding et à l’informatique, mais on manque de ressources. C’est aussi la responsabilité des professeurs.

Nous sommes confrontés à une méconnaissance « métier », à des problèmes d’orientation, de stéréotypes. Comment expliquer aux enfants qu’il n’existe pas de métiers réservés à un genre, et que les filles peuvent être pilotes, astronautes, tout ce qu’elles veulent ? Dans ce cadre, je salue le travail d’associations formidables comme le Women & Girls in Tech, Digital Ladies, Girls who code, qui sensibilisent les filles et les garçons de façon très concrète en leur montrant les usages du numérique et des technologies.

Démystifier le secteur permet de montrer aux filles qu’elles peuvent contribuer à l’intelligence artificielle, présente dans notre vie de tous les jours. Pour ce faire, il nous faut les embarquer dans les filières scientifiques de manière à construire un vivier. On a évoqué plus tôt le phénomène du tuyau percé. En effet, au bout de huit à dix ans, 50 % des femmes quittent le métier. Quelles en sont les raisons ? Nous y reviendrons à l’occasion d’une prochaine table ronde, mais elles ne sont pas bien accueillies. Elles sont confrontées à un environnement problématique dans les écoles, d’abord.

Lors de notre soirée de lancement du guide des bonnes pratiques, Aline Aubertin, femme ingénieure et directrice de l’ISEP (École d’ingénieurs du numérique), était présente à nos côtés. Quand elle a pris la direction de cette école, elle a commencé par mettre en place des actions très simples. On n’est pas du tout dans le film The Hidden Figures, mais presque. Les toilettes des filles étaient à l’autre bout du bâtiment. Il n’y avait en outre qu’une seule cabine. Excusez‑moi d’évoquer ce type de détail, qui compte. Nous devons accueillir les filles dans les écoles d’ingénieurs, leur montrer qu’elles ont de la valeur, qu’on les attend.

Je citais le film The Hidden Figures. Je pense que tout le monde connaît les figures de l’ombre : Margaret Hamilton, Dorothy Vaughan, Catherine Johnson, etc. Il est d’utilité publique de les montrer pour donner envie aux filles de rejoindre le secteur. Nous avons des représentations, nous avons toutes nos Simone. Montrons aussi des rôles modèles qui soient accessibles.

Au quotidien, un rôle modèle peut être une ou un professeur, une ou un chef d’entreprise. Je pense aussi à Élisabeth Moreno, parce qu’elle est très charismatique, qu’elle connaît l’entreprise de la Tech. Nous avons besoin de représentation. Si on demande à n’importe qui de citer un rôle modèle dans la tech, il pensera à Steve Jobs ou à Mark Zuckerberg. Si on lui demande de citer un rôle modèle au féminin, il risque d’être plus embêté. Nous devons donc absolument susciter ces représentativités et l’existence de rôles modèles qui donnent envie.

Avant de conclure, j’aimerais préciser que le numérique est un secteur en grande croissance, puisqu’il croît de plus de 5 % par an, contre 2,5 % pour un secteur plus classique. Il représente une manne de métiers dans lesquels il faut s’investir, dont il faut s’emparer.

Enfin, avec le Laboratoire de l’égalité, et notamment avec notre guide pour une IA égalitaire, nous essayons de changer le paradigme, la vision. Arrêtons de penser que le numérique et l’intelligence artificielle sont négatifs. Bien entendu, certains emplois sont détruits, mais d’autres sont créés. Aujourd’hui, on dit que deux tiers des enfants actuellement en maternelle exerceront un métier qui n’existe pas encore. On dit aussi que les femmes seront les plus touchées par l’automatisation des tâches. Elles seront 11,8 % à en subir les impacts, selon un rapport de McKinsey. C’est vrai, mais il nous faut aussi embrasser cette transformation. Arrêtons de stigmatiser l’IA, de dire que tout est négatif. Nous vivons dans un environnement suffisamment négatif, essayons de changer de paradigme et de penser que ces évolutions sont une marque de progrès. Dans l’automobile, dans le médical, l’IA est une source de progrès. Elle ne remplacera jamais l’humain.

Enfin, on manque de filles dans le domaine de l’intelligence artificielle. Nous devons les encourager à suivre des cursus scientifiques, mais aussi créatifs, de marketing… Il est vrai que statistiquement, on envoie les filles où elles sont surreprésentées, dans la communication, les ressources humaines, le soin. Ces secteurs sont moins rémunérateurs. Elles sont sous‑représentées dans la Tech, mais y sont mieux payées. Ce constat signifie que la Tech constitue nécessairement un levier d’émancipation sociale et financière. La réduction des inégalités n’est pas qu’un simple combat de femmes. Elle concerne aussi les hommes, parce qu’ils sont nos alliés. C’est un sujet sociétal dont tout le monde doit s’emparer.

Mme Laure Darcos, vice-présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Permettez‑moi d’émettre une ou deux observations en termes de modèles. Vous me direz si c’est aussi un stéréotype, mais beaucoup de jeunes filles suivent des études scientifiques lorsque leur mère est elle‑même ingénieure ou dans les sciences. Leur cursus peut aussi être choisi en réaction, pour ne pas suivre la même voie que leur maman. C’est ce que je constate beaucoup sur le plateau de Saclay.

J’aime les notes positives. L’École polytechnique, entre autres écoles d’ingénieurs, se rend dans les classes – et pas qu’au lycée – pour casser ces stéréotypes, pour montrer que les filles sont peut‑être plus présentes dans les sciences appliquées. On entend souvent dire que les sciences dures sont plus compliquées, que l’on a besoin de concrétiser certaines choses.

J’ai souvent dit à Cédric Villani, qui aurait pu être ici aujourd’hui, que je n’aurais pas été traumatisée comme je l’ai été si j’avais appris les maths avec lui. Il est vrai que nous avons peut‑être une autre façon d’aborder les choses. Nous discuterons dans quelques minutes avec le professeur de mathématiques et président de l’Opecst, Stéphane Piednoir. Je pense que nous devons changer de méthode, de pédagogie.

Je retiens une autre observation positive sur l’interdisciplinarité. J’avais fortement critiqué la suppression des maths du tronc commun en première et terminale lors de la réforme du bac du ministre Blanquer. Élisabeth Borne était au banc à ce moment‑là. Cette information ne lui était pas parvenue. Ensuite, cette matière a été remise en première, mais pas dans les deux majeures en terminale. C’est donc inutile.

L’interdisciplinarité peut sauver ces filières ou y augmenter la proportion de femmes. Sans elle, les filles risquent de se tourner vers d’autres domaines.

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Monsieur Jouini, vous indiquiez que les pays les plus égalitaires étaient ceux où les filles allaient moins vers les sciences, mais aussi ceux où les jeunes issus de familles défavorisées s’y orientent moins. Pourtant, les sciences constituent une façon de s’élever socialement. En effet, elles s’apprennent à l’école. On n’a pas besoin d’une culture familiale substantielle en amont, comme cela peut être le cas pour intégrer Sciences Po, par exemple. Il vaut mieux connaître quelques codes et être accompagné par sa famille pour accéder à cette dernière. C’est bien différent dans le cadre des sciences. Dans ma famille, on a commencé par devenir techniciens. Puis, les enfants de techniciens sont devenus ingénieurs.

Les sciences permettent ensuite d’aller partout. Il ne faudrait pas perdre les filles qui s’y orientent. Nous devons les garder.

Comment attirer plus facilement les filles ou les garçons ? Nos stéréotypes sont très forts : on veut que l’homme, dans un couple, rapporte de l’argent, et que la femme exerce un métier de sens. On voit moins de sens aux sciences, ou on en explique moins le sens. Pourtant, il est bien présent. L’interdisciplinarité peut contribuer à dépasser cette vision erronée.

L’École spéciale des travaux publics dont je suis issue a mieux réussi à attirer des filles dans la filière bâtiment lorsqu’elle a lancé un double cursus d’ingénieur architecte. Celui‑ci permet d’étudier la conception du bâtiment, et la façon de le faire tenir. On peut y voir plus de sens.

Je retiendrai la notion d’interdisciplinarité dans le cadre de nos travaux futurs. Merci beaucoup. C’était très intéressant.

M. Elyes Jouini. – On parle de codes, qu’ils soient sociaux ou culturels. Ils sont très difficiles à acquérir quand on ne part pas du bon pied. S’y ajoutent les codes de l’orientation. Des études aux États‑Unis ont montré que les filles ne choisissent pas des filières moins sélectives ou moins difficiles que les garçons. En revanche les garçons choisissent les filières les plus rémunératrices dix ans après le diplôme, et les filles se répartissent plus largement sur l’ensemble des filières.

Cette information concernant les carrières et les possibilités qui se cachent derrière les différentes filières d’enseignement sont peu connues des jeunes, ou pas de manière uniforme. De plus, nous avons évoqué le rôle des parents. S’ils donnent des injonctions à leurs enfants pour qu’ils travaillent bien à l’école, une injonction secondaire est peut‑être plus donnée aux garçons qu’aux filles : « Si tu n’arrives pas à être bon en tout, concentretoi sur les mathématiques, sur la physique, sur les disciplines scientifiques. » On laissera en revanche la fille choisir librement sa filière.

La liberté est opportune, mais on doit être bien informé pour qu’elle le soit. Nous en revenons toujours au rôle des parents. Si un garçon qui est bon en tout dit vouloir suivre des études d’histoire ou de français, on va lui dire « oh, mais c’est dommage, quand même, tu pourrais faire ingénieur ». En revanche, si la fille est bonne en tout et tient le même discours, on lui répondra « mais l’essentiel, c’est que tu t’épanouisses, ma fille ». À la limite, si elle dit « je vais faire des études d’ingénieur », elle s’entendra dire « mais c’est vraiment un univers extrêmement dur ». Ce n’est pas faux. On voit tous les jours dans nos écoles d’ingénieur, dans nos filières scientifiques, qu’il y règne un sexisme ambiant, une pression extrêmement importante sur les femmes. Des agressions sexistes et sexuelles y ont lieu. Les travaux de Clémence Perronnet montrent que les filles sont exposées tout au long de leur scolarité à une série de mini‑agressions, sans parler des agressions majeures, qui auront pour effet de les éloigner des disciplines et des parcours scientifiques. Ce n’est donc pas qu’une question de modèle. Nous avons des problèmes de société profonds à aborder de manière courageuse.

Mme Hélène Deckx Van Ruys. – Nous observons une prise de conscience des écoles vis‑à‑vis de ces agressions et de ce sexisme ambiant. Elles appliquent de plus en plus une politique de tolérance zéro vis‑à‑vis des agressions verbales ou des actes déplacés. Les lignes sont en train de bouger.

Permettez‑moi une légère digression. Vous parlez de métiers rémunérateurs, qui m’évoquent évidemment la question de l’écart salarial entre les femmes et les hommes. À ce sujet, nous manquons cruellement d’éducation financière. Nos parents nous conseillent d’ouvrir un plan épargne logement ou d’épargner, mais ces recommandations basiques ne sont pas poussées. Les garçons tendent davantage vers cette éducation financière. À mes yeux, il est très important d’en créer une pour les garçons, mais aussi et surtout pour les filles. Par ailleurs, pourquoi ces dernières sont‑elles moins payées ? Elles ne négocient pas leurs salaires, ce que font les hommes. De la même manière, elles n’osent pas demander d’augmentation lorsqu’elles avancent dans leur carrière. Je pars du principe que « ce qui ne se dit pas ne se sait pas ». L’ancien président de SAP France, Gérald Karsenti, disait qu’un compliment n’était pas une augmentation. Là aussi, il nous reste du travail.

Mme Sarah CohenBoulakia. – J’aimerais rebondir sur l’interdisciplinarité, et sur l’école. En France, nous restons dans un vocable assez élitiste, dans lequel les grandes écoles ne représentent pas, en termes de pourcentage, une sortie sur le marché aussi importante que les universités.

Je me permets aussi de faire un petit clin d’œil à un certain nombre d’articles récemment publiés, qui montrent que les doubles diplômes de licence sélectifs permettent aussi bien que des classes préparatoires aux grandes écoles d’entrer dans les très grandes écoles d’ingénieurs. La proportion de filles y est plus forte, puisque, par défaut, elles ont l’impression que la compétition y sera moins importante. Je pense que l’université aussi est multiforme et a besoin de s’ouvrir.

Ensuite, un peu comme la vision selon laquelle les écoles d’ingénieurs seraient l’élite et ce qui reste reviendrait un peu à la masse, la discipline est vue comme un élément sérieux et l’interdisciplinarité serait réservée à ceux qui ne sont bons ni dans l’un ni dans l’autre. Là encore, il nous reste un sacré travail à faire. L’interdisciplinarité ne revient pas à tout mélanger, mais à devenir particulièrement fort dans les deux disciplines. Une fois encore, les doubles diplômes de licence n’accueillent pas des étudiants qui ne savent faire ni l’un ni l’autre, mais des étudiants meilleurs à la fois dans la première et dans la seconde discipline. Ils reçoivent deux diplômes à la fin de leur cursus.

Mme Marine Rabeyrin, responsable du groupe Femmes & IA du Cercle InterL, directrice Europe – Afrique – Moyen-Orient Segment Éducation chez Lenovo. – J’aimerais d’abord vous entendre sur la reconversion : nous évoquons les manières d’attirer les filles vers les métiers de l’intelligence artificielle, mais comment attirer les femmes qui s’inscrivent déjà dans un parcours professionnel ? La variété des métiers de l’intelligence artificielle est très large. Même sans avoir suivi d’études scientifiques, on peut s’orienter dans cette voie. Certaines d’entre nous en sont la preuve.

Par ailleurs, j’aimerais connaître votre position sur la désertion des femmes qui ont suivi des études scientifiques et entamé des carrières associées, puis qui s’en éloignent.

Mme Hélène Deckx Van Ruys. – Nous avons besoin de filles dans les STEM (Science, Technology, Engineering, and Mathematics), mais il y a de la place pour tout le monde dans l’IA. Nous avons besoin de femmes ingénieures qui soient au cœur du réacteur pour construire les algorithmes, mais nous voulons aussi plus de femmes présentes dans les autres fonctions, telles que le marketing. La diversité est source de performance.

J’ai oublié de mentionner la reconversion. Merci de me le rappeler. Je pense à l’association Social Builder, première association experte de l’accompagnement et de l’inclusion des femmes dans le numérique, fondée en 2011 par Emmanuelle Larroque. Elle réalise un travail formidable pour les femmes des milieux défavorisés, en reconversion, quel que soit leur âge. Nous pouvons donner un tournant à notre vie, quel que soit notre bagage académique, qui peut être inexistant.

M. Stéphane Piednoir, président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (Opecst). – Quand j’étais professeur de mathématiques, j’exerçais dans le secondaire, puis dans le supérieur, en classes préparatoires aux grandes écoles. Dans une classe de seconde, j’avais donné aux élèves de petits exercices d’intersections dans l’espace, qui posent généralement des soucis de visualisation. Une jeune fille butait sur un de ces problèmes. Quand j’ai essayé de le lui expliquer, tant bien que mal, elle m’a dit « Ne vous donnez pas de mal, de toute façon, je suis une fille, donc on sait bien que la vision dans l’espace n’est pas faite pour les filles. » J’ai failli en tomber de ma chaise. Je lui ai demandé d’où lui venait cette idée, mais elle n’a pas été capable de me répondre.

Cette expérience rejoint vos interventions selon lesquelles les jeux sont faits en seconde. Les stéréotypes sociaux sont déjà totalement ancrés. Ce témoignage vaut ce qu’il vaut. Il est un exemple parmi d’autres et est assez révélateur, bien qu’en bon matheux, je n’aime pas la démonstration par l’exemple.

Bien sûr, le vivier des jeunes filles dans les filières scientifiques – je regrette d’ailleurs la disparition de la filière scientifique au lycée – est déséquilibré. Le lycée au sein duquel j’enseignais proposait des bacs scientifiques, puis des classes prépa scientifiques et littéraires, mais aussi ce que l’on appelait les prépas HEC. Le déséquilibre y était encore plus flagrant : les prépas scientifiques comptaient peu ou prou une fille pour quinze garçons, tandis qu’on était proche de la parité dans les filières de management. J’en déduis – et vous pourrez me donner votre avis sur la question – que le fait de s’enfermer dans un cursus entièrement scientifique peut faire peur aux filles, et encore plus dans les prépas scientifiques que dans les écoles de management. Une prépa HEC propose pourtant des mathématiques à haute dose, mais aussi beaucoup de langues, de littérature, d’histoire ou de géopolitique. Nous devons peut‑être travailler sur ce biais.

Enfin, j’ai entendu ma collègue Laure Darcos parler de « sciences dures ». C’est une bataille que je mène depuis plusieurs années. Comment voulez‑vous donner envie à des jeunes de s’inscrire dans un cursus où ils feront des « sciences dures » ? La moitié du public est déjà découragée par cette évocation. Les jeunes filles sont peut‑être encore plus sensibles à cet aspect. On fait l’effort de nommer les sciences humaines et sociales comme telles, en intégralité. D’ailleurs, on utilise volontiers l’acronyme « SHS », qui ne choque personne. Je pense qu’on peut donc parler de « sciences exactes et expérimentales », et employer le sigle « S2E ».

Mme Corinne Narassiguin, sénatrice de la Seine-Saint-Denis. – Merci beaucoup pour vos présentations et vos témoignages. Personnellement, j’ai fait Maths sup, avant de rejoindre une école d’ingénieur en télécommunication à la fin des années 1990, à l’époque du boom naissant de l’internet et des réseaux mobiles. On aurait pu penser que les opportunités économiques de métiers extrêmement diversifiés créées par cet essor auraient suscité plus de vocations.

J’ai discuté une dizaine d’années plus tard avec le directeur de mon école d’ingénieur. Il s’inquiétait du recul du nombre de jeunes femmes qui y étudiaient. Entre‑temps était née la réputation du travail dans le numérique : un monde très masculin, extrêmement dur, avec des horaires très difficiles qui ne permettaient pas un bon équilibre entre vie personnelle et vie familiale. Peut‑être est‑ce un stéréotype, ou une réponse aux attentes sociales, mais les femmes adoptent une approche plus équilibrée en général, en raison des charges qu’elles assument dans la société. Elles cherchent sûrement un équilibre, plus qu’une rémunération.

Je pense que l’interdisciplinarité peut être encore plus mise en avant grâce à l’intelligence artificielle, qui comprend un nombre important de domaines d’intervention. Pour autant, je ne suis pas sûre qu’on sache valoriser les métiers et le travail dans ce milieu professionnel, privé en particulier, et dans la recherche. J’ai travaillé essentiellement dans le privé, aux États‑Unis et en France. J’identifie une vraie question de valorisation des métiers très tôt, de manière à agir sur la question de l’orientation le plus tôt possible, pour casser ces stéréotypes.

J’ai pu constater qu’en général, une femme travaillant dans un milieu masculin – c’est vrai en politique également – n’a ni le bénéfice du doute, ni le droit à l’erreur. C’est peut‑être encore plus vrai en France qu’aux États‑Unis. C’est vraiment un problème d’éducation en général. Nous devons casser les stéréotypes pour les femmes, les jeunes filles, mais aussi pour les garçons.

M. Elyes Jouini. – Je crois que la baisse du nombre de filles dans les filières informatiques peut être liée à l’image véhiculée vis‑à‑vis de ces métiers, mais ce n’est pas un hasard. Dans les années 1980, l’informatique était une discipline de service. Elle devient aujourd’hui une discipline reine, un enjeu de pouvoir. Comme par hasard, les femmes s’en retrouvent évincées, de manière indirecte, via des stéréotypes colportés. Nous devons nous poser des questions sur les rapports de force et les enjeux de pouvoir.

Permettez‑moi de vous conter une anecdote. Lorsque je suis arrivé en classe préparatoire, nous y faisions encore du dessin industriel ou du dessin technique. Comme la jeune fille évoquée plus tôt, je ne parvenais pas à voir dans l’espace. À la première difficulté, mon professeur me dit : « Non, mais c’est normal, vous les Maghrébins, vous ne voyez pas dans l’espace. » À partir de ce moment‑là, j’ai arrêté de m’investir dans cette discipline, je me suis reporté sur d’autres. Cette matière n’était pas la plus importante en prépa, donc cela ne m’a pas porté préjudice. Il n’en reste pas moins qu’il est très facile d’enclencher des mécanismes de censure en disant : « Ce n’est pas fait pour moi, je passe à autre chose. »

Par ailleurs, les filles ont tendance à chercher des filières ou formations pluridisciplinaires. Elles s’investissent plus uniformément. Nous le constatons dans le secondaire : une fille bonne en français est très souvent aussi bonne en maths, en histoire, en langue, etc., alors que les garçons présentent des profils plus pointus. Ainsi, les filles auront plus le choix. Si elles se voient limitées par leurs capacités en maths ou en informatique, pour quelque raison que ce soit, elles ont la possibilité de se reporter vers d’autres types d’études. C’est moins le cas des garçons.

Offrir des filières mixtes, qui proposent de la pluridisciplinarité, est une manière de les attirer. Ces filières correspondent en outre à des besoins de la société. De plus, prendre en compte ces compétences dans les critères de sélection est aussi un moyen d’attirer plus de filles.

Je l’indiquais plus tôt, je rentre de Toulouse. J’y discutais avec des enseignants de l’Insa (Institut national des sciences appliquées), qui accueille 40 % de filles, plus que dans les autres Insa du territoire. Dans ses critères de sélection, l’école prend en compte les notes de mathématiques, de physique, mais aussi de langue, de français. La pondération n’avantage pas les filles, mais permet une pleine prise en considération de leurs compétences. Ainsi, nous devons peut‑être réfléchir à nos critères de sélection. Il est trop facile de se dire « on a juste pris les meilleurs, et tant pis, ça n’était que des garçons, on va faire avec. »

Mme Laure Darcos, vice-présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Je vous propose de passer à la deuxième table ronde. Merci à nos trois intervenants. Je remercie également toute l’équipe de la délégation d’avoir orchestré cette table ronde très intéressante.

M. Stéphane Piednoir, président de l’Opecst. – Mesdames, Messieurs, chers collègues, j’introduirai cette table ronde en tant que président de l’Opecst. Je salue notre premier vice‑président, le député Pierre Henriet. Notre délégation bicamérale comptant dix‑huit députés et dix‑huit sénateurs connaît une présidence tournante entre l’Assemblée nationale et le Sénat tous les trois ans. J’ai pris sa relève en octobre dernier.

Le sujet qui nous rassemble ce matin a, pour l’Office parlementaire d’évaluation des choix scientifiques et technologiques, une grande importance, et ceci à double titre.

D’abord, bien sûr, parce l’intelligence artificielle est un sujet scientifique et technologique, placé au cœur des missions de l’Opecst. S’il est aujourd’hui un domaine où tout choix technologique est en même temps un choix politique, c’est bien celui‑ci. L’Office a déjà publié plusieurs travaux sur le sujet, et les évolutions spectaculaires des dernières années ont conduit les Bureaux de l’Assemblée nationale et du Sénat à nous en saisir officiellement. Nos rapporteurs, les députés Huguette Tiegna et Alexandre Sabatou et les sénateurs Corinne Narassiguin et Patrick Chaize, se consacrent actuellement à ces travaux. Ils rendront leur rapport au début de l’été.

Par ailleurs, la faible présence des femmes dans les métiers scientifiques en général est aussi une préoccupation de longue date de l’Office – nous avions d’ailleurs organisé un grand colloque sur le sujet en juin 2018 à l’Assemblée nationale, là aussi avec la délégation aux droits des femmes, celle du Sénat et celle de l’Assemblée nationale.

Sur ces deux aspects – l’IA et la place des femmes dans les sciences –, je veux évidemment saluer le rôle de Cédric Villani, ancien président de l’Office, auteur par ailleurs du rapport de 2018 à l’origine de notre stratégie nationale en matière d’intelligence artificielle.

Avec la première table ronde, nous nous sommes interrogés sur la place des femmes dans les métiers de l’IA. Voyons maintenant ce qu’il en est du côté des IA elles‑mêmes, avec une table ronde consacrée à la question des biais algorithmiques, et plus précisément des biais de genre des intelligences artificielles. Pour le dire de manière provocatrice, l’IA est‑elle sexiste ?

La langue anglaise a ceci de particulier qu’elle n’oblige pas à choisir entre masculin et féminin, ou du moins plus rarement qu’en français – pensez au nom des métiers, par exemple. Et pourtant, si vous demandez à une IA générative comme DALLE ou Midjourney de représenter une personne exerçant tel ou tel métier, sans préciser s’il s’agit d’un homme ou d’une femme… eh bien vous aurez presque toujours un médecin mais une infirmière, un PDG mais une secrétaire, etc. Et je vous passe les différences d’âge, de physique, et tout le reste.

Comment se fait‑il qu’on en soit arrivés là, avec des IA qui finalement reproduisent, voire amplifient, les stéréotypes ?

Il faut bien comprendre – et c’est l’objet de notre table ronde – qu’il y a ici un problème spécifique à l’apprentissage par intelligence artificielle, par opposition à l’informatique « classique », fondée sur des règles programmées explicitement.

Avec l’IA, on ne dit pas à la machine qu’il y a des métiers d’hommes et des métiers de femmes, on la laisse construire ses propres règles à partir des données utilisées pour son « entraînement ». Et si dans ces données 90 % des secrétaires sont des femmes, alors une réalité statistique deviendra un biais algorithmique, c’est‑à‑dire une règle prescriptive et potentiellement discriminatoire.

Mais alors, que faire ? Bien sûr, on peut contraindre l’IA au moment de sa réponse – on parle d’« alignement » : « tu représenteras autant d’infirmiers que d’infirmières » –, mais on perçoit bien les limites d’une telle solution, forcément ponctuelle, arbitraire et chronophage. On peut aussi, et surtout, intervenir en amont, sur les données d’entraînement et sur les algorithmes. Mais comment ? Selon quels critères ? Décidés par qui ? Il est difficile de répondre : les IA sont aujourd’hui des boîtes noires pour un grand nombre d’entre nous. Leur secret est assez difficile à percer.

Bref, il faut commencer par comprendre comment tout cela fonctionne, et c’est pourquoi je vous propose de passer d’abord la parole à Jessica Hoffmann, dont c’est le métier chez Google, dans le cadre du programme de recherche PAIR (pour People + AI Research).

Mme Jessica Hoffmann, chercheuse dans l’équipe Pair (People + AI Research) de Google. – Bonjour à toutes et à tous. Je suis une ancienne élève de l’École normale supérieure de Paris-Saclay, où j’ai suivi un cursus en informatique avant de rejoindre l’université de Houston au Texas. J’y ai soutenu une thèse sur l’intelligence artificielle, puis ai fait un post‑doctorat sur l’implémentation algorithmique de l’éthique. J’ai ensuite intégré Google, et l’équipe d’intelligence artificielle responsable.

Si l’on veut apprendre à un algorithme qui embaucher, on va lui donner un historique de CV reçus et lui indiquer qui a été embauché et qui ne l’a pas été. Ensuite, l’algorithme va apprendre seul les paramètres importants – par exemple, l’école ou les stages réalisés – et ceux qui ne le sont pas, tels que nos passe‑temps.

Malheureusement, si des discriminations ont eu cours dans le passé, l’algorithme va apprendre seul qu’être une femme, ce n’est pas bien, par exemple. Il donnera donc aux femmes un score inférieur à celui des hommes. C’est mathématique. L’IA reflète les biais des données.

Ainsi, à la question « L’IA estelle sexiste ? », la réponse est oui. Pour un chercheur, c’est une non question. L’IA est sexiste, parce qu’elle reflète les biais de la société.

Aujourd’hui, je vous expliquerai ce que nous pouvons mettre en œuvre pour lutter contre ce phénomène.

De la même façon que les mathématiques couvrent plusieurs disciplines, dont l’algèbre ou la géométrie, l’intelligence artificielle est très large. Elle est composée de domaines très différents dont trois principaux : la classification, la recommandation et l’IA générative. D’abord, les données peuvent être classifiées. Par exemple, doit‑on embaucher quelqu’un ou non ? Dans ce cadre, les problèmes de sexisme correspondent surtout à des problèmes d’erreur : à compétence égale, on va dire qu’on n’embauche pas une femme, mais on va embaucher un homme. Je ne vous ai pas donné cet exemple par hasard. Un énorme scandale a éclaté en 2018 lorsqu’on a constaté qu’un algorithme utilisé pour le recrutement était sexiste, entre autres problèmes.

Ensuite, la recommandation : lorsque vous finissez de regarder une vidéo sur YouTube, l’algorithme vous en propose une autre. Dans ce cas, les problèmes de sexisme relèvent surtout d’une invisibilisation du contenu des femmes.

Enfin, l’IA générative correspond aux modèles avec lesquels on peut discuter, comme Gemini de Google ou ChatGPT. Ils peuvent inventer des poèmes, par exemple. Là, les problèmes de sexisme sont surtout des problèmes de stéréotypes.

Ma recherche concerne l’IA générative. Je me concentrerai donc sur ce volet.

Une révolution technique a eu lieu en 2018. Ce qu’on peut faire aujourd’hui n’a rien à voir avec ce qu’on pouvait faire par le passé. Aujourd’hui, la technologie derrière les IA génératives s’appelle Large Language Model, ou LLM. Ces modèles sont entraînés avec tout ce qui se trouve en accès libre sur Internet. Ils apprennent quels mots sont dits dans quel contexte avec quels autres mots. Ils apprennent aussi à faire attention aux mots importants.

Par définition, un LLM apprend des corrélations qui lui permettront de formuler des phrases grammaticales, mais aussi à répondre de façon « normale ». C’est ce qui donne l’illusion que le modèle nous comprend. Tout est dans ce « normal », étant donné que la norme a trait aux stéréotypes. Ceux‑ci peuvent être inoffensifs. Par exemple, si on dit « le chat est », très souvent, le modèle répondra « mignon », parce qu’Internet adore les chats. Mais si on dit « les femmes sont », la réponse pourra être très toxique, parce qu’Internet n’est pas forcément très gentil avec les femmes.

Si nous utilisons les LLM sans faire attention à ce phénomène, ils peuvent être toxiques. Aujourd’hui, personne n’utilise les LLM tels quels. On leur applique des mesures pour les rendre plus éthiques.

Une première idée est la suivante : si les LLM sont toxiques parce qu’ils ont vu des données toxiques, on n’a qu’à ne leur donner aucune donnée toxique. Cette solution est inefficace. D’abord, il n’existe pas de consensus sur ce qui n’est pas discriminatoire. Même si c’était le cas, nous aurions besoin d’humains pour vérifier que les données qui alimentent l’algorithme ne sont pas discriminatoires, et il faudrait des millions, voire des milliards d’interventions si tout le monde s’y mettait. Et ce ne serait même pas suffisant pour entraîner un LLM, qui a besoin de millions de millions d’occurrences.

Il existe d’autres techniques dont je voudrais vous parler. Un secteur de la recherche s’intéresse au model alignment, ou alignement de modèles, dont le but est d’aligner les modèles avec des valeurs éthiques telles que le respect ou la véracité des faits. Il existe beaucoup de techniques : le finetuning, le prompt tuning, le reinforcement learning from human feedback. Le principe de base reste le même : on cherche à émuler certains exemples et à en éviter d’autres. Le modèle apprendra sur cette base. On peut faire beaucoup grâce à ces techniques.

Souvent, le problème n’est pas technique, il relève des ressources. C’est le point le plus important de mon intervention. Aujourd’hui, on peut faire beaucoup de choses mais peu d’organisations se donnent les moyens humains et financiers de mettre en place ce qu’on sait déjà faire.

De plus, en matière d’intelligence artificielle, nous manquons de données en français. Une énorme partie des données dont nous disposons sont en réalité traduites de l’anglais de manière automatique. Ce n’est donc pas du vrai français.

Or, nous avons besoin de ces données pour deux raisons. D’abord, pour que les modèles soient plus éthiques, ce qui nécessite de disposer de données éthiques. Ensuite, pour la vérification qui est très importante. Elle permet de s’assurer qu’un algorithme n’est pas sexiste, sans avoir à faire aveuglément confiance à ses créateurs lorsqu’ils affirment que c’est le cas.

En conclusion, vous nous demandiez si l’intelligence artificielle était sexiste. La réponse est oui, mais j’espère que ma présentation vous a montré qu’il existe aujourd’hui des solutions prometteuses pour y remédier. Les biais sexistes, racistes ou encore homophobes dans l’intelligence artificielle font l’objet de recherches très actives depuis de nombreuses années. Nous n’avons pas attendu l’IA générative pour nous y intéresser.

Enfin, en tant que chercheuse à Google, je me permets aussi de rappeler qu’en 2018, l’entreprise a publié une charte éthique, Les principes d’une IA responsable. Elle encourage, entre autres, à ne pas créer ni amplifier les discriminations existantes. Elle guide le développement des produits de Google, qui a créé une équipe internationale travaillant uniquement sur l’IA responsable. J’en fais partie. Nous encourageons toute la communauté à se doter de chartes éthiques similaires et à se donner les moyens de les suivre.

M. Stéphane Piednoir, président de l’Opecst. – Merci pour votre intervention. Poursuivons notre débat et nos interrogations : comment identifier ces biais en pratique, et mesurer leur impact ? Quelles mesures concrètes peut‑on mettre en œuvre pour les prévenir ? L’Institut Montaigne s’est déjà penché sur ces questions dans un rapport de 2020 : est‑il toujours d’actualité à l’heure de ChatGPT ? Sa rapporteure générale, Tanya Perelmuter, cofondatrice de la Fondation Abeona, pour une IA responsable, nous le dira.

Mme Tanya Perelmuter, co-fondatrice et directrice de la Fondation Abeona. – Merci, Mesdames et Messieurs, de m’accorder ce temps d’intervention. Je suis ravie de partager avec vous mes réflexions sur ce sujet très important. Je suis ingénieure de formation. J’ai fait mes études à l’université de Columbia, aux États‑Unis, où j’ai été profondément marquée de ne faire partie que de la deuxième promotion d’ingénieurs acceptant les filles. Nous ne représentions que 10 % de l’effectif, quelques années avant l’essor d’Internet. Très peu de femmes travaillaient sur les technologies qui allaient révolutionner le monde, pas parce qu’elles ne le souhaitaient pas, mais parce qu’elles en étaient exclues.

Pendant toute ma carrière au service des infrastructures et des technologies des données, j’ai été très attentive aux sujets de représentativité des femmes. C’est la raison pour laquelle j’ai cofondé en 2018 la Fondation Abeona pour promouvoir l’intelligence artificielle responsable et contribuer à un monde plus juste, durable et inclusif.

L’un de nos premiers constats concernait les biais dans les algorithmes. Les gens en avaient peur, ne comprenant pas de quoi il s’agissait. Toute la recherche, tous les travaux, tous les discours sur le sujet venaient des États‑Unis. Nous avons donc créé un groupe de travail pour implanter ces réflexions en France. Nous avons produit un rapport, dont je suis rapporteure générale.

L’IA est‑elle sexiste ? Contrairement à ce que dit Jessica, je dirai qu’elle ne l’est pas en soi, puisqu’elle est une technologie, mais elle est programmée par des humains et entraînée sur des bases de données qui reflètent la réalité de nos sociétés. Les résultats qu’elle délivre peuvent donc inclure un biais de genre.

On distingue deux types de biais : les biais des sociétés, présents dans les données utilisées par l’algorithme pour apprendre, et les biais techniques, qu’on introduit pendant le processus de développement d’algorithmes. L’intelligence artificielle va standardiser et diffuser largement ces biais une fois qu’ils sont appris.

Mais qu’est‑ce qu’un biais ? C’est simplement un écart entre ce que dit l’algorithme et les résultats justes. Qu’entend‑on par « résultats justes » ? Pour y répondre, je vais prendre quelques exemples.

Les données peuvent être biaisées, mais leur sélection faite par les ingénieurs peut aussi créer des biais dans les algorithmes. En 2018, Amazon a décidé d’automatiser ses recrutements, en donnant à l’intelligence artificielle les données à sa disposition, à savoir les CV des personnes qui travaillaient déjà dans l’entreprise, en majorité des hommes. L’intelligence artificielle a donc compris qu’elle devait évincer les femmes, mais aussi les hommes dont le CV laissait apparaître le mot « femme », parce qu’ils entraînaient une équipe féminine de basketball, par exemple.

Il existe également un biais dans les données. Une équipe de chercheuses s’est aperçue qu’il existait moins de pages Wikipédia sur des femmes que sur des hommes. À titre d’exemple, Donna Strickland n’avait aucune page Wikipédia, contrairement à d’autres prix Nobel de physique. Les femmes manquaient. Cette équipe a alors décidé de moissonner largement les données disponibles sur Internet pour générer automatiquement des articles sur les femmes. À cette occasion, les chercheuses se sont aperçues que ces articles étaient beaucoup plus courts lorsqu’ils concernaient des femmes que des hommes, qu’ils étaient plus pauvres en informations. Ils traitaient un peu de leur profession, avant de se recentrer rapidement sur leur mari. En outre, les articles sur les actrices et autres personnalités féminines comportent toujours des descriptions physiques. Ce n’est pas le cas lorsqu’ils concernent les hommes. Si l’on utilise ce genre de données pour nos intelligences artificielles génératives, elles reproduiront évidemment ces stéréotypes et ces biais. Nous devons y être attentifs.

Ensuite, j’ai demandé à ChatGPT il y a un an de rédiger un poème sur les femmes en blouse. J’imagine que depuis, l’équipe a tenté de corriger ce biais, mais permettez‑moi de vous donner lecture de sa réponse : « Si vous voyez une femme en blouse de laboratoire, elle ne fait que nettoyer le sol, bien sûr. Mais si vous voyez un homme en blouse de laboratoire, ses connaissances et compétences sont à votre portée avec un peu de détours. » On se demande de quels détours il s’agit, mais c’est évidemment un biais. De même, si je demande à une IA générative de générer l’image d’une femme en blouse, il est probable que j’obtienne la représentation d’une femme qui fait le ménage.

Le dernier exemple que j’aimerais exposer, un peu controversé, ne concerne même pas l’intelligence artificielle, mais celui de personnes qui ont entraîné un algorithme sur des données existantes. La Caisse nationale d’allocations familiales (CNAF) a décidé de prévenir les fraudes en trouvant des profils d’allocataires susceptibles d’avoir commis des irrégularités. Les responsables ont décidé eux‑mêmes des critères qui pourraient s’apparenter à « fraude ». Ils ont identifié les familles monoparentales, composées à 80 % de femmes. Ils ont donc stigmatisé des femmes, manuellement. Si l’intelligence artificielle avait été déployée sur ces dossiers, elle aurait fait mieux que les individus à l’origine de cet outil. L’IA n’est pas toujours mauvaise. Elle peut être très utile pour détecter des biais.

Quelles sont les solutions ? D’abord, d’un point de vue technique, nous devons tester les algorithmes, exiger la transparence et des paramètres de contrôlabilité. Surtout, nous devons comprendre sur quelles données ils ont été entraînés. Il me semble que les solutions doivent surtout être d’ordre sociétal et politique. Si la société est sexiste, l’intelligence artificielle a toutes les chances de le devenir. Pour cette raison, il nous faut mieux représenter les femmes dans les métiers technologiques. Si la représentation de notre société est plus égalitaire, l’IA le sera également.

Ainsi, nous avons besoin de plus de femmes dans les métiers scientifiques et technologiques. Nous devons également former les citoyens, leur faire comprendre les enjeux de ces technologies pour réduire les inquiétudes. La Fondation Abeona a d’ailleurs créé un cours gratuit sur l’intelligence artificielle, avec l’aide de partenaires. Il est disponible sur Internet, accessible à tous, et ne demande pas de prérequis mathématiques. Nous avons aujourd’hui formé et sensibilisé plus de 300 000 personnes à l’IA en France. Nous avons développé ce cours en français, puis l’avons traduit en anglais.

Nous espérons que le nombre de personnes formées sur ces sujets augmentera progressivement. Le Canada essaie d’y former ses citoyens.

Pour aller plus loin, la Fondation Abeona, l’École normale supérieure-PSL et l’Université Paris Dauphine-PSL ont créé L’Institut IA & Société. Ce dernier a pour mission de rechercher, informer, former et influencer. Nous espérons produire des travaux que vous pourrez consulter. Ce sexisme doit prendre fin. Les femmes doivent être visibles dans nos sociétés.

M. Stéphane Piednoir, président de l’Opecst. – C’est un travail de longue haleine, qui doit passer par une féminisation des métiers et des formations scientifiques.

Pour conclure cette table ronde, nous allons aborder l’enjeu de sensibilisation des acteurs et utilisateurs de l’IA : c’est l’objectif que s’est donné le Cercle InterElles, avec son groupe Femmes & IA dont nous recevons la responsable, Marine Rabeyrin, directrice du segment Éducation chez Lenovo.

Mme Marine Rabeyrin, responsable du groupe Femmes & IA du Cercle InterElles, directrice du Segment Éducation Europe-Afrique-Moyen-Orient chez Lenovo. – Merci de m’accueillir. Je suis directrice du segment Éducation Europe chez Lenovo. Au travers de ma présentation, je chercherai à illustrer le fait que pour agir sur les questions d’IA, il n’est pas nécessaire d’avoir embrassé des carrières scientifiques, mais il faut faire preuve de curiosité.

Le Cercle InterElles s’est emparé de ce sujet. On y trouve des profils divers, issus de la Tech, mais aussi du commerce, de la supply chain ou encore des ressources humaines.

J’aimerais ajouter deux biais aux exemples cités précédemment. Le premier est observé dans le monde de la finance. L’Apple Card accordait des crédits moindres aux femmes qu’aux hommes à situation socioprofessionnelle équivalente. On parle effectivement de besoin d’éducation à la finance, mais si les algorithmes discriminent aussi les femmes sur ces sujets, comment faire ?

Par ailleurs, en tant que directrice de l’éducation, j’aimerais insister sur des biais mis en avant par une étude de Stanford sur les orientations scolaires. Certains outils basés sur l’intelligence artificielle amenaient les femmes à considérer de manière moindre les carrières dans les mathématiques notamment.

Les exemples sont encore trop nombreux. Que pouvons‑nous faire ? Comment les entreprises peuvent‑elles agir ? Pour y répondre, je commencerai par vous présenter le Cercle InterElles, une association de réseaux, de mixité, autour de quinze entreprises du secteur technologique et industriel potentiellement productrices, ou au moins utilisatrices, d’intelligence artificielle. Le Cercle InterElles réunit ces réseaux qui agissent pour plus d’égalité professionnelle entre les femmes et les hommes, à l’image de ce que fait le Laboratoire de l’égalité depuis de nombreuses années. En 2018‑2019, face au scandale des outils de recrutement, nous avons cherché des solutions pour accompagner les entreprises qui produiront ou utiliseront de plus en plus de solutions d’intelligence artificielle de manière à les inciter à le faire de façon responsable et non sexiste.

Puisque nous représentons les secteurs technologiques et industriels, nous voulions montrer qu’il était possible d’agir sur cette question, et donner l’exemple. Nous désirions également proposer une démarche simple, accessible, pour de grandes entreprises comme les nôtres, mais aussi pour des startup, des écoles ou tout acteur ayant envie d’agir et de comprendre les bases à poser pour être meilleur dans ce domaine.

La démarche que nous proposons est le fruit d’une recherche menée en 2018 et 2019. Nous avons dressé un inventaire de toutes les bonnes pratiques émises, valorisées et créées jusqu’alors, et de nos connaissances d’experts dans les différents domaines. Nous avons identifié une convergence de points de vue de différentes entreprises, un consensus sur la bonne démarche à employer. Nous nous rejoignions sur le fait que cette démarche est un voyage. Elle doit s’inscrire dans le temps. Elle doit commencer par un engagement : les entreprises doivent déclarer leur volonté d’agir, même si elles ne savent pas comment le faire. Elles peuvent signer des chartes ou prendre la parole publiquement, ce qui leur permet d’ancrer et de trouver un point de départ à leur démarche. Elles peuvent également créer une émulation dans leur écosystème d’entreprises, de partenaires, de concurrents.

Aujourd’hui, une quinzaine d’entreprises ont déjà signé la charte Femmes et IA pour une IA responsable et non sexiste. Cela les aide à prendre position.

La deuxième démarche consiste, pour les sociétés, à s’évaluer. On pense que les entreprises, y compris technologiques, sont très matures en matière de compréhension de leur situation sur les questions de traitement de l’IA. Ce n’est pas si simple, ni évident. Les petites entreprises manquent de moyens. Dans les grandes entreprises, tant de choses sont mises en place qu’il n’est pas aisé d’identifier tout ce qui s’y passe. Il est donc important de se poser les bonnes questions et de s’évaluer.

Pour ce faire, nous avons créé une grille d’évaluation. Elle reprend les sept grands thèmes sur lesquels nous pensons qu’il est nécessaire d’agir – j’y reviendrai tout à l’heure – en expliquant comment être exemplaire en la matière. L’entreprise pourra s’identifier en réalisant des audits internes, afin de définir son niveau de maturité sur la manière de se préoccuper et d’embrasser la question de l’IA égalitaire et non sexiste. Cette grille d’évaluation, gratuite, est mise à disposition de toutes les entreprises. Elle ne constitue pas un audit. Les sociétés peuvent s’en emparer pour procéder à leur propre évaluation. C’est une première étape d’engagement après la déclaration d’une volonté.

Une fois que l’entreprise a identifié son niveau de maturité, ses points forts et les domaines dans lesquels elle est moins avancée, elle peut passer à l’action. Le Cercle InterElles a créé une boîte à outils qui leur offre des éléments concrets à mettre en place sur les volets sur lesquels elles veulent avancer. Nous avons produit ces outils et dressé un inventaire de l’existant au sein de notre écosystème. Nous mettons en avant un certain nombre de démarches, d’initiatives d’autres partenaires qui œuvrent sur des IA responsables et non‑sexistes. Nous mettons un point d’honneur à valoriser toutes les initiatives qui vont dans la bonne direction.

Enfin, le dernier pilier est celui de l’exemplarité. Les entreprises doivent montrer qu’il est possible d’agir, de partager les bonnes pratiques. En créant une émulation autour de soi, on emmène d’autres personnes à se poser les bonnes questions.

J’indiquais plus tôt que ces quatre démarches s’appuyaient sur sept domaines particuliers sur lesquels nous pensons qu’une entreprise peut agir : mettre en place une gouvernance ; faire en sorte que l’entreprise s’approprie et se cultive sur le volet légal et la conformité dès la conception ; mener des actions particulières sur le choix et le traitement des données ; insister sur la responsabilité et l’éthique algorithmique ; évaluer et définir des points de contrôle pour s’assurer que les IA n’apprennent pas de biais avec le temps ; renforcer la diversité des équipes d’intelligence artificielle ; enfin sensibiliser et responsabiliser les équipes d’intelligence artificielle, mais aussi tous les salariés, au rôle de l’entreprise. Je m’appuierai sur un exemple concret, celui des ressources humaines.

Ce département pourrait être amené à utiliser des outils d’IA pour le recrutement ou la gestion de carrière. Si ces personnes et ces métiers ne sont pas sensibilisés au fait qu’un outil d’IA peut être contre‑performant pour telle ou telle raison, on pourrait constater des dysfonctionnements. Il est donc important de sensibiliser l’ensemble des salariés sur ces sujets. Des formations gratuites sur l’IA sont à la disposition des entreprises pour que les équipes en comprennent au moins les fondamentaux.

Ensuite, quel est le rôle externe de l’entreprise ? Jessica Hoffmann et moi‑même intervenons pour expliquer comment les entreprises agissent, pour montrer qu’il est possible de s’investir dans un écosystème qui œuvre pour une intelligence artificielle responsable et non‑sexiste.

Nous ne pouvons y parvenir seules. Ce matin, nous avons beaucoup parlé d’interdisciplinarité, de partenariat, de travail en commun. À l’image de tout ce qui se passe aujourd’hui sur ces sujets, le Cercle InterElles fait en sorte de favoriser l’effet « boule de neige », de favoriser un travail commun pour avancer dans la bonne direction. Nous travaillons par exemple avec le Laboratoire de l’égalité depuis 2018, le Women’s Forum, Femmes Ingénieurs, l’université de Berkeley, Impact AI ou Arborus.

Au‑delà du pacte expliquant la démarche en quatre piliers, le Cercle InterElles vient de lancer un module de formation en collaboration avec Impact AI. Il s’adresse à l’ensemble des écoles d’ingénieurs, mais pas seulement, il s’adresse à tous ceux qui vont former les personnes qui travailleront demain sur des sujets d’IA ou qui utiliseront de tels outils. Ce module de sensibilisation de trois heures est mis gratuitement à la disposition de l’ensemble des écoles ou des centres de formation qui le souhaitent. Nous mettons à disposition les documents, mais aussi le guide du formateur et les exercices pratiques.

Cette formation a pour objectif de faire comprendre ce qu’est un biais de genre, d’apprendre à les déceler et à voir à quel moment ils peuvent s’immiscer dans le développement de l’algorithme, et de montrer qu’il existe des outils pour les pallier. Il est possible d’agir, de renverser la tendance. Ce module est plutôt destiné à un public étudiant ou à des organismes de formation inter-entreprises.

M. Stéphane Piednoir, président de l’Opecst. – Merci beaucoup. Je vous propose de prolonger ces interventions avec les questions de nos collègues.

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Merci beaucoup. Ne risquons‑nous pas, demain, d’être confrontés à des IA à deux vitesses ? Certaines entreprises auront mis les moyens pour que leur intelligence artificielle soit éthique, et d’autres non. Comment pourrons‑nous faire le tri ? Les moins éthiques n’offriront‑elles pas des solutions plus abordables, leur permettant de gagner du terrain ?

Mme Tanya Perelmuter. – Très peu d’acteurs sont en train de développer des IA génératives. Ils sont majoritairement implantés aux États‑Unis. Ces outils demandent beaucoup de moyens pour bâtir les infrastructures et réaliser les calculs nécessaires. Ce n’est pas à la portée de tout le monde. Deux entreprises travaillent sur le sujet en France. Les algorithmes développés aux États‑Unis sont très peu transparents. Nous n’avons que peu de visibilité sur leur apprentissage. Cette question est donc tout à fait légitime.

Mme Jessica Hoffmann. – J’ajoute qu’à ce jour, les LLM sont en open source, c’est‑à‑dire que leur code est accessible à tout le monde. Ces modèles ne sont pas forcément aussi performants que les meilleurs modèles d’autres entreprises, mais ils sont tout de même très satisfaisants, en plus d’être gratuits.

Mme Marine Rabeyrin. – Vous avez tout à fait raison, Madame Vérien, d’où l’intérêt d’outiller tout un chacun d’un savoir fondamental sur le sujet. Nous devons inciter à plus de curiosité pour comprendre comment ces IA ont été développées et identifier une éventuelle démarche éthique de l’entreprise. Il est important de se montrer curieux.

Mme Laure Lucchesi, spécialiste des politiques publiques du numérique, exdirectrice d’Etalab. – L’Europe s’est dotée d’un certain nombre d’obligations nouvelles, que le modèle soit en open source ou non, notamment en termes de transparence sur les données d’entraînement ou de documentation technique. Cela est déjà une façon de fournir un certain nombre d’éléments sur les modèles.

Des initiatives de ratification ou de labellisation de certains systèmes d’IA ont été lancées dans une démarche responsable et éthique. Cela est peut‑être une piste pour offrir des garanties en la matière.

M. Pierre Henriet, député, premier vice-président de l’Opecst. – J’aimerais revenir sur la question initiale qui nous est posée, à savoir l’IA est‑elle sexiste ? Vous avez répondu par l’affirmative, de manière très succincte. Pour autant, vous avez toutes et tous évoqué le fait que l’IA est d’abord un processus de création humaine. Je me demande donc si c’est vraiment l’IA qui est sexiste, ou si ce sont les programmateurs. Cette question est un peu provocante, mais j’aimerais savoir où, selon vous, se situe le processus de création du sexisme dans la fabrication des programmes d’intelligence artificielle.

Mme Hélène Deckx van Ruys. – L’intelligence artificielle est sexiste, parce que les modèles sont programmés à 88 % par des hommes qui, inconsciemment ou non, reproduisent leurs biais. Nous pouvons pallier cette difficulté par le biais de formations, mais aussi en posant un cadre éthique sur la vérification de chaque étape de la construction des algorithmes.

Mme Jessica Hoffmann. – L’intelligence artificielle reflète la société. Si cette dernière est historiquement sexiste, l’IA le sera. Nous mettons tout de même en place certaines actions pour qu’elle le soit moins, notamment en matière de diversité des équipes. En revanche, le fait que les créateurs aient déjà des biais accentue le problème. Ce n’est pas l’un ou l’autre, mais un tout.

Mme Hélène Deckx van Ruys. – Nous avons oublié de dire que ce sont des outils auto‑apprenants. Ils se nourrissent de ce qu’on leur inculque. Il y a quelques semaines, Sales Force a sorti une publicité formidable sur les algorithmes, qui pose la question suivante : si les algorithmes sont d’excellents élèves, qui sont leurs professeurs ?

M. Elyes Jouini. – Des programmateurs vont développer les outils, mais n’oublions pas les utilisateurs. Si vous n’êtes pas choqué par le résultat produit – si vous ne vous posez pas de question lorsque votre outil d’aide aux ressources humaines ne recrute que des hommes blancs, par exemple –, le constat ne pourra que perdurer. En revanche, si vous re‑paramétrez votre outil en disant « je voudrais un peu plus de diversité, je voudrais un peu plus de ceci ou de cela », vous pourrez corriger le tir.

J’ai l’impression qu’il est très difficile de prouver qu’un directeur des ressources humaines est biaisé dans sa sélection, parce que vous ne disposez que des données des recrutements qu’il a réalisés, qui ne sont pas pléthoriques. Vous pouvez en revanche tester une intelligence artificielle en lui demandant de trier 2 000 CV. Elle sera peut‑être aussi biaisée que nous, mais on peut le démontrer plus facilement.

Mme Tanya Perelmuter. – L’intelligence artificielle est un reflet de notre société. Elle peut nous permettre d’identifier nos propres biais.

Mme Marine Rabeyrin. – Nous avons évoqué la difficulté à recruter des femmes, parce que le vivier de scientifiques féminines est moindre. On observe également un phénomène de désertion des femmes une fois qu’elles ont embrassé une carrière scientifique. Elles quittent le secteur après une dizaine d’années, parce qu’elles évoluent dans un contexte au sein duquel elles peuvent être victimes de sexisme ordinaire, ou non ordinaire d’ailleurs.

J’aimerais insister sur le rôle très important que revêtent les entreprises dans le fait de favoriser une atmosphère de travail respectueuse, non sexiste et qui permette à chacun de s’exprimer. J’y vois un rôle des réseaux dans les entreprises. Le Cercle InterElles agit en ce sens, en faisant en sorte d’équiper les entreprises de moyens leur permettant de favoriser une atmosphère de travail stimulante pour toutes et tous.

M. Patrick Chaize, sénateur de l’Ain. – Merci pour ces interventions. Les travaux en cours de l’Opecst ont été évoqués un peu plus tôt. Nous nous penchons sur les nouveaux développements de l’intelligence artificielle. À ce stade, nous avons déjà rencontré une vingtaine de chercheurs et d’acteurs majeurs du domaine. Nous sommes très attentifs aux témoignages de femmes. Nos auditions démontrent d’ailleurs qu’elles ont beaucoup à dire sur le monde de la Tech. Nous devons en déduire, je pense, qu’il faut les écouter davantage.

Que préconiseriez‑vous pour faire en sorte que les constats que nous tirons évoluent ?

Mme Tanya Perelmuter. – Il faut peut‑être retourner la question, car la réponse est politique. La société doit comprendre ce qu’il se passe pour agir.

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – C’est l’une des raisons pour lesquelles nous organisons cette table ronde qui est filmée et enregistrée. Nous pourrons la diffuser très largement.

M. Stéphane Piednoir, président de l’Opecst. – Si vous n’avez plus de questions sur le sujet de cette deuxième table ronde, je vous remercie et vous propose d’en venir au troisième et dernier volet de cette matinée.

Mme Christine Lavarde, président de la délégation sénatoriale à la prospective. – Mesdames, Messieurs, chers collègues, la délégation à la prospective du Sénat a été créée en 2009. Cette structure n’existe pas à l’Assemblée nationale, c’est une spécificité de la Chambre haute. Elle a pour vocation de réfléchir aux grandes transformations de notre société, à ces changements qui opèrent à la fois en profondeur et sur le temps long – ces changements auxquels nous, parlementaires, consacrons paradoxalement si peu de notre propre temps, parce qu’il y a toujours plus urgent à faire, un texte à examiner, une vie politique qui ne s’arrête jamais. Cette délégation nous offre une respiration dans nos travaux. Ce matin, nous avons pris le temps de réfléchir à des sujets qui ne sont pas au cours de nos réflexions habituelles au sein de la délégation à la prospective, à savoir l’égalité hommes‑femmes.

Je m’associe au président Gérard Larcher, à Dominique Vérien, présidente de la délégation aux droits des femmes, et aux animateurs des précédentes tables rondes – la sénatrice Laure Darcos et le président de l’Opecst Stéphane Piednoir – pour remercier chaleureusement l’ensemble des intervenants de ce matin.

Je parlais à l’instant de changements profonds et de long terme : c’est bien de cela dont il est question ce matin, que l’on parle de l’évolution de la place des femmes dans la société ou de la révolution de l’intelligence artificielle – laquelle pourrait bien, si l’on en croit l’avis général, bouleverser notre façon de vivre et de travailler.

Pour notre part, à la délégation à la prospective, nous nous intéressons à l’impact potentiel de l’IA dans le service public, avec une série de rapports thématiques : IA et finances publiques, IA et santé, IA et éducation, IA et environnement, IA et territoires, etc. Nous avons décidé de travailler en produisant des notes assez brèves. Ce matin, c’est une autre petite brique que nous pourrons ajouter au travail de synthèse.

Cela fait partie du sujet de notre dernière table ronde, qui porte sur l’impact que pourrait avoir l’IA générative sur l’égalité femmes‑hommes en général. Cette troisième table ronde est en quelque sorte le miroir de la première : après s’être demandé ce que les femmes pourraient apporter à l’IA, il s’agit de savoir ce que l’IA pourrait apporter aux femmes.

De toute évidence, l’IA générative pourra très concrètement bénéficier aux femmes dans de multiples domaines – partout, en fait, où ces nouveaux outils viendront réduire les inégalités, qu’il s’agisse d’accès à l’emploi, à l’éducation, à la santé, au droit, etc. Aujourd’hui, la RATP équipe ses agents de manutention d’exosquelettes. Demain, des métiers interdits, ou du moins fortement dé‑recommandés aux femmes, pourraient s’y ouvrir grâce à ces développements.

Il y a, j’en suis convaincue, toutes les raisons d’être optimiste quant à la contribution de l’IA à l’égalité femmes‑hommes. Mais l’optimisme n’interdit ni la prudence, ni la nuance.

Tout d’abord, force est de constater que ce qui manque, pour l’instant, ce ne sont pas les idées, mais plutôt les chiffres : on ne dispose pas encore de suffisamment de recul pour savoir, par exemple, si l’IA aura un impact différent sur les métiers selon qu’ils sont majoritairement occupés par des femmes ou par des hommes, ni lesquels seront plutôt « augmentés » ou plutôt « remplacés ».

Ensuite, à côté de ses bénéfices, l’IA apportera inévitablement son lot de nouveaux problèmes, de nouveaux risques, dont certains concernent tout particulièrement les femmes.

Nous parlions tout à l’heure du renforcement des stéréotypes de genre, lié à la manière dont sont « entraînées » les IA. Je pense aussi à la protection de la vie privée et au problème des deepfakes, ces fausses vidéos pornographiques générées par des IA – car oui, l’écrasante majorité (96 %) de ces vidéos ne sont pas des faux discours de Joe Biden ou de Vladimir Poutine, ce sont des images pornographiques fictives de jeunes femmes qui sont en revanche bien réelles, qu’il s’agisse de Taylor Swift – 100 millions de « vues » en une semaine – ou d’une anonyme dont la photo aura été utilisée à son insu.

Vous le voyez, il y a beaucoup à dire, sur beaucoup de sujets, et je suis sûre que nos deux intervenantes auront elles aussi un discours nuancé, mais une vision résolument optimiste.

Je vous propose de donner dans un premier temps la parole à Sasha Rubel, qui pourra prouver qu’en fréquentant la même école, on peut se trouver des deux côtés de cette table, qui n’est pas ronde. Elle est responsable des affaires publiques sur les sujets IA chez AWS (Amazon Web Services), et membre du réseau d’experts de l’OCDE sur le sujet.

Laure Lucchesi, qui était jusqu’en 2023 directrice d’Etalab, le pôle « données publiques » de la direction interministérielle du numérique (Dinum), nous donnera ensuite sa vision des choses – sans doute marquée, je suppose, par une sensibilité « service public » qui fera écho aux travaux de la délégation à la prospective.

Vous avez toutes les deux vécu une expérience assez longue dans des pays en transition. Je suis persuadée que vivre dans un monde meilleur participe aussi à l’égalité entre les femmes et les hommes.

Je vous laisse sans plus tarder la parole, dans l’ordre de votre choix.

Mme Laure Lucchesi, spécialiste des politiques publiques du numérique, exdirectrice d’Etalab. – Bonjour à toutes et à tous. Merci de me donner la parole. Je remercie également tous les participants pour leurs travaux sur ce sujet extrêmement important. Il n’est pas facile de passer après ces deux tables rondes au cours desquelles beaucoup de choses ont déjà été dites.

Aujourd’hui, j’ai choisi d’être optimiste et de donner des exemples d’utilisation de l’intelligence artificielle en faveur de l’égalité entre les femmes et les hommes. Mon intervention fera écho à vos travaux, à travers le prisme de l’action et de la décision publique. Pendant plusieurs années, j’ai dirigé Etalab, un service interministériel qui a commencé par travailler sur la politique de la donnée, mais qui, assez vite, en est venu à se pencher sur l’intelligence artificielle. Nous n’avons pas attendu l’IA générative pour travailler sur cette question dans le service public.

Je rappelle que l’usage des sciences, des données, des algorithmes et de l’intelligence artificielle est de plus en plus fréquent dans la sphère publique, avec quelques particularités qu’il est important de souligner.

D’abord, cet usage répond aux grandes lois du service public, de continuité, d’adaptabilité, et d’égalité. Par ailleurs, les algorithmes qui y sont utilisés ont des spécificités par rapport à ceux qui peuvent être utilisés dans le secteur privé. Ils sont censés opérer au service de l’intérêt général. Ils servent très souvent à exécuter le droit. Ils doivent donc respecter la loi et rien que la loi, même si certaines interprétations peuvent occasionner des questions. Ils sont souvent incontournables – je pense à ParcourSup notamment.

Selon l’article 15 de la Déclaration des droits de l’homme et du citoyen, « la société est en droit de demander compte à tout agent public de son administration ». Les algorithmes publics sont aussi obligés de respecter cet article à travers un certain nombre de règles de transparence, de redevabilité et d’explicabilité, en particulier lorsqu’ils aboutissent à des décisions individuelles. L’acteur public ne peut donc pas utiliser des algorithmes complètement opaques. Un certain nombre d’obligations s’imposent.

Dès 2014, Etalab a commencé à travailler sur les premiers projets qu’on qualifiait à l’époque de data science et de machine learning. Il était compliqué d’expliquer et de faire comprendre ce qu’étaient ces techniques. J’ai constaté un certain saut en 2018, lorsque Cédric Villani a remis son rapport sur l’intelligence artificielle. L’emploi de ce terme, « intelligence artificielle », pouvait faire un peu peur, mais il a permis de mieux se projeter dans ce que pourraient être les usages de cette technologie. Il m’a semblé que c’était déjà une première étape vers l’accessibilité de ces outils.

Le Lab IA de l’État a été créé à la suite de ce rapport. Il était composé d’une petite équipe interministérielle. Il avait vocation à identifier les opportunités d’amélioration du service rendu aux usagers et de la façon dont ce service public était produit, en utilisant les sciences des données et l’intelligence artificielle. Une de ses premières missions – et encore une fois, le parallèle peut être fait avec d’autres organisations – visait à sensibiliser aux questions éthiques, aux questions des biais, de transparence et de redevabilité algorithmique.

Nous avons mis en place, avec un certain nombre d’acteurs de la recherche, des actions pour sensibiliser les agents publics aux règles auxquelles étaient soumis les algorithmes publics, mais aussi aux questions de biais – notamment de genre – qui pouvaient en découler. Nous avons abordé cet aspect assez tôt.

Nous avons ensuite mis en place le programme « entrepreneurs d’intérêt général », qui recrutait une soixantaine de profils chaque année, issus de l’extérieur : développeurs, designers, experts de la donnée… Nous avons mis un point d’honneur à respecter la parité et la mixité dans l’équipe, tant au sein des chargés de politiques publiques que parmi les compétences techniques. Il s’agissait de petits programmes – nous connaissons les problématiques de recrutement dans le service public –, mais leur visibilité nous permettait de sensibiliser à ces questions. Nous avons également accompagné des administrations dans la mise en place de projets de science des données et d’intelligence artificielle.

Permettez‑moi de présenter quelques cas d’usage dans lesquels l’intelligence artificielle, en particulier dans la sphère publique, peut agir en faveur de l’égalité entre les femmes et les hommes. C’est d’abord le cas dans le domaine du travail et de l’emploi. L’utilisation de l’intelligence artificielle générative permet d’automatiser un certain nombre de tâches, notamment administratives. Pour rappel, la fonction publique est particulièrement féminisée : elle compte 63 % de femmes au total, 61 % dans la fonction publique territoriale et 57 % dans l’administration d’État. Elles seront particulièrement impactées par ces usages qui seront amenés à supprimer un certain nombre de tâches rébarbatives, à limiter la pénibilité et la surcharge de travail. Ces outils permettront, par exemple, de gagner en productivité dans la rédaction de comptes rendus, de notes, de synthèses.

Vous savez peut‑être que la Direction générale des finances publiques a mis en place un système de gestion des amendements, testé sur le dernier projet de loi de finances. Il a permis de traiter 10 000 amendements de façon extrêmement efficace : ils ont été attribués au bon service, regroupés par catégorie, et synthétisés.

Il est vrai que nous manquons de chiffres sur l’impact de l’intelligence artificielle sur le travail. Toutefois, dans un rapport d’août 2023, l’Organisation mondiale du travail corrobore notre analyse. Les femmes qui occupent plutôt des emplois de bureau dans les pays plus développés seront particulièrement exposées. Dans le même temps, des opportunités de progression sont attendues sur ces métiers. Du moins, l’outil viendra les compléter, occasionnant une réduction de charge qui libérera du temps pour ceux qui occupent ces postes.

On peut aussi assez facilement imaginer des usages de l’intelligence artificielle visant à dégenrer ou apporter une écriture égalitaire à un certain nombre de documents et de textes. Le service public en produit beaucoup. Hier soir, je consultais Choisir l’emploi public, la plateforme des offres d’emploi du service public. Les intitulés des postes respectent bien la réglementation en précisant « hommes/femmes », mais dès qu’on rentre dans la fiche de poste, ce n’est plus le cas : on parle « du secrétaire général », « du directeur », on dit qu’« il sera chargé de ». Il est aujourd’hui possible de modifier ces usages. J’ai demandé à ChatGPT de rédiger une fiche de poste en langage égalitaire et inclusif. Il le fait très facilement.

Ensuite, un certain nombre de robots conversationnels ont déjà été testés par l’Urssaf depuis plusieurs années. De nouvelles expérimentations sont menées en la matière, notamment dans l’appui aux agents dans les maisons France services pour répondre aux questions des usagers. De nombreux gains sont attendus. L’outil prépare les réponses à adresser lors d’une prise de rendez‑vous, en sourçant toutes les informations et en respectant des exigences de traçabilité.

Le SpeechToText et la possibilité de convertir du langage oral en texte écrit faciliteront aussi l’interaction, en particulier pour les personnes éloignées du numérique. Aujourd’hui, treize millions de personnes en sont encore éloignées. Elles souffrent d’une vulnérabilité numérique, qui s’accompagne de questions d’équipements, d’accès et de connexion, mais aussi de maîtrise de l’écrit ou d’aisance avec le langage administratif. Cette nouvelle source d’opportunités touchera aussi les personnes les plus vulnérables, en particulier les femmes.

Enfin, les outils s’améliorent de jour en jour. Ils permettent de mesurer très finement le temps de parole entre les hommes et les femmes dans les médias. InaSpeechSegmenter découpe très finement, à l’oral, les voix afin d’identifier le genre des locuteurs. Il est utilisé par exemple par l’Arcom dans son rapport annuel.

Il est même possible de réaliser des analyses beaucoup plus fines. Une étude a été menée sur les documentaires en première diffusion à la télévision en janvier 2024. Elle révèle que seulement 25 % des femmes voient leur documentaire diffusé en première diffusion, contre 75 % des hommes. 3 500 heures de documentaires en prime‑time ont été mesurées sur les cinq dernières années. Il s’avère que le temps de parole des hommes y est deux fois et demi supérieur à celui des femmes.

Ainsi, nous disposons aujourd’hui d’opportunités de mesurer beaucoup plus finement et de réagir sur un certain nombre d’éléments. L’intelligence artificielle nous offre la possibilité de regarder, de mesurer, d’analyser les bases de données, les données d’entraînement, les modèles en eux‑mêmes et leurs résultats, et un certain nombre de valeurs. L’Europe s’est d’ailleurs dotée d’une réglementation et d’outils pour agir sur ces questions.

Ensuite, Etalab a travaillé assez tôt sur un outil, que nous avions nommé DataJust, qui fut très décrié. Il visait, à l’initiative du ministère de la justice, à établir un barème d’indemnisation des préjudices corporels. Il existe aujourd’hui des barèmes officieux. Nous avions donc souhaité analyser les données de jurisprudence pour en établir un plus officiel, qui servirait à la fois à diffuser de l’information sur l’indemnisation des préjudices, mais aussi à appuyer la décision des magistrats dans leur jugement. Ce travail visait également à désengorger les tribunaux en essayant de résoudre les situations à l’amiable.

Un traitement a été créé pour traiter des données très sensibles, mais anonymes, et aboutir à ce barème. Nous avons très vite réalisé que les biais pourraient nous poser des problèmes. Comment indemniser un homme et une femme victimes d’un accident et ayant subi un préjudice à la poitrine ? De plus, l’indemnisation se fait en anticipation des revenus futurs. Or, nous constatons une très forte inégalité entre le salaire des hommes et celui des femmes pour un métier similaire. Dans ce cas, devons‑nous y apporter une correction ?

Finalement, pour diverses raisons de complexité, de gestion, d’organisation et de coût, le projet a été abandonné. Ce travail a tout de même généré des questions légitimes, à savoir, devons‑nous effacer tous les biais pour correspondre à un idéal ? Si oui, lequel ? Qui en décide ? Comment ? Nous avons besoin d’affecter les moyens adéquats pour traiter convenablement la façon dont le service public intégrera ces outils, y compris sur les questions éthiques. S’y ajouteront des préoccupations techniques. Ce ne sera pas simple. Pour autant, l’intelligence artificielle générative a rendu ces questions visibles, beaucoup plus accessibles et compréhensibles. Si vous m’aviez invitée il y a deux ans, beaucoup moins de personnes se seraient intéressées au sujet.

Ensuite, Hugging Face a mis en place un explorateur de biais, qui permet de comparer des modèles et donc des représentations imagées d’un certain nombre de métiers. Récemment, Google a montré la difficulté de traiter ces questions sur Gemini, qualifié d’IA woke. Dans le cadre de cette intelligence artificielle, c’est aussi la culture interne de Google en faveur de la diversité, de l’équité et de l’inclusion qui a pu être soulignée. Elle a pu aussi faire dévier les outils qui étaient mis en place. Ainsi, ces systèmes reflètent également la culture et l’organisation interne. Je crois que cette question est éminemment politique, démocratique, et de gouvernance.

Pour terminer, des conventions citoyennes se sont mises en place. Elles ont rendu des avis et se sont intéressées à ces questions, y compris celle des iniquités de genre, à Rennes ou à Montpellier. J’y vois le signe qu’un débat s’ouvre. Plus les parties prenantes que sont les entreprises, les associations, la recherche ou le monde politique s’y intéresseront, et plus nous pourrons discuter du projet de société que nous désirons atteindre.

Mme Sasha Rubel, responsable des politiques publiques en IA Europe – Afrique – Moyen-Orient chez Amazon Web Services, membre du réseau d’experts de l’OCDE sur l’IA. – Je suis ravie de prendre la suite de Laure Lucchesi sur tous ces exemples passionnants. Je m’excuse d’avance pour mes fautes de français, je genre tous les mots au féminin, comme une sorte d’engagement…

Si vous demandez à un service d’IA générative qui est Sasha Rubel, il vous répondra que je suis une espionne russe, que je suis un formateur de joueurs d’échecs, et que je suis un homme. Je vous assure que ce n’est pas le cas. J’ai passé treize ans à l’ONU à travailler sur la façon de mettre la femme au centre de la transformation numérique. Je travaille désormais chez Amazon Web Services (AWS).

J’aimerais commencer mon propos par une anecdote reflétant l’intervention de M. Jouini. Lorsque je vivais à Dakar, je dirigeais le premier camp de formation de codage destiné aux jeunes femmes. Un jour, une adolescente de 16 ans qui travaillait dans la mode s’est présentée à la porte en indiquant qu’elle ne savait pas si ce chemin était fait pour elle, qu’elle aimait beaucoup travailler dans tout ce qui était créatif. À la fin de la journée de formation, elle m’a dit qu’elle ne s’était pas rendu compte à quel point la technologie pouvait être un chemin vers la créativité. Ainsi, je pense qu’un recadrage est nécessaire s’agissant de la signification du travail dans la technologie.

Personnellement, je ne suis pas bonne en maths. Je suis anthropologue de formation. Mon doctorat était consacré aux enjeux des aspects sociétaux et éthiques de l’intelligence artificielle. L’un des plus grands obstacles à l’adoption de l’IA, en France et au‑delà, réside dans le fait que nous manquons de personnes qui se réunissent pour réfléchir à ces enjeux de responsabilité. Le manque de confiance dans ces technologies constitue le principal élément bloquant.

Pour s’assurer de l’adoption de cette technologie de manière responsable, il ne faut pas simplement plus de diversité dans le travail sur la technologie, mais aussi plus de diversité dans les perspectives. La femme se place au centre de ces enjeux.

Aujourd’hui, on a entendu que l’IA était un miroir des biais de notre société. Je dirais plutôt qu’elle agit comme une loupe. J’y vois une opportunité extraordinaire, parce que nous sommes désormais placés face à une réalité que nous ne pouvons plus nier. Cette réalité existe dans nos algorithmes, mais aussi dans nos sociétés. Madame Lavarde, je suis comme vous, très optimiste quant à cette technologie qui peut nous permettre d’affronter les défis qui se dressent devant nous.

Plusieurs intervenants ont déjà partagé des statistiques concernant la présence des femmes dans ce milieu. J’aimerais revenir sur quelques enjeux économiques en la matière. Aujourd’hui, les femmes ont treize fois moins de chances que les hommes de déposer un brevet technologique. Selon l’OCDE, elles ne déposent que 7 % des brevets dans le domaine des nouvelles technologies dans les pays du G20, et seulement 10 % des startup ont été fondées par des femmes. C’est grave.

Pour que l’IA soit un atout pour l’égalité de genre, nous n’avons pas simplement besoin de plus de femmes dans ce secteur, mais aussi d’équipes diversifiées qui stimulent l’innovation. Ce n’est pas simplement une question éthique, c’est bon pour le monde. Nous nous accordons tous, ici, sur le caractère essentiel de cette diversité. Celle‑ci est aussi opportune en termes économiques pour les entreprises françaises. Cultiver la diversité répond à un impératif éthique, mais aussi économique. Les entreprises diversifiées ont 25 % de chances supplémentaires de surpasser leurs concurrentes.

Le Boston Consulting Group (BCG) a constaté que les entreprises affichant une diversité supérieure à la moyenne génèrent, grâce à l’innovation, 45 % de revenus en plus que celles qui affichent une diversité inférieure à la moyenne. En parallèle, l’Institut de recherche du Crédit Suisse a constaté que les sociétés comptant une ou plusieurs femmes au conseil d’administration avaient un rendement moyen des investissements plus élevé et une meilleure croissance moyenne que les entreprises dont le conseil d’administration n’est composé que d’hommes. De plus, les équipes mixtes prennent de meilleures décisions commerciales 73 % du temps.

Ainsi, pour créer des solutions d’IA qui sont bonnes pour la société et pour l’entreprise, la diversité est essentielle.

Ce matin, plusieurs d’entre vous ont souligné l’importance du mentorat. Il ne doit pas se limiter aux femmes. Nous avons aussi besoin d’hommes champions qui championnent des femmes. Un programme au sein d’AWS est consacré à cette question de mentorat. Il encourage les échanges entre les femmes, mais également des « HeForShe champions ». Nous avons besoin de cet aspect de championnat pour les hommes et pour les femmes.

Monsieur Jouini, vous avez évoqué une question de paradoxe du genre, en indiquant que les pays affichant la plus grande égalité de genre comptaient moins de femmes poursuivant des carrières scientifiques. Je pense que nous avons besoin que les équipes qui construisent les systèmes d’IA soient aussi diversifiées que les communautés qui les utiliseront.

Nous pouvons, à mon sens, aborder le défi auquel nous sommes confrontés par le biais des compétences. Dans ce cadre, je salue le travail de la Fondation Abeona. Nous venons de publier un rapport qui étudie le marché français et les obstacles à l’adoption de l’intelligence artificielle. La question des compétences est l’un des principaux éléments bloquants, pour les femmes, mais aussi pour les hommes. 61 % des entreprises ont déclaré une incapacité à trouver du personnel doté des bonnes compétences numériques, ce qui freine leur performance et leur investissement dans l’IA. Du côté des salariés français, la formation est clairement insuffisante. Seuls 13 % des citoyens français suivent des formations pour développer de nouvelles compétences numériques. C’est notamment le coût de ces modules qui les bloque.

Pour cette raison, nous avons investi dans un engagement, AI Ready, qui met à disposition plus de quatre‑vingts cours gratuits en ligne. Ils ne forment pas simplement aux enjeux techniques de l’IA, mais aussi aux questions de biais, d’explicabilité, d’équité, de précision. Le sujet n’est pas uniquement technique mais aussi sociologique. Nous devons comprendre que ce n’est pas parce qu’un outil est techniquement faisable que nous devons nécessairement le créer. C’est là que les enjeux de formation deviennent essentiels.

Avant d’en venir aux exemples français, j’aimerais insister sur un certain manque d’investissement en faveur des femmes fondatrices, et un manque d’éducation sur les moyens de transformer des idées géniales en actions en disposant d’une connaissance suffisante de l’entreprise. AWS travaille sur cette dimension avec de multiples partenaires privés et publics pour accompagner des entrepreneures afin qu’elles transforment leurs idées pour les lancer sur le marché. Cet aspect de formation technique, éthique et commerciale est essentiel. Nous n’accompagnons pas que des actifs. Nous avons constaté que les connaissances en IA pouvaient contribuer à une augmentation de salaire pouvant atteindre 47 %. L’indépendance financière de la femme dépend de sa capacité à se mettre au centre de cette révolution technologique qui touchera tous les aspects de notre vie.

Ensuite, comment voyons‑nous les risques associés aux données traitées par l’intelligence artificielle ? Il serait naïf de ne pas reconnaître les défis existant dans le déploiement de l’IA, à commencer par le risque lié aux données de recrutement d’industries à prédominance masculine. Si l’on crée des bases de données à partir de ces informations, le résultat sera biaisé. En anglais, on parle de « garbage in, garbage out ». L’IA n’est pas magique. Ainsi, s’il est nécessaire de s’assurer de la diversité des équipes, il faut aussi garantir la diversité des bases de données sur lesquelles les solutions de l’IA sont entraînées. C’est une opportunité extraordinaire pour montrer à quoi notre société pourrait ressembler en gommant les biais.

Ensuite, les enjeux de la reconnaissance faciale utilisant l’IA et des données déséquilibrées en la matière ont fait la une des journaux partout dans le monde. Les risques ne concernent pas que les femmes, mais aussi les autres groupes marginalisés, si la majorité des bases de données ressemblent à la majorité des codeurs qui créent ces systèmes et qui ne sont souvent pas représentatifs de notre société.

Permettez‑moi de partager avec vous quelques exemples de ce que nous faisons avec nos clients pour que l’IA devienne un atout pour l’égalité de genre, et ce que nous créons à l’intérieur de notre entreprise pour nous assurer que nos propres bases de données sont limitées en termes de biais.

J’étais ravie que Laure Lucchesi évoque Hugging Face, un grand partenaire d’AWS en France. Avec cet acteur, nous cherchons à mettre à disposition librement des ressources qui aident les développeurs et les entrepreneurs à évaluer les biais dans leur système. Vous avez déjà parlé des pratiques d’embauche et de la possibilité que l’IA soit un risque, mais aussi une opportunité pour assurer un filtrage équitable et accroître le taux d’embauche des femmes. L’un de nos clients a utilisé ce système. Son taux d’embauche de femmes a augmenté de 14 %.

Il est également possible de détecter et signaler les termes biaisés dans les offres d’emploi. En 2018, il s’est avéré que l’outil de recrutement créé par Amazon était biaisé. En réalité, il n’a jamais été lancé à l’externe. Il n’a été testé qu’en version bêta au sein même de l’entreprise. Nous l’avons supprimé quand nous nous sommes aperçus qu’il ne fonctionnait pas. Il n’a donc jamais été utilisé de façon publique.

Cette expérience nous a encouragés à faire mieux, à utiliser les outils de l’intelligence artificielle pour aborder et résoudre les problèmes. Elle nous a menés à créer la solution SageMaker Clarify, qui détecte automatiquement des biais et les supprime des bases de données.

Il est important d’apprendre de ses erreurs, en réalisant ce type d’expérience de manière très contrôlée pour améliorer ses services.

Vous avez évoqué plus tôt les textes juridiques. Cet exemple me semble essentiel, parce qu’il y réside de nombreux biais. C’est également le cas des chatbots. Je n’y reviendrai pas.

J’ai été élevée en Afrique de l’Ouest. J’ai aussi vécu en Éthiopie. À cette époque, je voyais, quand je sortais de mon bureau, que de nombreux élèves, surtout des femmes, étaient adossés à l’immeuble de l’Union africaine. J’ai demandé au chauffeur de taxi pourquoi ces centaines de femmes se trouvaient là à 17 heures, en semaine. Il m’a expliqué qu’elles avaient besoin de WiFi pour étudier. Elles avaient récupéré le code WiFi de l’Union africaine pour télécharger les informations nécessaires et accéder à leurs cours. Elles ne pouvaient pas rentrer chez elles, car elles auraient eu, à leur domicile, d’autres responsabilités. Elles voulaient étudier.

Je fus autodidacte jusqu’au lycée. À l’époque, DHL m’envoyait des cours à distance. L’intelligence artificielle et l’IA générative offrent une opportunité extraordinaire pour combler la faille qui existe en matière d’accès à l’éducation dans les pays en voie de développement, surtout pour des femmes. Chez AWS, nous cherchons également, avec l’aide de partenaires privés et publics, à rendre les contenus d’éducation accessibles au plus grand monde, pour que les femmes ne soient pas laissées à l’écart.

Enfin, Madame Lavarde, vous avez évoqué un sujet essentiel : que représentent ces outils dans le cadre de harcèlement et de sexualisation des femmes en ligne ? Je m’appuierai sur deux cas d’études qui m’ont conduite à intégrer AWS.

En Afrique de l’Ouest, les jeunes femmes n’ont pas accès à un compte en banque, parce qu’elles n’ont pas de carte d’identité nationale. Nous travaillons beaucoup dans les zones rurales pour permettre aux femmes qui n’ont aucune autre manière d’avoir accès à un compte en banque d’y accéder, grâce à l’intelligence artificielle et à travers la reconnaissance faciale, et de jouir ainsi d’une indépendance financière.

Par ailleurs, nous travaillons beaucoup avec l’organisation Thorn, dédiée à l’arrêt de la propagation de contenus d’abus sexuels pour les mineurs, surtout les femmes, et à lutter contre des trafiquants d’enfants, souvent des filles. Avec les services d’intelligence artificielle d’AWS, les outils de Thorn ont permis d’identifier 5 894 victimes de la traite des enfants à des fins sexuelles, et de secourir 103 enfants dont les abus sexuels ont été enregistrés et diffusés. Le délai d’enquête avec l’IA s’est réduit de 65 % grâce à cette technologie.

Plusieurs services d’IA générative, comme Code Whisperer ou SageMaker Clarify enlèvent automatiquement des contenus biaisés en ligne de façon à réduire certains risques.

 Comment pouvons‑nous rendre opérationnels ces systèmes, en France, mais aussi au‑delà ? D’abord, nous devons tester. On parle beaucoup de red teaming dans le cadre du G7. Il ne faut pas lancer sur le marché un outil qui n’est pas testé pour les aspects de l’IA responsable, de biais et de précision.

Ensuite, nous avons besoin de modèles de transparence. Chez AWS, nous créons des service cards qui mettent à disposition du public la donnée entraînée pour créer ce modèle, pour qu’il en comprenne l’origine, les risques, et les façons de l’utiliser ou de ne pas l’utiliser.

Nous devons également adopter une approche interopérable du watermarking, permettant d’identifier un contenu en ligne créé par une intelligence artificielle générative, surtout lorsqu’il s’agit d’un support audiovisuel. Ceux‑ci présentent des enjeux particuliers en termes d’égalité femmes‑hommes.

Enfin, nous sommes convaincus que la responsabilité amène la confiance, que la confiance encourage l’adoption de l’intelligence artificielle, et que l’adoption de l’IA amène à l’innovation, opportune pour la France et pour le monde. Pour ce faire, nous avons besoin de coopération. Personne ne dispose de réponses à toutes les questions. Pour les obtenir, il est essentiel d’organiser des colloques avec le secteur privé, le secteur public, les chercheurs, la société civile. Ces acteurs peuvent se réunir pour construire l’avenir de cette technologie, en plaçant l’égalité au centre du projet.

Merci beaucoup pour cette initiative.

Mme Christine Lavarde, président de la délégation sénatoriale à la prospective. – Nous pourrions presque conclure après vos interventions, très complètes. Ces exemples ont‑ils suscité des interrogations ?

M. Elyes Jouini. – J’aimerais rebondir sur certains points évoqués. Dans le cadre de la chaire Femmes et Sciences, nous avons mené une étude sur deux millions de brevets déposés dans 130 pays. Nous avons examiné le 1 % des brevets les plus cités, qui sont donc les plus efficaces. Si les femmes ne représentent que 7 % des personnes ayant déposé des brevets dans l’OCDE, elles sont 15 % dans ce top 1 %, ce qui prouve qu’elles sont économiquement plus efficaces. Elles ne se dispersent pas à déposer des brevets qui ne serviront à rien.

En conduisant notre analyse, nous nous sommes aperçus que si les femmes représentaient 15 % des brevets les plus efficaces au sein de l’OCDE, elles représentaient 45 % du total dans les pays de l’ex‑sphère d’influence soviétique. Nous pourrions en déduire que dans les pays de type soviétique, l’homme et la femme sont traités à égalité, que l’accent est porté sur la force de travail et que chacun est affecté au poste de travail sur lequel il sera le plus efficace. Nous nous sommes aussi aperçus que le taux d’efficacité des brevets déposés par des femmes était plus élevé dans les pays où les infrastructures d’accueil de la petite enfance sont les plus développées. Ce constat est frappant. Il est lié à la question de temps dont on dispose, ou dont on peut disposer, qui peut conduire à une désertion du secteur, ou à des stratégies d’évitement en ne rentrant pas chez soi pour pouvoir travailler.

Enfin, il est vrai qu’il ne faudrait pas lancer sur le marché des produits qui n’ont pas été testés, testés et re‑testés. Pour autant, des producteurs de logiciels ne choisissent‑ils pas la solution de facilité en faisant tester leur produit par les utilisateurs avant de l’améliorer avec la version 5.8, 12.4, etc. ?

Mme Sasha Rubel. – Dans le cadre de l’EU AI Act, on parle beaucoup de cette idée de regulatory sandboxes, des bacs à sable réglementaires. Des échanges portent sur leur éventuelle mise en place dans le cadre de la mise en marché du produit. La France travaille sur le sujet en tant que leader de la réflexion sur le code de conduite au G7, et de la third party evaluation, ou l’évaluation d’une troisième partie dans la mise à disposition sur le marché de ces outils.

Permettez‑moi une comparaison avec le milieu médical. On ne lancera jamais sur le marché un médicament sans avoir fait le nécessaire pour s’assurer qu’il n’aura pas de conséquences nocives. Nous avons pris cet engagement volontaire avec La MaisonBlanche, à l’époque, mais aussi dans le cadre du G7.

Le red teaming vise justement à nous assurer que d’éventuels risques ou menaces seront pris en compte avant la mise en marché pour le public. AWS est une entreprise B2B, mais je pense que cet élément est absolument essentiel, en particulier pour tout ce qui concerne le B2C.

Mme Christine Lavarde, président de la délégation sénatoriale à la prospective. – À l’occasion de travaux antérieurs de la délégation à la prospective, nous avons pu observer, notamment lors de la crise sanitaire, que l’usage des données par l’État fait l’objet d’une réticence très forte des citoyens, alors même qu’ils sont capables de communiquer leurs données à Amazon, à Facebook, aux Gafam, sans aucune difficulté.

Madame Lucchesi, vous avez été à la tête d’Etalab pendant un certain nombre d’années. Avez‑vous le sentiment que la situation va évoluer positivement ? Avez‑vous réfléchi à la manière d’introduire une sorte de confiance entre les citoyens et l’État ? Ce problème n’est pas uniquement lié au Covid et aux Gafam, puisque si nous remontons plus loin dans l’histoire, nous retrouvons des situations dans lesquelles les citoyens avaient le sentiment d’être fichés par l’État.

Comment améliorer ce point qui constitue, à mon sens, l’une des difficultés pour l’appropriation de l’intelligence artificielle et son développement, surtout si on est attaché aux questions d’éthique ?

Mme Laure Lucchesi. – Ce point est très juste. Je pense que la réponse réside dans une action publique plus ouverte sur l’extérieur, plus transparente, qui accepte de montrer comment elle travaille. L’élaboration des services publics ou des politiques publiques doit se faire avec une gouvernance plus ouverte. Le sujet de l’exploitation des données constitue un bon exemple en la matière.

L’ouverture et le partage des données publiques visaient à répondre à ces défiances sur l’action de l’État. Nous avons diffusé proactivement des données dont dispose l’administration, ce qui permettait également de stimuler l’innovation et de créer des usages extérieurs.

La défiance par rapport à l’action de l’État est réelle. Il est intéressant, dans ce cadre, de rappeler que Guillaume Rozier récupérait, au début de la pandémie de Covid, des données du ministère de la santé relatives à la diffusion de l’épidémie. Le fait qu’un tiers extérieur à l’administration analyse ces données a pris une voix prépondérante dans la façon dont on communiquait sur la propagation de l’épidémie, alors même que, par ailleurs, le ministère de la santé et le gouvernement disposaient des tableaux de bord.

Nous ressentons des craintes quant à l’utilisation que pourrait avoir l’administration de nos données, et à leur échange avec d’autres acteurs. Nous pouvons apporter beaucoup d’améliorations au service public en partageant des données entre deux acteurs publics. Là aussi, il nous faut rendre compte à l’usager de l’utilisation de ses données et de la façon dont elles circulent d’une administration à l’autre. Cette possibilité est désormais intégrée à France Connect.

Ainsi, nous devons rendre compte au maximum des usages qui sont faits. C’est vrai dans le domaine de l’intelligence artificielle comme dans le scoring, comme l’illustrait l’exemple de la CNAF. Les risques et angoisses sont réels. Il nous faut introduire des sécurités dans la construction des services publics et dans la production de l’action publique. Nous avons besoin d’instances de dialogue avec la société civile, les comités de citoyens, les entreprises et la recherche. Elles contribueront à restituer la confiance, bien que des réticences puissent persister vis‑à‑vis de l’État qui, ailleurs, peut envoyer des signaux contraires et devenir plus totalitaire.

Mme Sigrid Trendel. – Je suis membre du Cercle InterElles, qui promeut la place des femmes dans les entreprises. Je dirige également une société venant en aide aux femmes dans leurs négociations commerciales, pour prendre le pouvoir sur leur avenir financier et économique.

Les discussions de ce matin, extrêmement instructives, m’ont amenée à m’interroger sur le schisme qui existe entre ce que les écoles d’ingénieurs mettent en place pour attirer les jeunes filles et le cadre législatif applicable aux entreprises. Permettez‑moi de vous livrer mon témoignage. Ma fille voulait rejoindre une école d’ingénieur. Je l’ai donc accompagnée à moult journées portes ouvertes. Aucune de ces écoles n’a parlé de la place des jeunes filles. Je les ai donc interrogées : quelle est leur politique face à ce public spécifique ? Qu’ont‑elles changé dans leur gouvernance par rapport aux événements des écoles du plateau de Saclay ? Que font‑elles pour attirer les jeunes filles ? La réponse la plus surprenante a été celle d’un homme qui m’a dit que son école accueillait maintenant 11 % de filles, contre 7 % par le passé. Elle avait également nommé une responsable égalité hommes‑femmes, personne que j’ai trouvée et qui n’a pas su quoi me dire. Enfin, cet homme m’a dit : « Que voulezvous que l’on fasse ? Les jeunes filles ne veulent pas venir, on ne va quand même pas leur filer des points en plus pour qu’elles viennent. » J’en suis restée sans voix.

Je suis étonnée d’avoir constaté, dans les nombreuses écoles rencontrées, que le sujet n’était pas pris à bras le corps. Aline Aubertin fait partie du Cercle InterElles. Elle est très active dans son école. Elle est d’ailleurs l’une des rares femmes à présider une école d’ingénieurs.

Dans le même temps, les entreprises sont de plus en plus poussées par les lois à intégrer des femmes dans leur gouvernance. La loi Rixain, qui est formidable, va les contraindre à augmenter leur taux de féminisation. Comment trouver un équilibre entre ces deux aspects ?

J’ai eu des discussions très intéressantes avec ma fille. Je lui disais que les femmes n’étaient pas nombreuses dans les écoles d’ingénieurs, lui demandant si cela pourrait lui poser un problème. Elle m’a répondu par la négative, indiquant qu’après ses études, elle vaudrait de l’or. J’ai été très surprise, parce que je n’avais jamais eu ce discours avec elle, mais elle a raison. Nous devons montrer aux filles que ce secteur est applicatif.

Lorsqu’elle était petite, ma fille voulait travailler avec les enfants. Je lui ai montré la vidéo d’un jeune enfant déballant une prothèse après avoir eu la main coupée, lui disant qu’elle pourrait aussi s’en occuper de cette manière. Je ne sais pas si son choix d’orientation y est lié, mais elle est aujourd’hui passionnée par la mécanique. C’est dans ce domaine qu’elle veut se diriger. Ainsi, nous devons faire comprendre aux filles que les sciences peuvent être très appliquées, très concrètes. En outre, si elles suivent cette voie, elles seront bankable, auront un poste, pourront faire des tas de choses. Je suis optimiste, même si la situation et le comportement des écoles d’ingénieurs m’ont laissée sans voix.

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – Cette intervention me permet de conclure.

Quand la loi Rixain a été votée, dix ans après la loi Copé‑Zimmermann, j’ai été invitée par Syntec à l’occasion de son assemblée générale. Elle portait sur les moyens d’attirer des femmes dans le secteur. C’était très intéressant. Pour autant, le président m’a présenté comme « Madame la Sénateur » et a indiqué peiner à trouver des « directeurs femmes ». Je lui ai expliqué que le jour où il chercherait des directrices, il trouverait probablement plus facilement des femmes. Cet exemple illustre bien le fait que certains blocages sont psychologiques. Tant qu’on cherche des hommes, on a du mal à trouver des femmes, ce qui est assez logique. Nous devons faire évoluer ces mentalités.

En effet, Madame Trendel, votre fille vaudra de l’or. Je constate que nous étions aujourd’hui plusieurs sénatrices ingénieures dans cette salle, bien que nous ayons quitté le métier. Nous pouvons donc porter la parole des ingénieures dans cet hémicycle. J’ai rencontré des jeunes filles, à qui j’ai indiqué qu’elles gagneraient mieux leur vie en faisant du dessin industriel qu’en travaillant dans une crèche, bien que nous ayons également besoin de ces professionnelles. Nous avons aussi besoin de dessinatrices industrielles et, objectivement, une femme sait très bien dessiner, comme un homme.

Mme Hélène Deckx van Ruys. – Je précise que notre ministre de l’industrie, Roland Lescure, a créé un réseau industriel visant la reféminisation de l’industrie française. Tout est lié.

Mme Dominique Vérien, présidente de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes. – C’est un sujet global. Nous l’avons abordé sous l’angle de l’intelligence artificielle, mais ce n’est qu’une facette à traiter.

C’est de façon positive que je clos ce colloque. J’ai beaucoup appris, je pense que je ne suis pas la seule. Un grand chantier nous attend. Nous serons à vos côtés pour faire évoluer ce sujet dans un cadre politique et législatif. Je vous remercie.

La réunion est close à 11 h 50.

 

Membres présents ou excusés

Office parlementaire d’évaluation des choix scientifiques et technologiques

 

Réunion du jeudi 7 mars 2024 à 8 h 30

Députés

Présent. - M. Pierre Henriet

Excusés. - Mme Christine Arrighi, M. Philippe Bolo, M. Maxime Laisney

Sénateurs

Présents. - M. Patrick Chaize, M. André Guiol, Mme Corinne Narassiguin, M. Stéphane Piednoir, M. Daniel Salmon

Présents non membres : M. François Bonneau, Mme Colombe Brossel, Mme Laure Darcos, M. Gilbert Favreau, M. Bernard Fialaire, M. Gérard Larcher, Mme Christine Lavarde, Mme Marie Mercier, M. Jean-Jacques Michau, Mme Marie-Pierre Monier, Mme Olivia Richard, Mme Marie-Pierre Richer, Mme Anne Souyris, Mme Dominique Vérien

Excusés. - M. Arnaud Bazin, Mme Martine Berthet, Mme Alexandra Borchio Fontimp, Mme Sonia de la Provôté, Mme Florence Lassarade

 

1