Au Tech Show Paris 2025, cinq femmes leaders ont partagé leur vision d’une intelligence artificielle au service de tous. Entre constats sans concession et solutions concrètes, elles dessinent les contours d’une tech qui ne laisse personne sur le bord du chemin
Imaginez un algorithme qui refuse un prêt à une entrepreneuse talentueuse. Un système de santé qui ne détecte pas correctement une maladie chez les femmes. Un outil d’IA qui perpétue, à grande échelle, les mêmes discriminations qu’hier. Ce n’est pas de la science-fiction : c’est notre présent. Mais lors d’une table ronde au Tech Show Paris 2025, cinq femmes ont démontré qu’un autre futur est possible.
Animée par Adia Danso, fondatrice de Tech with Women, cette rencontre a réuni Angela Naser (directrice de Women in Tech France), Jacqueline Tejeda Carnot (directrice informatique chez Roche), Gloria Fataki (administratrice à ONU Femmes France) et Frédérique Deschamps (responsable gouvernance et qualité des données chez Bpifrance). Leur mission : montrer comment l’IA peut devenir un levier d’inclusion plutôt qu’un amplificateur d’inégalités.
L’IA inclusive : quatre définitions, une même urgence
Qu’est-ce qu’une IA inclusive ? Loin des définitions académiques, les intervenantes ont partagé leur vision ancrée dans le réel.
Pour Angela Naser, c’est simple et radical : « Une IA inclusive, c’est une IA qui ne reprend pas les stéréotypes et les biais qu’on a, nous, êtres humains. Une IA qui ne reprend pas ce qui sépare aujourd’hui et qui rend inaccessible des jobs, des financements. » Issue du monde de la finance, elle sait de quoi elle parle : les algorithmes de crédit reproduisent déjà les discriminations du passé.
Jacqueline Tejeda Carnot élargit la perspective : « Quand je pense à l’IA inclusive, je pense à comment on peut tous bénéficier de l’IA. Et quand je dis tous, ça veut dire tout le monde, peu importe l’âge, peu importe la situation socio-économique, peu importe si c’est un homme ou une femme. » Dans le secteur pharmaceutique, cette approche n’est pas un luxe : c’est une question de vie ou de mort.
Frédérique Deschamps apporte la vision du secteur public : une IA accessible à tous les collaborateurs en interne, et qui facilite l’accès aux services pour les entrepreneurs et partenaires. Chez BpiFrance, l’inclusivité se traduit par l’accélération des processus pour tous.
Gloria Fataki va à l’essentiel : « Une IA inclusive, c’est une IA juste, pensée par toutes et par tous. » Elle pointe le cœur du problème : avec si peu de femmes dans les équipes qui conçoivent l’IA, comment s’étonner que les résultats soient biaisés ?
Le chiffre qui fait mal : 40% d’entrepreneurs, 0,8% de financement
Angela Naser lâche une statistique qui glace : « 40% des entrepreneurs dans le monde sont des femmes et elles ne reçoivent que 10% du financement global. En France, on était à 2% en 2023 et c’est tombé à 0,8% en 2024. »
Ces chiffres ne tombent pas du ciel. Ils sont le résultat direct d’algorithmes paramétrés avec nos biais. « Aujourd’hui, les dossiers passent par des algorithmes avant de passer par un être humain », explique-t-elle. « Si ces algorithmes sont mal paramétrés, ils reproduisent les mêmes règles à échelle encore plus grande. »
Le problème est systémique : moins de femmes dans la tech et la finance, donc moins de diversité dans la conception des algorithmes, donc des décisions biaisées qui perpétuent l’exclusion. Un cercle vicieux qu’il devient urgent de briser.
La qualité des données : la bataille invisible de Bpifrance
Chez Bpifrance, Frédérique Deschamps mène une bataille moins visible mais tout aussi cruciale : celle de la qualité des données. « Les biais proviennent souvent des biais de la qualité des données », rappelle-t-elle.
La solution ? Un programme massif d’acculturation baptisé « Data Adhésion ». Des fresques de la data déployées auprès de 600 collaborateurs, des e-learnings sur la qualité des données, une sensibilisation du top 200 aux collaborateurs de terrain. L’objectif : que chacun comprenne que derrière chaque algorithme, il y a des données, et que la qualité de ces données détermine l’équité des résultats.
Plus innovant encore : l' »Ideation Factory« , un dispositif qui permet à tous les collaborateurs, quels que soient leur poste ou leur niveau d’expertise en IA, de proposer des cas d’usage. En trois mois maximum, l’idée est expérimentée, évaluée, et soit industrialisée, soit abandonnée. « On laisse la liberté de parole à tout le monde », insiste Frédérique Deschamps. Une vraie démarche inclusive qui reconnaît que les bonnes idées peuvent venir de partout.
Santé : quand l’IA perpétue les inégalités médicales
Gloria Fataki rappelle un fait méconnu : « 3 milliards de personnes n’ont pas accès ne serait-ce qu’aux plateformes digitales. Et sur ces 3,6 milliards, 56% sont des femmes. » Une fracture numérique qui se double d’une fracture médicale.
Car les études cliniques sont principalement menées sur des populations européennes et américaines, avec une surreprésentation masculine. Résultat : certaines pathologies sont moins bien diagnostiquées et soignées chez les femmes. Les restrictions imposées aux femmes enceintes dans les protocoles de recherche privent la médecine de données essentielles.
Mais l’IA pourrait inverser cette tendance, explique Jacqueline Tejeda Carnot. Sa solution : les « bras synthétiques » dans les études cliniques. Le principe ? Au lieu de constituer uniquement des groupes de contrôle avec de vrais patients, on génère des données synthétiques à partir des dossiers médicaux existants dans les hôpitaux. « On peut créer de la diversité dans les études cliniques » en incluant virtuellement des populations sous-représentées – asiatiques, africaines, ou issues de territoires éloignés difficiles d’accès.
Une innovation qui transforme la contrainte en opportunité : l’IA devient l’outil qui compense les biais historiques de la recherche médicale.
La fuite des talents : un gâchis français
Le constat d’Angela Naser est sans appel : « Ce n’est pas normal qu’on soit la 7e puissance mondiale, qu’on ait autant de talents et qu’on laisse ces élèves-là, ces projets-là. » Elle révèle une statistique stupéfiante : la France est première en dépôt de brevets, mais 90% de ces brevets sont exploités ailleurs, faute de financement et de soutien.
Plus préoccupant encore pour l’inclusion : les grandes écoles tech françaises ne comptent que 20% de filles, et 80% de ces jeunes femmes viennent d’Afrique, du Maghreb ou du Moyen-Orient. Dans ces régions, les métiers tech sont davantage investis par les femmes. « Ce n’est pas normal qu’en 2025, dans les forums métiers des lycées, les métiers de la tech soient encore représentés par le métier d’informaticien », s’insurge-t-elle.
Women in Tech, qui compte 700 000 membres dans 72 pays et vise 100 millions de femmes d’ici 2030, a pris le problème à bras-le-corps. L’ONG organise des hackathons mélangeant collèges REP+ et grands lycées parisiens : « tout le monde nous avait dit que c’était impossible, on l’a fait », des événements parents-enfants, et intervient dans les DOM. Son combat actuel : les contrats d’alternance. « Ce n’est pas normal qu’on ait autant de jeunes qui sont aujourd’hui, en novembre, à rechercher des contrats d’alternance », martèle Angela Naser.
L’éducation : le maillon faible
Toutes les intervenantes convergent sur un point : sans transformation de l’éducation, pas d’IA inclusive demain. La comparaison avec les pays anglo-saxons est douloureuse.
Jacqueline Tejeda Carnot l’explique : « Dans les pays anglo-saxons, il y a une culture de ‘try fast and fail fast’. En France, ce n’est pas le cas. On va voir si au niveau réglementaire ça va aller, si au niveau social ça va aller, si on a la confiance… » Les universités américaines peuvent modifier leurs cursus rapidement, intégrer l’IA dans les formations médicales, créer des partenariats avec les GAFAM. En France, tout changement de cursus doit passer par l’État dans un système très centralisé.
Angela Naser partage une anecdote révélatrice : elle a fait deux ans de médecine il y a 30 ans. Aujourd’hui, sa nièce utilise… ses cours. « Si ma nièce étudie encore avec mes cours, il y a un problème. »
L’IA Act européen : nécessaire mais insuffisant
Gloria Fataki est nuancée sur la réglementation européenne : « L’IA Act est une base intéressante, importante, mais à ce stade encore insuffisante. » ONU Femmes France recommande d’intégrer l’égalité hommes-femmes dans l’évaluation des risques, de créer des indicateurs sexués, de soutenir la formation numérique.
Mais elle touche du doigt la limite de toute législation : les freins psychologiques. Avant de rejoindre ONU Femmes, Gloria Fataki a travaillé dans la transformation digitale chez Safran, un groupe aéronautique – défense où les hommes d’origine française dominent largement. « Au départ, je ne me sentais pas légitime pour le faire. J’ai hésité […] parce que je me suis dit, la tech, est-ce que c’est fait pour moi ? J’étais jeune, noire. Et j’ai eu peur. »
Son message est clair : « On a beau mettre en place des textes de loi, mais au fond, derrière, on a des femmes qui, face aux obstacles, reculent. Et parfois, les obstacles viennent d’elles-mêmes. »
Souveraineté numérique : le dilemme vitesse versus sécurité
Lorsque AWS tombe en panne et paralyse une partie de la France, la question de la souveraineté numérique se pose avec acuité. Faut-il privilégier les infrastructures étrangères rapides ou les solutions européennes plus sûres ?
Jacqueline Tejeda Carnot analyse le dilemme : « Les clouds américains, tout va très vite. Ils ne sont pas tellement sécurisés, mais ils s’adaptent. L’offre de services est énorme pour les développeurs, il y a de l’IA intégrée. Les clouds français sont très sécurisés avec toutes les normes, mais ils n’ont pas la même offre de services. »
Le choix dépend des données : pour le gouvernement ou l’armée, pas de question, on utilise un cloud français. Pour la santé, la réglementation HAS sécurise les données et les deux options sont conformes. Pour les données moins sensibles, c’est au cas par cas.
Mais Jacqueline Tejeda Carnot va plus loin : le vrai enjeu n’est peut-être pas où stocker les données, mais comment y accéder et comment entraîner les modèles. Elle imagine un nouveau paradigme : au lieu de centraliser les données de patients asiatiques, africains, américains dans un même lieu, on déploierait le modèle d’IA directement dans les hôpitaux locaux. « Le modèle d’IA va prendre des données qui existent à l’hôpital. » Un changement qui nécessite une harmonisation des systèmes de santé, mais qui pourrait révolutionner la diversité des algorithmes.
Réglementation : l’équation impossible ?
Frédérique Deschamps pointe une tension réelle : « On nous demande d’être performants et donc de mettre en place de l’IA. Et c’est très réglementé. Chez Bpifrance, il y a la conformité, les juristes, la sécurité. Et en fait, ça nous freine dans nos innovations. »
Son appel est mesuré : elle ne demande pas de supprimer les garde-fous, mais de « trouver le juste milieu entre conformité, sécurité, innovation. » Dans les phases d’expérimentation, certaines contraintes pourraient être allégées, avant de tout sécuriser lors de l’industrialisation.
Si vous ne pouviez faire qu’une seule chose…
Face à cette question finale, chaque intervenante a révélé sa priorité absolue.
Angela Naser ne tergiverse pas : « Moi, je ne commencerais pas par l’IA, je commencerais par former les jeunes et m’occuper de l’éducation nationale, mettre les moyens dans l’école. Parce que si on veut être les numéros un dans l’IA, il faut commencer à l’école. »
Jacqueline Tejeda Carnot voit deux leviers : un axe rapide via la réglementation (par exemple, ne rembourser que les algorithmes d’IA inclusifs en santé), et un axe structurel en s’assurant que les équipes qui créent les algorithmes sont elles-mêmes diverses, en genre, âge et ethnicité.
Frédérique Deschamps insiste sur l’accessibilité multicanal : « Donner la possibilité simplement à tous de pouvoir accéder à l’IA », que ce soit sur mobile, dans les outils métiers ou la bureautique.
Gloria Fataki met l’accent sur la sensibilisation : « On ne sensibilise pas assez les personnes. Quels sont les bienfaits de l’IA ? Quels sont les dangers ? » Elle évoque ces drames où des jeunes développent des relations malsaines avec des IA, allant parfois jusqu’au suicide. « L’inclusion passe aussi par cette sensibilisation-là, peut-être dans les écoles. »
« Osez, parce qu’on n’ose pas assez ! »
Angela Naser conclut avec un message d’une puissance rare, s’adressant directement aux jeunes femmes présentes : « Osez entreprendre, osez lever la main pour saisir les opportunités. Osez changer votre vie. Au pire, on vous dira non. Au pire, vous aurez appris et vous allez gagner. »
Elle cite Mandela : « Je ne perds jamais, soit je gagne, soit j’apprends. » Et partage son propre parcours : « J’ai travaillé dans la finance sans rien connaître à la finance. Je suis arrivée dans la tech sans rien connaître à la tech. Je peux vous assurer que je suis totalement perdue dans le salon. Mais ce n’est pas grave. »
Ce témoignage résonne avec celui de Gloria Fataki qui, malgré ses doutes initiaux face à un environnement masculin, a réussi dans la transformation digitale. « Tout ça, c’était dans ma tête », confie-t-elle. « Parfois, on a peur, alors qu’il faut simplement se lancer et y aller, frapper aux portes. »
Ce qu’il faut retenir
L’IA inclusive n’est pas un concept flou ou un slogan marketing. C’est une urgence concrète qui se décline en actions précises:
- Diversifier les équipes qui conçoivent les algorithmes
- Améliorer la qualité des données pour éviter les biais à la source
- Innover dans les méthodologies (bras synthétiques en santé, déploiement décentralisé des modèles)
- Réformer l’éducation dès le plus jeune âge
- Réguler intelligemment sans étouffer l’innovation
- Sensibiliser largement aux opportunités et aux dangers de l’IA
- Encourager l’audace, particulièrement chez les femmes et les populations sous-représentées
Car au fond, comme l’ont montré ces cinq femmes leaders, l’IA inclusive ne se décrète pas : elle se construit au quotidien, par des actes, des choix, des formations, et par ces milliers de « oui » prononcés malgré la peur, malgré les doutes, malgré les statistiques décourageantes.
L’intelligence artificielle sera inclusive parce que des femmes et des hommes auront décidé qu’elle le serait. Parce qu’ils auront refusé que les algorithmes de demain reproduisent les injustices d’hier. Et parce qu’ils auront compris qu’une technologie qui exclut la moitié de l’humanité n’a rien d’intelligent.
Arnaud Dupuis – Practice Leader Data ALGOFI
Table ronde animée par Adia Danso (Tech with Women) avec Angela Naser (Women in Tech France), Jacqueline Tejeda Carnot (Roche), Gloria Fataki (ONU Femmes France) et Frédérique Deschamps (Bpifrance) – Tech Show Paris 2025


