Accueil>Santé et intelligence artificielle, un champ important de la lutte contre les discriminations
10.10.2022
Santé et intelligence artificielle, un champ important de la lutte contre les discriminations
Tandis que l’intelligence artificielle investit progressivement tous les pans de notre société, et notamment le secteur de la santé, la sous-représentation féminine dans la filière des nouvelles technologies risque d’alimenter voire d’engendrer de graves inégalités. Dans le cadre d’une série d’articles In Situ proposée par Sciences Po Executive Education, rencontre avec Audrey Baneyx, ingénieure de recherche au médialab de Sciences Po.
Les femmes ont été pionnières en matière d’informatique. Pourquoi se sont-elles progressivement effacées au profit des hommes ?
Audrey Baneyx : Le développement de l’informatique repose sur le travail invisibilisé d’innombrables femmes présentes dans des domaines variés : décryptages de messages codés, lancement de fusées sur la lune, inventions de nouveaux langages informatiques, développement de jeux vidéo, etc.
En 1843, Ada Lovelace crée le premier algorithme logiciel et est alors reconnue comme la première développeuse. Plus tard, aux alentours de la seconde guerre mondiale, les personnes embauchées pour opérer des calculs militaires et balistiques sont des femmes. Ces “calculatrices humaines”, comme on les appelait, ne bénéficiaient d’aucune reconnaissance et travaillaient à moindre coût. Au lendemain de la guerre, elles sont peu à peu renvoyées à leur foyer et remplacées par les hommes en quête de statut. Le terme “informaticien“ est alors inventé pour valoriser cette fonction auprès du public masculin et de la société.
En remontant le fil du temps, on se rend bien compte que les inégalités de genre sont donc constitutives de l’histoire de l’informatique. Et elles perdurent puisque les femmes représentent moins de 20% des salariés dans le secteur de la Tech.
De nombreux métiers masculins se sont pourtant ouverts aux femmes, pourquoi cette résistance ?
Bien qu’étant assez nombreuses dans les filières scientifiques jusqu’au Bac, peu de jeunes filles choisissent de poursuivre dans cette voie. Cela tient d’abord à un problème de représentation sociale : les femmes scientifiques sont quasiment absentes des livres d’histoire et de la scène médiatique.
Le milieu éducatif, toujours plus enclin à diriger les filles vers les métiers du care, est aussi en cause. Enfin, les écoles d’ingénieurs et les métiers de la Tech étant largement dominés, numériquement en tout cas, par les hommes, les femmes mettent elles-mêmes un frein à leurs aspirations par peur du sexisme ambiant.
Quelles sont les conséquences de cette sous-représentation féminine dans l’Intelligence artificielle ?
L’intelligence artificielle (IA) s’appuie sur le traitement de bases de données conséquentes construites et alimentées par des personnes. Si elles sont quasi exclusivement masculines, les biais de représentation, véhiculés de manière explicite ou implicite, se matérialisent dans les productions langagières et donc aussi dans le code des programmes informatiques. Le fonctionnement des algorithmes d’intelligence artificielle reposant sur un processus d’auto-apprentissage, ils sont ensuite répliqués mécaniquement ad nauseam.
Ainsi, la discrimination algorithmique est en grande partie un problème systémique. Cela conduit à une absence de prise en compte des spécificités féminines, mais également culturelles, ethniques, dans les solutions numériques. Cela peut même mener à des conclusions faussées, ce qui, en médecine notamment, s’avère très problématique.
Concrètement, quels sont les risques de ces inégalités en matière de santé ?
Les applications médicales de l’IA recouvrent de nombreux registres depuis l’analyse de l’imagerie médicale, la robotique, l’aide à la décision et au diagnostic jusqu’à l’élaboration des politiques de prévention ou la médecine prédictive...
La propagation de stéréotypes et d’inégalités peut donc avoir des conséquences multiples sur la santé publique. Par exemple, le risque d’infarctus du myocarde ayant été longtemps associé à l’image d’un quinquagénaire au bord du burn out professionnel, la maladie est aujourd’hui sous diagnostiquée chez les femmes. Il en résulte qu’actuellement la majorité des décès liés à l’infarctus sont féminins. Et le phénomène est entretenu par les statistiques réinjectées dans les systèmes d’IA issues du lien établi entre diagnostic, prescriptions médicales et sexe. De même, faute d’être suffisamment informée sur la prévention des risques MST, la communauté lesbienne est particulièrement touchée par les cancers du col de l’utérus. Et ce ne sont là que quelques exemples.
Comment, selon vous, lutter contre ce patriarcat numérique ?
Il faut d’abord lutter contre les stéréotypes qui empêchent les femmes de se projeter dans les métiers de l’informatique en sensibilisant parents et personnels du monde éducatif. Il serait également bénéfique de démystifier le codage en en faisant une discipline à part entière au lycée, obligatoire pour tous. Les entreprises du numérique doivent également être incitées à intégrer l’égalité femmes/hommes dans leurs objectifs managériaux et la faire respecter. Il serait d’ailleurs primordial de les sensibiliser aux sanctions encourues en cas de production d’un algorithme discriminant. Encourager l’arrivée de femmes à la tête d’entreprises du numérique changerait sans doute aussi beaucoup la donne.
Les solutions sont donc nombreuses mais il faut agir en conscience au risque de perpétuer des inégalités d’usage dans toutes les sphères de notre quotidien et tout particulièrement dans celui de la santé.
Au-delà des inégalités entre les sexes, comment rendre l’intelligence artificielle plus inclusive ?
Dans « Algorithmes, la bombe à retardement », un essai rédigé par la mathématicienne américaine Cathy O’Neil, on peut lire ceci : « Les processus reposant sur le Big Data n’inventent pas le futur, ils codifient le passé. Il faut pour cela une imagination morale que les humains sont seuls en capacité de fournir. Nous devons expressément intégrer à nos algorithmes de meilleures valeurs, en créant pour le Big Data des modèles conformes à nos visées éthiques. ». Elle pose très clairement le problème. Il serait intéressant de créer des outils algorithmiques pour mesurer les niveaux d’inclusion et de diversité dans les modèles ou les corpus de base de données servant de référence aux outils d’apprentissage artificiel. Le codage servirait alors à réduire les inégalités de traitement dans l’informatique, et par capillarité, pourrait, espérons-le, inspirer la société dans son ensemble.
Malheureusement, le coût de l’acquisition ou de la constitution d’une base de données reste aujourd’hui un frein conséquent. La solution la plus immédiate consiste donc à encourager la diversité des sexes, des genres, des origines, des cultures et des catégories sociales au sein de la communauté informatique car sans inclusion, l’intelligence artificielle n’aura d’intelligence que le nom.
Cet entretien a été initialement publié sur le site de Sciences Po Executive Education.
En savoir plus
- Algorithmes et inclusivité : écoutez les points d'alerte d'Audrey Baneyx
- L'Executive Education de Sciences Po
- Le médialab de Sciences Po
- Retrouvez les formations Sciences Po Executive Education en Digital et en Santé