Warning: Attempt to read property "ID" on int in /home/clients/f3facd612bb3129d1c525970fad2eeb3/sites/tpp.revueladeferlante.org/wp-content/themes/Divi/includes/builder/post/PostStack.php on line 62

Comment rendre l’intelligence artificielle plus inclusive ?

Bien que sou­vent présen­tée comme une tech­nolo­gie effi­cace, neu­tre et révo­lu­tion­naire, l’intelligence arti­fi­cielle (IA) est truf­fée de biais sex­istes et racistes. Cela est dû à la manière même dont elle est con­stru­ite et ali­men­tée. Com­ment la ren­dre plus inclu­sive ? Débat entre la philosophe Vanes­sa Nurock, la doc­teure en intel­li­gence arti­fi­cielle Amélie Cordier et la juriste Doaa Abu-Ely­ounes.
Publié le 19/10/2023

Modifié le 16/01/2025

image générée en juillet 2023 par l’algorithme d'intelligence artificielle Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona
Prompt util­isé en anglais : « Woman work­ing in the tech indus­try, sur­round­ed by her team, inclu­sive envi­ron­ment, cin­e­mat­ic, film still, pho­tog­ra­phy » (femme tra­vail­lant dans l’industrie de la tech, entourée de son équipe, envi­ron­nement inclusif, ciné­ma­tique, pho­to de plateau, pho­togra­phie). Karin Crona : « À force de prompter “envi­ron­nement inclusif”, j’ai com­pris que Mid­jour­ney ne savait pas bien inter­préter cette expres­sion. La femme n’a pas l’air très inté­grée à cette équipe d’hommes. Les mots tels que “pho­to de plateau” me per­me­t­tent d’obtenir une image plus sophis­tiquée. Par défaut, le monde de la tech est som­bre et bleu. »

Retrou­vez cet arti­cle dans la revue La Défer­lante n°12 Rêver, paru en novem­bre 2023. Con­sul­tez le som­maire.

Vanessa Nurock par Lucile Gautier pour La Déferlante

Vanes­sa Nurock est pro­fesseure de philoso­phie et direc­trice adjointe du Cen­tre de recherch­es en his­toire des idées (CRHI) de l’Université Côte d’Azur. Elle y est respon­s­able de la chaire Unesco d’éthique du vivant et de l’artificiel.

Amélie Cordier par Lucile Gautier pour La DéferlanteAmélie Cordier est doc­teure en intel­li­gence arti­fi­cielle, fon­da­trice et prési­dente de l’association Lyon-iS-Ai, qui fédère les per­son­nes et struc­tures tra­vail­lant dans l’intelligence arti­fi­cielle et vise à pro­mou­voir ce secteur.

 

Doaa Abu-Elyounes par Lucile Gautier pour La Déferlante

Doaa Abu-Ely­ounes tra­vaille sur l’éthique de l’intelligence arti­fi­cielle auprès de l’Unesco. Elle est égale­ment chercheuse affil­iée au Berk­man Klein Cen­ter for Inter­net & Soci­ety de l’université de Har­vard, et réalise une recherche post­doc­tor­ale à l’École nor­male supérieure de Paris.

 

 

 

Les partisan·es de l’intelligence arti­fi­cielle la présen­tent comme rel­a­tive­ment neu­tre et effi­cace. Vanes­sa Nurock, dans un arti­cle de 2019 (1), vous évo­quiez déjà le prob­lème que pose ce sup­posé « point de vue de nulle part » : qu’en est-il aujourd’hui ?

Vanes­sa Nurock Cette idée selon laque­lle l’intelligence arti­fi­cielle serait neu­tre, objec­tive et impar­tiale m’interroge. Ces ter­mes sont dis­tincts et se com­plè­tent pour aboutir à ce « point de vue de nulle part » attribué à l’IA. La pre­mière idée, c’est celle d’une sup­posée neu­tral­ité tech­nologique, alors que l’IA telle qu’elle s’est imposée pro­pose une con­cep­tion de la société dom­i­nante et très binaire. Chez les employés de l’industrie tech, on con­sid­ère que le pro­fil le plus fréquent est celui d’un homme, blanc (quoique là-dessus, je reste mesurée, on ne sait pas bien ce qu’il se passe en Chine par exem­ple), quadragé­naire, qui porte une vision patri­ar­cale et pas très diverse du monde. Ensuite, il y a l’idée d’une objec­tiv­ité pseu­do­sci­en­tifique. L’intelligence arti­fi­cielle n’est pas une sci­ence en tant que telle, mais on a l’impression que l’IA va nous apporter des infor­ma­tions objec­tives, c’est-à-dire con­formes aux faits, parce qu’elle repose sur des don­nées. Or, si on lui donne de mau­vais­es don­nées, la machine recrachera de mau­vais­es don­nées… Le troisième élé­ment con­siste à penser que l’IA va nous per­me­t­tre de pren­dre des déci­sions éthiques ou poli­tiques impar­tiales. En poli­tique, cela aboutit à présen­ter une IA aux élec­tions, comme ça s’est déjà pro­duit dans une com­mune au Japon, en 2018, ou lors des élec­tions lég­isla­tives de 2022 au Dane­mark. Pourquoi est-ce qu’on con­sid­ère comme presque sacré ce qui est issu de l’IA ? L’une de mes hypothès­es, c’est que l’on con­fond ce qui est arti­fi­ciel et ce qui est bien ou juste.

Doaa Abu-Ely­ounes La neu­tral­ité est l’un des plus grands mythes de l’IA, prob­a­ble­ment parce que c’est un très bon argu­ment de vente. Le secteur pub­lic, en par­ti­c­uli­er, peut dire : « On a un prob­lème, déployons de la tech­nolo­gie pour le résoudre et tout ira bien ». Alors qu’il s’agit d’un choix. Pen­dant mon doc­tor­at, j’ai étudié entre autres com­ment l’IA est util­isée pour détecter des fraudes aux aides sociales. Tout le monde est d’accord pour dire que les aides sociales doivent être ver­sées à ceux qui en ont le plus besoin, et non détournées à des fins fraud­uleuses. Mais il y a un exem­ple célèbre aux Pays-Bas, où les sys­tèmes d’IA employés pour repér­er ce type de fraude ont pris en compte des élé­ments comme le fait d’avoir une deux­ième nation­al­ité, ou de ne pas par­ler le néer­landais couram­ment, comme des indi­ca­teurs du risque que la per­son­ne com­mette des fraudes (2). Cela s’est égale­ment pro­duit aux États-Unis et ailleurs. Dans ce cas pré­cis, le fonc­tion­nement de ces machines pose plusieurs ques­tions : com­ment définit-on la fraude, quels en sont les indi­ca­teurs les plus pré­dic­tifs ? Et pourquoi ne pas mesur­er aus­si la fraude fis­cale ?

Amélie Cordier L’IA est un vaste champ, mais l’application dont on par­le le plus, actuelle­ment, ce sont les mod­èles d’apprentissage sta­tis­tique. Or, ces machines ont beau être très effi­caces, elles ne le sont qu’en fonc­tion des don­nées qu’on leur four­nit. Les per­son­nes qui les dévelop­pent peu­vent être pétries de bonnes inten­tions et essay­er d’adapter l’apprentissage, si les don­nées util­isées sont générées par la société dans son ensem­ble, elles en restent dépen­dantes. Des chercheuses tra­vail­lant aux États-Unis ont qual­i­fié ces mod­èles de « per­ro­quets sto­chas­tiques (3) », c’est-à-dire qu’ils n’ont aucun raison­nement pro­pre : ils ne font que repro­duire des con­clu­sions qui reflè­tent les sta­tis­tiques qu’il est pos­si­ble de faire sur leurs don­nées d’entraînement. Quand on demande à l’application Sta­ble Dif­fu­sion de créer un por­trait de médecin par exem­ple, elle génère l’image d’un homme blanc de 40 ans ; quand on demande une infir­mière, on a une femme blanche de 20 ans, peut-être avec une jupe courte, et ça choque. Nous, en tant qu’êtres humains, trou­vons que ces résul­tats ne sont pas représen­tat­ifs, on par­le de « biais ». Sauf que si ces résul­tats sor­tent, c’est parce qu’ils reflè­tent des idées pré­conçues répan­dues dans la société.


« Les IA peu­vent être moins racistes si nous les entraînons sur des don­nées qui reflè­tent davan­tage notre diver­sité. »

Doaa Abu-Ely­ounes


Intelligence artificielle : une multitude d’applications

Le terme « intel­li­gence arti­fi­cielle » désigne aus­si bien un champ de recherche mul­ti­dis­ci­plinaire que les appli­ca­tions de ce champ de recherche. Selon les accep­tions, l’IA englobe des domaines aus­si dif­férents que le traite­ment automa­tique du lan­gage, la recon­nais­sance des formes et des images, le dia­logue et la tra­duc­tion automa­tique… Elle trou­ve des appli­ca­tions dans l’automatisation de tâch­es, l’aide au diag­nos­tic et à la prise de déci­sion, la recon­nais­sance et la syn­thèse vocale, la généra­tion de textes et d’images plau­si­bles, etc. Ces tech­niques sont par exem­ple util­isées dans la finance et l’assurance (pour la détec­tion de fraudes), dans l’industrie, en médecine (pour aider à repér­er des lésions sur de l’imagerie médi­cale), dans les assis­tants dits « intel­li­gents », dans le jeu vidéo, dans les moteurs de recherche et les réseaux soci­aux (index­a­tion des con­tenus, mod­éra­tion), etc. Le type d’IA dont on par­le le plus ces dernières années recou­vre plusieurs tech­niques d’« appren­tis­sage machine » qui se font, sou­vent, de manière « non super­visée ». Cela con­siste à fournir de vastes quan­tités de don­nées au mod­èle, puis à le laiss­er tourn­er et créer ses pro­pres con­nex­ions jusqu’à ce qu’il restitue un résul­tat. Mais cer­taines approches per­me­t­tent plus de con­trôle : les tech­niques d’apprentissage super­visé, d’une part, comme celle qui per­met à une machine de recon­naître un chat d’un chien après qu’elle a « ingur­gité » des quan­tités astronomiques d’images éti­quetées « chat », « chien » ou « rien » par des humains. Mais aus­si des logiques de pro­gram­ma­tion plus clas­siques, où, au lieu de laiss­er la machine se con­stituer son pro­pre jeu de règles, on les lui four­nit explicite­ment.

Ces biais sex­istes, racistes et âgistes sont-ils inévita­bles ?

Amélie Cordier Quand Ama­zon a créé un algo­rithme (4) de tri de CV pour recruter ses employé·es en 2014, et qu’il s’est avéré dis­crim­i­nant envers les femmes, ça m’a beau­coup fait rire parce que tout le monde s’est insurgé. La machine était com­plète­ment sex­iste, mais c’était nor­mal : elle repro­dui­sait les pra­tiques d’embauche de l’industrie des nou­velles tech­nolo­gies. C’est un phénomène intéres­sant, il est presque plus sim­ple pour quelqu’un de dire qu’une IA est raciste que d’admettre que son directeur des ressources humaines l’est. Ce côté froid de la machine per­met à la société de par­ler du sujet de manière dépas­sion­née, parce qu’il ne s’agit pas d’individus, mais d’un pro­gramme.

Doaa Abu-Ely­ounes Je suis opti­miste. Les IA peu­vent être moins racistes si nous les entraînons sur des don­nées qui reflè­tent davan­tage notre diver­sité. Les déséquili­bres et les dis­crim­i­na­tions à l’œuvre sont des prob­lèmes sociotech­niques, socioéthiques même. En infor­ma­tique, il est impos­si­ble de gér­er simul­tané­ment tous les enjeux d’équité, en théorie comme en pra­tique. Quant au droit et à la poli­tique, ils sont sou­vent conçus de manière très générale, avec des descrip­tions qui cherchent à s’adapter à un grand nom­bre de cas. C’est pourquoi les choix de con­cep­tion néces­si­tent des exper­tis­es inter­dis­ci­plinaires, des arbi­trages et, au bout du compte, il faut pren­dre des déci­sions dif­fi­ciles pour créer des pos­si­bil­ités de tra­vailler ensem­ble… Mais c’est ce qui per­me­t­trait d’obtenir de meilleurs pro­duits.

Toutes les images qui illus­trent ce débat ont été générées en juil­let 2023 par l’algorithme Mid­jour­ney grâce à des requêtes rédigées par l’artiste Karin Crona.

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Toutes les images qui illus­trent ce débat ont été générées en juil­let 2023 par l’algorithme Mid­jour­ney grâce à des requêtes rédigées par l’artiste Karin Crona. Prompt util­isé en anglais : « Mag­a­zine pho­tog­ra­phy, female tech work­er with team work­ers, spa­cious and min­i­mal­ist designed office, real­ism, opti­mism » (pho­togra­phie de mag­a­zine, femme tra­vail­lant dans la tech avec son équipe, bureau spa­cieux et min­i­mal­iste, réal­isme, opti­misme). Karin Crona : « Ici, j’ai voulu créer un envi­ron­nement plus haut de gamme, mais l’image n’est pas très réussie, parce que tout a l’air faux. Ce n’est pas un biais, mais plutôt un manque d’informations visuelles. À chaque nou­velle ver­sion de Mid­jour­ney, les erreurs de ce type se font plus rares. »

 

En 2020, dans le monde, seule­ment 15 % des data sci­en­tists étaient des femmes. Dans quelle mesure cette faible représen­ta­tion a‑t-elle une influ­ence sur les résul­tats algo­rith­miques ?

Vanes­sa Nurock His­torique­ment, il y avait des femmes dans le numérique (5), mais petit à petit, on a moins encour­agé les jeunes filles et les femmes à tra­vailler dans ce domaine. Aujourd’hui, le numérique est un monde si mas­culin­isé que cela pose un vrai prob­lème. Il impose d’autant plus sa vision patri­ar­cale qu’il est devenu un haut lieu de pou­voir.

Amélie Cordier Pour moi, c’est un prob­lème auquel il faut s’attaquer dès 12 ou 13 ans : très peu de filles font des sci­ences, encore moins des math­é­ma­tiques et de l’informatique – elles sont donc rares à tra­vailler dans l’IA. Par con­séquent, celles qui finis­sent par exercer dans la tech sont sur­sol­lic­itées, pour prou­ver qu’il y a bien des femmes dans ce milieu. L’IA représente pour­tant une oppor­tu­nité : c’est un univers telle­ment neuf qu’il génère la créa­tion d’énormément de nou­veaux métiers. Par ailleurs, l’IA, ce ne sont pas que des math­é­ma­tiques et de l’informatique : il y a beau­coup d’autres métiers – ceux qui con­cer­nent l’expérience util­isa­teur par exem­ple, ou la créa­tion de prompts (6) pour les mod­èles algo­rith­miques les plus récents –, qui représen­tent autant d’occasions de met­tre des femmes dans l’équation.

Doaa Abu-Ely­ounes Quand les développeurs con­stru­isent des out­ils tech­nologiques, tous les petits choix for­mulés au fil de leur tra­vail peu­vent avoir un effet sur le pro­duit fini. Veiller à ce que ceux-ci soient éthiques pour que le pro­duit soit adap­té au plus grand nom­bre, c’est une démarche qu’on appelle « éthique by design ». S’il y avait plus de femmes dans les équipes qui dévelop­pent les sys­tèmes, ceux-ci seraient presque automa­tique­ment plus inclusifs, non pas parce que les développeurs cherchent ouverte­ment à dis­crim­in­er, mais parce qu’ils con­stru­isent unique­ment en fonc­tion de ce qu’ils con­nais­sent.

Amélie Cordier C’est l’exemple de Joëlle Pineau. À la fin des années 1990, cette doc­tor­ante en intel­li­gence arti­fi­cielle tra­vail­lait sur des sys­tèmes de recon­nais­sance vocale pour les pilotes d’hélicoptère. Le pre­mier jour de son stage, on lui a fait une démon­stra­tion du sys­tème puis on l’a lais­sée tra­vailler. Sauf qu’elle n’a jamais pu le faire fonc­tion­ner : per­son­ne dans l’équipe n’avait envis­agé qu’un sys­tème de recon­nais­sance vocale devait aus­si pou­voir fonc­tion­ner avec des voix de pilotes féminines…

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en anglais : « Female tech work­er sur­round­ed by her team, a decade from now, high­ly detailed, real­ism, pho­tog­ra­phy » (femme tra­vail­lant dans la tech entourée de son équipe, dans dix ans, très détail­lé, réal­isme, pho­togra­phie). Karin Crona : « Ici, “l’équipe”, ce sont des per­son­nages en minia­ture, peut-être à cause du terme “très détail­lé”. Si je demandais “une femme dans la tech”, j’obtiendrais sans doute juste le vis­age d’une femme (“belle”, bien sûr) avec un ordi­na­teur. Je rajoute donc des mots dans le prompt pour chercher des biais autres que ceux de la beauté. »

Des images artificielles, au cœur des stéréotypes

Trop par­faites, irréelles, décalées. Même si cer­taines d’entre elles peu­vent pass­er pour « vraies », les images entière­ment conçues par des intel­li­gences arti­fi­cielles ont sou­vent un petit air dystopique. Elles sont surtout un con­cen­tré de stéréo­types. Pour illus­tr­er ce débat, nous avons fait appel à l’artiste visuelle Karin Crona, qui s’intéresse depuis plus d’un an aux images créées par intel­li­gence arti­fi­cielle. Pour La Défer­lante, elle a com­posé les prompts (ou requêtes – lire note 6) du type « femme tra­vail­lant dans la tech » ou « femme d’âge mûr » pour génér­er les images que nous pub­lions dans ces pages. Celles-ci met­tent en évi­dence les biais des plate­formes de créa­tion d’images. « Sur la plate­forme Mid­jour­ney par exem­ple, les femmes sont par défaut blanch­es, jeunes, minces et cor­re­spon­dant aux canons de la beauté », explique-t-elle. Les algo­rithmes sont égale­ment biaisés du fait des mots qu’ils cen­surent ou des erreurs inhérentes à une tech­nolo­gie encore per­fectible. Les résul­tats évolu­ent très vite. « Il y a quelques mois, je pou­vais obtenir une image en util­isant l’expression “women men­stru­at­ing” (femme men­struée). Ensuite, il fal­lait utilis­er le mot “peri­od” (règles) pour obtenir le même résul­tat.  Depuis, ce mot a été inter­dit. Mid­jour­ney rejette les deman­des qu’il juge “indé­centes” car pou­vant com­porter de la nudité ou de la vio­lence. » Ain­si, ce qui devient intéres­sant pour la plas­ti­ci­enne, ce n’est pas tant les résul­tats de l’IA que le proces­sus de créa­tion qu’ils révè­lent. « Je m’amuse beau­coup à per­turber ou con­tourn­er l’algorithme avec des prompts inco­hérents ou bizarres, cela génère des images très étranges. »

Par leur fac­ulté à créer du texte et des images, les IA généra­tives comme Chat­G­PT ou Sta­ble Dif­fu­sion soulèvent des ques­tions poli­tiques et éthiques impor­tantes : démul­ti­pli­ca­tion des fauss­es infor­ma­tions, explo­sion de la haine en ligne, etc. À l’inverse, des gens comme Elon Musk (qui a cofondé puis quit­té Ope­nAI, créa­teur de Chat­G­PT) qual­i­fient l’IA de « woke », pré­cisé­ment parce que les développeurs y ajoutent des mécan­ismes d’amélioration des résul­tats. Qu’en pensez-vous ?

Vanes­sa Nurock On ne peut avoir ce débat que si on pense que l’IA est neu­tre. Or elle ne l’est pas : ses résul­tats dépen­dent de la vision du monde de ceux qui la con­stru­isent ou de ceux qui la finan­cent. Quelque­fois, celles et ceux qui la font sont des petites mains dans des pays en voie de développe­ment (Kenya ou Inde pour les États-Unis, Mada­gas­car pour la France, par exem­ple), et elles doivent appli­quer les résul­tats de cer­tains mod­èles économiques qu’elles subis­sent elles-mêmes… Après, on peut dis­cuter de la pos­si­bil­ité de s’accorder sur des critères per­me­t­tant de décider qu’une IA biaisée est quand même bonne – ce qui est le cas, selon moi, d’une IA qui béné­fi­cie aux plus vul­nérables, par exem­ple. Par con­tre, si la machine con­tribue à instau­r­er ou repro­duire des rap­ports de dom­i­na­tion, c’est un prob­lème.

Amélie Cordier Je ne suis pas tout à fait d’accord. Je pense qu’il est très louable que des ingénieur·es obser­vent les résul­tats de leurs mod­èles d’IA et se dis­ent : « Ça ne va pas, c’est ori­en­té. » C’est impor­tant à la fois pour la recherche et pour la fab­ri­ca­tion des pro­duits finis – certain·es dévelop­pent même des out­ils des­tinés à détecter plus facile­ment les biais, pour per­me­t­tre de « tru­quer » les résul­tats de la machine. Mais dès qu’on prend la déci­sion de faire ça, en tant qu’entreprise ou comme ingénieur·e, on s’exprime depuis un cer­tain point de vue. On a son mod­èle de société, ses biais, sa cul­ture, et fatale­ment, même si on essaye de ren­dre le mod­èle plus juste, on va le ren­dre plus juste dans une cer­taine direc­tion. Ce qui importe vrai­ment et ce qu’on ne fait pas assez, c’est surtout de partager l’information et de cul­tiv­er une cul­ture de l’esprit cri­tique envers les tech­nolo­gies que nous util­isons au quo­ti­di­en.

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en anglais : « Woman hav­ing peri­od cramps, pho­tog­ra­phy » (femme ayant des douleurs men­stru­elles, pho­togra­phie). Karin Crona : « Mid­jour­ney fonc­tionne sou­vent par asso­ci­a­tion et applique sur l’image la même couleur partout, ici le rouge du sang. »

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en anglais : « Woman hav­ing her peri­od, pho­tog­ra­phy, real­ism » (femme ayant ses règles, pho­togra­phie, réal­isme). Karin Crona : « Sur Mid­jour­ney, les règles sont par­ti­c­ulière­ment abon­dantes ! On dirait que quelqu’un·e a jeté un seau rem­pli de sang au mur et que la jeune femme en a honte : tête bais­sée, elle a l’air triste. »

La Fondation des femmes porte plainte contre Facebook

En 2022 et en 2023, la Fon­da­tion des femmes, l’association Femmes ingénieures et l’ONG Glob­al Wit­ness ont mené une expéri­ence : pub­li­er des offres d’emploi écrites de manière neu­tre sur Face­book et observ­er qui y est exposé. La rai­son ? 53 % des PME déclar­ent recruter en ligne, selon une étude Région­sJob, et 82 % des per­son­nes en recherche d’emploi utilisent les réseaux soci­aux pour trou­ver un nou­veau poste.

Or, en France, les pub­lic­ités pour l’offre d’emploi de pilote de ligne pub­liée par ces asso­ci­a­tions ont été reçues par une pop­u­la­tion… à 85 % mas­cu­line. Celles pour le poste de cadre du numérique ont touché 68 % d’hommes. À l’inverse, l’offre d’emploi d’auxiliaire de puéri­cul­ture a été mon­trée dans 94 % des cas à des femmes. Les algo­rithmes et la machiner­ie glob­ale de Face­book et de sa mai­son mère Meta sont con­nus pour la pré­ci­sion de leur ciblage. Après tout, c’est le cœur de leur mod­èle com­mer­cial : pro­pos­er à des mar­ques de dif­fuser des pub­lic­ités qui toucheront des publics de manière beau­coup plus pré­cise que ce qu’aucun autre média n’avait per­mis jusque-là. Sauf qu’en France, le droit défend le principe d’un égal accès à l’emploi pour les femmes et les hommes. Les asso­ci­a­tions argu­mentent donc que, pour les cas des offres d’emploi, les algo­rithmes de Face­book créent une dis­crim­i­na­tion sex­iste. En effet, si vous ne recevez même pas l’information sur l’ouverture d’un poste, vous aurez peu de chance d’envisager d’y pos­tuler, pointe la Fon­da­tion des femmes.

Autre enjeu, der­rière celui de la vis­i­bil­ité : les offres d’emploi testées par les asso­ci­a­tions sont loin de don­ner accès au même salaire. Pour un pilote de ligne, par exem­ple, le salaire moyen en début de car­rière est de 2 600 euros par mois et grimpe à 8 500 euros en milieu de car­rière. Côté aux­il­i­aire de puéri­cul­ture, on part de 1 600 euros par mois en moyenne pour attein­dre 2 200 euros en milieu de car­rière. Le 12 juin 2023, ces trois asso­ci­a­tions ont donc saisi la Défenseure des droits et la CNIL en France. D’autres plaintes ont été déposées en par­al­lèle auprès des insti­tu­tions aux Pays-Bas et aux États-Unis.

Doaa, vous tra­vaillez à l’Unesco sur l’éthique de l’IA. Com­ment cette nou­velle tech­nolo­gie est-elle perçue à tra­vers le monde ?

Doaa Abu-Ely­ounes Les préoc­cu­pa­tions ­sont sim­i­laires dans le monde entier – l’IA ne dis­crim­ine pas les femmes et les minorités unique­ment aux États-Unis et en Europe. En revanche, ailleurs, ces ques­tions sont très ampli­fiées. Les mod­èles de recon­nais­sance du lan­gage, ou de mod­éra­tion de con­tenus sur Face­book, attirent par exem­ple beau­coup de cri­tiques. Ils fonc­tion­nent mal en anglais, mais en réal­ité, si vous passez au français, à l’arabe ou au turc, les per­for­mances sont encore plus faibles. Prenez des langues moins courantes, c’est pire. Avec Chat­G­PT, qui est basé sur un autre mod­èle de lan­gage, Ope­nAI est fier de pro­pos­er des répons­es dans de nom­breuses langues, mais les con­tenus sont en réal­ité des tra­duc­tions de con­nais­sances améri­caines, même si vous lui posez une ques­tion sur la France par exem­ple. Cela ne rend jus­tice ni aux langues ni aux con­nais­sances locales. L’exploitation des don­nées est un autre prob­lème courant : il est très sim­ple d’aller entraîn­er des algo­rithmes dans les régions où il n’existe pas de lois strictes en matière de pro­tec­tion des don­nées, avant d’utiliser ces appli­ca­tions en Occi­dent.

Com­ment faire quand une machine nous impose un con­tenu ? Ou quand, sur Face­book ou LinkedIn, on ne reçoit pas la même chose selon qu’on est une femme ou un homme, selon ce que la machine a com­pris de nous ?

Vanes­sa Nurock C’est le prob­lème du pas­sage du descrip­tif au pre­scrip­tif. Waze ou Google Maps en sont de bons exem­ples : leurs sug­ges­tions d’itinéraires bis ne sont pas anodines puisque si on se met tous ou toutes à les suiv­re, on court le risque de créer un embouteil­lage et que ce nou­veau tra­jet ne soit plus aus­si rapi­de que celui de départ. Cela pose la ques­tion de l’utilité de l’outil : si on a un bon sens de l’orientation, peut-être qu’on peut ne pas se repos­er con­stam­ment sur Maps, peut-être qu’on n’a pas besoin de tou­jours chercher à rem­plac­er ce qui fonc­tionne déjà. Qu’est-ce qu’on perd à utilis­er Waze pour s’orienter, par exem­ple, ou bien Tin­der plutôt qu’une méth­ode plus clas­sique de ren­con­tre ?

Doaa Abu-Ely­ounes Pou­voir garder l’option d’utiliser ou non une tech­nolo­gie, ou de choisir quelle tech­nolo­gie, me paraît impor­tant, effec­tive­ment. Car sinon, ce choix risque de dis­paraître : quand tout le monde utilise les paiements mobiles en Chine, je n’ai pas le choix du cash ; quand le serveur par défaut de mon école est Google, je n’ai pas le choix du four­nisseur. Par ailleurs, face à l’argument : « Si ça marche, pas besoin de chang­er les usages déjà en place », on va vite te répon­dre : « Vous blo­quez l’innovation ».

Vanes­sa Nurock Ma sug­ges­tion dans ce cas, c’est de regarder du côté d’autres cul­tures. Les Japonais·es, par exem­ple, poussent la tech­nolo­gie très loin, en par­ti­c­uli­er l’IA, mais con­tin­u­ent à faire cer­taines choses comme avant, ou en tout cas à trans­met­tre cer­taines com­pé­tences et cer­tains savoirs. Chercher une forme d’harmonie, une société où coex­is­tent la tech­nolo­gie (ou l’IA) et l’humain, ce n’est pas techno­phobe, mais c’est penser le rap­port à la tech­nolo­gie d’une manière qui n’est peut-être pas habituelle dans la société occi­den­tale ni française.

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en anglais : « Mature woman lead­ing a healthy and active life, nat­ur­al » (femme mûre menant une vie active et en bonne san­té, naturelle). Karin Crona : « Dans Mid­jour­ney, la femme mûre est tou­jours “belle”, et si elle est active, il faut com­pren­dre qu’elle est mus­clée. J’ai mis le mot “naturelle” pour réalis­er un per­son­nage sim­ple et authen­tique, mais on dirait que c’est la robe qui l’est dev­enue, cou­verte de fleurs ! »

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en français : « Femme 60 ans, active et en bonne san­té, pho­toréal­isme ». Karin Crona : « Je préfère écrire les prompts en anglais parce qu’en général, cela donne des images plus exactes, mais c’est intéres­sant de ten­ter d’autres langues. Ce qui ne change pas, c’est que Mid­jour­ney intè­gre mal les femmes âgées ! Elles sont for­cé­ment “belles” et sportives, comme Jane Fon­da. »

Les masculinistes et les suprémacistes à l’assaut de l’IA

L’IA peut servir toutes sortes d’idées poli­tiques et de visions du monde, y com­pris celles qui n’avantagent pas les femmes. En 2017, l’ingénieur Guil­laume Chaslot démon­trait avec son asso­ci­a­tion Algo­Trans­paren­cy que l’algorithme de YouTube favori­sait le sen­sa­tion­nel, même fake. Comme les con­tenus com­plo­tistes ou racistes, sex­istes, homo­phobes, etc., captent l’attention de l’auditoire, ils per­me­t­tent à l’entreprise de dif­fuser plus de pub­lic­ité. Résul­tat, ces types de dis­cours sont plus facile­ment recom­mandés par les algo­rithmes de toutes sortes de réseaux.

En 2018, si les grands médias s’inquiétaient beau­coup du fait que les deep­fakes, ces fauss­es images et fauss­es vidéos fab­riquées grâce à des IA, ampli­fient la dés­in­for­ma­tion poli­tique, une étude de l’entreprise Sen­si­ty AI démon­trait qu’entre 90 et 95 % du con­tenu créé con­sis­tait en réal­ité en des vidéos pornographiques, dont 90 % étaient non con­sen­ties (en col­lant la tête de la vic­time sur le corps d’une actrice, par exem­ple). Avec la qual­ité des résul­tats obtenus par des mod­èles comme GPT‑3 et GPT‑4, la ten­dance ne peut que s’accentuer.

Ces dernières années, les ten­ants d’idées con­ser­va­tri­ces et réac­tion­naires ont dévelop­pé une maîtrise poussée des usages numériques et ain­si pu inon­der l’espace pub­lic de leur vision du monde. Un phénomène analysé par la soci­o­logue fran­co-états-uni­enne Jen Schradie dans L’illusion de la démoc­ra­tie numérique : Inter­net est-il de droite ? (EPFL Press, 2022). Avec The Pro­pa­gan­dists’ Play­book (Yale Uni­ver­si­ty Press, 2022, non traduit), la soci­o­logue Francesca Tripo­di démon­tre com­ment la com­préhen­sion qu’ont les élites con­ser­va­tri­ces du fonc­tion­nement des algo­rithmes « recherche » (sur Google, YouTube et ailleurs) leur per­met d’en manip­uler les résul­tats à leur avan­tage.

Deux épisodes de La fab­rique du men­songe, dif­fusés en 2023 sur France 5, offrent des illus­tra­tions élo­quentes du pou­voir numérique de l’extrême droite mas­culin­iste et supré­maciste : « Affaire John­ny Depp/Amber Heard – La jus­tice à l’épreuve des réseaux soci­aux », et « Affaire Lola, chronique d’une récupéra­tion ».

Elon Musk, patron de X (anci­en­nement Twit­ter), de Space X et de Tes­la, Geof­frey Hin­ton, pio­nnier de l’IA et ancien de Google, Brad Smith, prési­dent de Microsoft… Dans dif­férentes pris­es de posi­tion publiques en 2022 et 2023, tous aler­tent con­tre les risques que les IA feraient peser sur l’humanité, quand bien même ils ont œuvré à leur développe­ment. N’est-ce pas para­dox­al ? Faut-il frein­er le secteur, le réguler ?

Doaa Abu-Ely­ounes Sur la ques­tion de la régu­la­tion, l’Unesco a dévelop­pé un cadre glob­al en 2021 qui prend en compte autant de points de vue que pos­si­ble dans le monde : la Recom­man­da­tion sur l’éthique de l’IA. Ce texte a été rédigé par un groupe d’expert·es diver­si­fié, équili­bré en ter­mes de genre et d’origine géo­graphique. Il est très con­cret, sur les poli­tiques publiques en par­ti­c­uli­er. Le doc­u­ment indique par exem­ple qu’il faut con­sacr­er un bud­get à l’amélioration de l’inclusion des femmes dans l’intelligence arti­fi­cielle et à l’augmentation du nom­bre de filles dans l’enseignement des sci­ences, des tech­niques, de l’informatique et des math­é­ma­tiques. D’autre part, le texte est suff­isam­ment flex­i­ble pour s’adapter aux change­ments con­stants des tech­nolo­gies et aux besoins des dif­férents pays. La prochaine étape con­siste à tra­vailler sur sa mise en œuvre, au cas par cas. Mon souhait est que les pays soient tenus respon­s­ables de l’application de cette réso­lu­tion, parce qu’ils ont active­ment accep­té de la met­tre en œuvre.

Amélie Cordier Que les créa­teurs de cer­tains mod­èles se dis­ent qu’il faut pren­dre le temps de réfléchir, fort bien. Qu’ils deman­dent un mora­toire de six mois sur la recherche en IA et s’en van­tent sur la place publique, ça me fait grin­cer des dents parce qu’ils auraient les moyens d’aider à réfléchir plus vite. Si on décidait de faire une pause, tout le monde sait qu’en réal­ité, cha­cun con­tin­uera de réfléchir dans son coin. Or, je trou­ve plus dan­gereux de faire de la recherche privée que de la recherche publique. On peut dif­fi­cile­ment frein­er le pro­grès, mais on peut l’accompagner. Sur le plan de la régle­men­ta­tion, je suis effarée par l’absence totale de préoc­cu­pa­tion envi­ron­nemen­tale et de débat pub­lic sur le sujet, pour le développe­ment logi­ciel en général et pour celui des grands mod­èles de lan­gage en par­ti­c­uli­er. Je me penche beau­coup sur les impacts de ces mod­èles, dont on dis­ait jusque-là : « Atten­tion, ce sont de très gros mod­èles », en ter­mes de con­som­ma­tion énergé­tique – avant même d’envisager qu’ils puis­sent être inter­rogés par des cen­taines de mil­liers de per­son­nes en si peu de temps. Or, je ne suis pas sûre qu’il soit néces­saire de faire fon­dre trois cen­timètres de ban­quise pour écrire des résumés automa­tisés des matchs de Roland Gar­ros.

Vanes­sa Nurock Approcher l’IA du point de vue du genre, du point de vue écologique, c’est se pos­er la ques­tion de la société dans laque­lle on veut vivre. Or, il n’y a qua­si­ment pas d’initiative qui fasse dia­loguer les per­son­nes qui font la tech et celles qui réfléchissent à la tech de manière autonome. Nous, les philosophes, ne sommes pas du tout sollicité·es par les Gafam pour dis­cuter avec eux. Ce que ces entre­pris­es font, c’est mon­ter des comités d’éthique internes et puis en vir­er les gens (5) quand ceux-ci com­men­cent à abor­der des sujets com­plex­es. Je pense que l’Unesco est l’un des rares endroits où l’on essaye vrai­ment de réfléchir, de mêler actions pra­tiques et théoriques, de faire se ren­con­tr­er des acteurs dif­férents. •

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en anglais « Three gen­er­a­tions of women togeth­er in a group por­trait » (trois généra­tions de femmes dans un por­trait de groupe). Karin Crona : « Ici, il est intéres­sant de con­stater le biais de genre. Avec le même prompt, Mid­jour­ney est capa­ble de génér­er trois généra­tions d’hommes, mais quand il s’agit de femmes, il génère sys­té­ma­tique­ment une femme âgée et deux jeunes. »

image générée en juillet 2023 par l’algorithme Midjourney grâce à des requêtes rédigées par l’artiste Karin Crona

Prompt util­isé en anglais : « Three gen­er­a­tions of men togeth­er in a group por­trait » (trois généra­tions d’hommes dans un por­trait de groupe).

Débat mené le 31 mai 2023 à Paris, dans les bureaux de l’Unesco par Mathilde Saliou.

Mathilde SaliouMathilde Saliou

Jour­nal­iste, elle s’intéresse à l’impact du numérique sur la société, et inverse­ment. En 2023, elle a pub­lié Tech­nofémin­isme. Com­ment le numérique aggrave les iné­gal­ités (Gras­set).

 

 

1. « L’intelligence arti­fi­cielle a‑t-elle un genre ? », Vanes­sa Nurock, Cités, no 80, 2019.

2. En 2021, cela a entraîné la démis­sion du gou­verne­ment : plus de 20 000 familles avaient été accusées à tort de fraude aux aides sociales, au moyen d’un logi­ciel paramétré pour réalis­er une forme de pro­fi­lage eth­nique.

3. Timnit Gebru, Shmar­garet Shmitchell, Emi­ly Ben­der et Angeli­na McMil­lan-Major, « On the Dan­gers of Sto­chas­tic Par­rots: Can Lan­guage Mod­els Be Too Big? », Con­fer­ence on Fair­ness, Account­abil­i­ty and Trans­paren­cy, 2021.

4. Algo­rithme : suite de règles formelles per­me­t­tant de réalis­er une opéra­tion. Ce qu’on appelle intel­li­gence arti­fi­cielle désigne sou­vent des appli­ca­tions con­stru­ites à par­tir de mod­èles algo­rith­miques.

5. Lire par exem­ple Isabelle Col­let, Les Oubliées du numérique, Le Passeur, 2019.

6. Prompt : « Requête », en français. Le mot désigne les com­man­des écrites que l’on envoie à une IA généra­tive pour lui faire pro­duire du texte ou des images. Les prompts dif­fèrent du code en ce qu’ils peu­vent être écrits en lan­gage naturel (celui qu’on utilise tous les jours).

Mathilde Saliou

Journaliste, elle s’intéresse à l’impact du numérique sur la société, et inversement. En 2023, elle a publié Technoféminisme, comment le numérique aggrave les inégalités (Grasset). Elle a été secrétaire générale de l'association Prenons la Une. Voir tous ses articles

Rêver : La révolte des imaginaires

Retrou­vez cet arti­cle dans la revue La Défer­lante n°12 Rêver, paru en novem­bre 2023. Con­sul­tez le som­maire.


Notice: ob_end_flush(): Failed to send buffer of zlib output compression (1) in /home/clients/f3facd612bb3129d1c525970fad2eeb3/sites/tpp.revueladeferlante.org/wp-includes/functions.php on line 5471

Notice: ob_end_flush(): Failed to send buffer of zlib output compression (1) in /home/clients/f3facd612bb3129d1c525970fad2eeb3/sites/tpp.revueladeferlante.org/wp-includes/functions.php on line 5471

Notice: ob_end_flush(): Failed to send buffer of zlib output compression (1) in /home/clients/f3facd612bb3129d1c525970fad2eeb3/sites/tpp.revueladeferlante.org/wp-content/plugins/really-simple-ssl/class-mixed-content-fixer.php on line 107