Science

L’IA n’est ni intelligente ni artificielle

Krystal Kauffman est Turker depuis sept ans, c’est-à-dire qu’elle travaille sur Mechanical Turk (MTurk), une plateforme de crowdsourcing appartenant à Amazon qui permet aux entreprises d’embaucher des travailleurs pour effectuer diverses tâches contre rémunération. Selon elle, bon nombre de ces tâches sont des projets d’apprentissage de l’IA. 

« Ces dernières années, nous avons travaillé sur plusieurs grands projets d’IA. Pour certaines tâches, il suffit de répéter la même phrase six fois, ce qui permet d’entraîner l’IA à reconnaître différentes voix et autres », explique Kauffman à Motherboard. « J’ai donc l’occasion de faire un peu de tout, mais en ce moment, il y a vraiment beaucoup d’apprentissage automatique et d’étiquetage de données d’IA. On remarque clairement une augmentation de ces demandes. » 

Kauffman fait partie des nombreux travailleurs qui permettent d’alimenter les intelligences artificielles, en effectuant des tâches telles que ; parcourir de grands ensembles de données pour marquer des images, filtrer des contenus à risque et annoter des objets dans des images et des vidéos.

Ces tâches, considérées comme répétitives et peu glorieuses pour de nombreux développeurs internes, sont souvent confiées à des travailleurs indépendants qui vivent pour la plupart en Asie du Sud et en Afrique et travaillent pour des sociétés de traitement de données telles que iMerit, Sama et Alegion. Facebook, par exemple, possède l’un des systèmes de modération de contenu algorithmique les plus avancés du web. Toutefois, l’intelligence dite artificielle de ce système « apprend à partir de milliers de décisions humaines » prises par des modérateurs.

De grandes entreprises comme Meta et Amazon disposent de vastes équipes de développement de l’IA et affirment que celle-ci est au cœur de leur travail. Meta écrit que « notre avenir dépend de notre capacité à exploiter les technologies d’IA les plus récentes à grande échelle », et Amazon encourage ses clients à « innover plus vite avec l’ensemble le plus complet de services d’IA et [d’apprentissage automatique]. »

« On entend très rarement une grande entreprise tech reconnaître la main-d’œuvre invisible qui se cache derrière une grande partie de cette technologie »

Les plus grandes entreprises de la tech rêvent d’un avenir proche où l’IA remplacera une grande partie du travail humain, libérant ainsi un plus grand potentiel d’efficacité et de productivité. Mais cette vision ne tient pas compte du fait qu’une grande partie de ce que nous considérons comme de l’intelligence artificielle est en réalité alimentée par un travail humain fastidieux et mal rémunéré. 

« Pour moi, l’un des mythes autour de l’IA est de croire qu’elle fonctionne réellement de façon autonome. Actuellement, le travail humain compense beaucoup de lacunes dans le fonctionnement de ces systèmes », affirme à Motherboard Laura Forlano, professeur associé de design à l’Institut de design de l’Illinois Institute of Technology.

« D’un côté, l’industrie peut prétendre que tout ça arrive un peu comme par magie dans les coulisses, ou qu’une grande partie de ce qui se passe est du ressort de l’informatique. Mais nous savons que dans de très nombreux cas, qu’il s’agisse du contenu en ligne, de la façon de faire fonctionner un véhicule autonome ou des appareils médicaux, le travail humain est utilisé pour combler les lacunes de ces systèmes. »

Les personnes comme Kauffman, qui contribuent à créer les matières premières utilisées pour former ces systèmes, ont rarement une idée de ce que leur dur labeur servira à créer.

« Nous travaillons souvent sur des projets dont nous ignorons la finalité […], mais nous savons que nous travaillons sur certains de ces gros appareils technologiques. Et même si je n’ai pas besoin du statut d’employé, on entend très rarement une grande entreprise tech reconnaître la main-d’œuvre invisible qui se cache derrière une grande partie de cette technologie », estime Kauffman. « On fait croire aux gens que l’IA est plus intelligente et plus avancée qu’elle ne l’est en réalité, et c’est pour cela que nous continuons à la former chaque jour. »

Les entreprises de la tech embauchent des dizaines de milliers de gig workers pour maintenir l’illusion que leurs algorithmes d’apprentissage automatique sont entièrement autonomes, et que chaque nouvel outil d’IA est capable de résoudre un certain nombre de problèmes dès sa sortie de la boîte. En réalité, le développement de l’IA a beaucoup plus en commun avec les cycles de production de matériaux qu’on ne le réalise.

« Lorsqu’il y a ces relations d’externalisation du travail vers une main-d’œuvre à bas salaire et des pays à faible revenu, cela se double souvent de rapports d’exploitation, de moins bonnes protections et de moins bonnes conditions. »

« Le public n’a pas conscience du fait qu’il s’agit d’une chaîne d’approvisionnement mondiale qui  contient des flux et des relations géographiques inégales. Elle repose sur une énorme quantité de travail humain », explique à Motherboard Kelle Howson, chercheuse au sein du projet Fairwork à l’Oxford Internet Institute. 

Howson ne peut pas dire avec certitude si les entreprises de la tech occultent intentionnellement les travailleurs humains de l’IA, mais le fait est que cela sert leurs intérêts. « D’une certaine manière, cette pratique renforce leurs modèles commerciaux, car on a l’impression que ça marche », explique Howson.

« En tant que client, vous accédez à l’interface d’une plateforme, vous postez votre projet et le travail est livré immédiatement. C’est presque magique. Il n’y a presque jamais d’intervention humaine, ou alors c’est l’impression que ça donne, et il y a donc un sentiment d’efficacité. Et cela va vraiment dans le sens de l’histoire que la Silicon Valley aime nous vendre. La disruption, le solutionnisme technologique, l’idée d’aller vite et de sortir des sentiers battus. »

Comme d’autres chaînes d’approvisionnement mondiales, le processus de l’IA est fortement déséquilibré. Les pays en développement du Sud alimentent le développement des systèmes d’IA en effectuant des tests bêta, l’annotation et l’étiquetage des données et des travaux de modération de contenu souvent mal payés, tandis que les pays du Nord sont les pôles de pouvoir qui bénéficient de ce travail. 

« Il y a beaucoup plus de travailleurs sur les plateformes de micro-travail qui sont situés dans les pays du Sud que dans les pays du Nord. Ainsi, la majorité de l’offre de main-d’œuvre sur ces plateformes est concentrée dans ces pays du Sud, alors que la majorité de la demande est située dans le Nord », explique Howson. « Nous savons par expérience avec d’autres chaînes d’approvisionnement, comme l’agroalimentaire ou l’industrie du textile, que lorsqu’il y a ces relations d’externalisation du travail vers une main-d’œuvre à bas salaire et des pays à faible revenu, cela se double souvent de rapports d’exploitation, de moins bonnes protections et de moins bonnes conditions de travail. » 

Dans un document publié en 2021 sur le rôle de la main-d’œuvre mondiale dans le développement de l’IA, des chercheurs en éthique de l’IA ont fait valoir que l’inclusion actuelle de travailleurs du Sud dans le processus de l’IA est une continuation des pratiques d’exploitation – qui n’est pas sans rappeler l’histoire de l’exploitation coloniale, durant laquelle les États occidentaux ont profité des populations du Sud et de leurs ressources pour accéder à une main-d’œuvre bon marché, physiquement éprouvante, au profit de leurs institutions et de leurs entreprises. 

« Essentiellement, les gens [du Sud] sont souvent payés ce que l’on appelle un salaire équitable, sur la base du PIB ou du revenu local de leur contexte respectif. Mais le travail est très routinier, très manuel et relativement épuisant, même si l’on ne peut évidemment pas le comparer au travail physique et au travail dans les plantations à l’époque coloniale », indique à Motherboard Chinasa T. Okolo, l’un des auteurs de l’article et étudiant en doctorat au département d’informatique de l’université Cornell. « Mais ce travail est confié aux mêmes régions et à des entreprises similaires ».

La modération de contenu devient définitivement plus troublante pour les travailleurs eux-mêmes, qui doivent visionner différents types de documents toute la journée, ce qui est définitivement éprouvant mentalement pour quelqu’un qui y est exposé en permanence. Certains travailleurs de ces pays ont intenté des procès aux employeurs ou à des groupeds comme Meta, par exemple, pour dénoncer les conditions de travail qui leurs sont imposées. » 

En mai, un ancien modérateur de contenu nommé Daniel Motaung a déposé un procès à Nairobi, au Kenya, accusant Meta, la société mère de Facebook, et son plus grand partenaire sous-traitant, Sama, de travail forcé, de trafic d’êtres humains et de démantèlement syndical. Dans une enquête du TIME Magazine, la mission de Sama, qui consiste à fournir aux pays pauvres un « travail numérique éthique » et « digne », s’est rapidement révélée être une façade de « participation-washing », ce que des chercheurs comme Forlano définissent comme des entreprises qui incluent les travailleurs dans « une structure de pouvoir mondial post-colonial » pour signaler leur valeur, plutôt que de les considérer comme des partenaires significatifs et démocratiques.

Motaung et d’autres employés de Sama ont déclaré au TIME qu’ils ne gagnaient pas plus de 1,50 dollar de l’heure, et au moins deux modérateurs de contenu ont été diagnostiqués comme souffrant de maladies mentales telles que le syndrome de stress post-traumatique pour avoir visionné des images et des vidéos illustrant des viols, des meurtres et des démembrements. Les chercheurs notent que si les entreprises d’étiquetage et de modération de contenu telles que Samasource, Scale AI et Mighty AI opèrent aux États-Unis, leur main-d’œuvre repose en grande partie sur des travailleurs à bas salaire originaires d’Afrique subsaharienne et d’Asie du Sud-Est.

« Cela conduit à une disparité importante entre les millions de bénéfices réalisés par les entreprises d’étiquetage de données et les revenus des travailleurs ; par exemple, les travailleurs de Samasource gagnent environ 8 dollars par jour alors que l’entreprise a réalisé un chiffre d’affaires de 19 millions de dollars en 2019 , écrivent les auteurs, dont Okolo, dans un document publié en 2021. Si Lee note que 8 dollars peut très bien constituer un salaire décent dans certaines régions, la disparité massive des bénéfices demeure malgré l’importance de ces travailleurs pour les activités principales de ces entreprises.

« S’il existe des protections du travail et la juridiction des travailleurs, il est incroyablement difficile de les faire respecter, lorsque le client est dans un autre pays, et que la plateforme se trouve dans un pays tiers »

Des entreprises comme Meta justifient l’externalisation de la main-d’œuvre dans les pays moins développés en avançant faire ce qu’elles appellent de l’« impact-sourcing », c’est-à-dire lorsque les entreprises embauchent intentionnellement des travailleurs issus de populations défavorisées ou vulnérables pour leur offrir des opportunités qu’ils n’auraient pas autrement. Mais les experts avertissent que derrière cette pratique se cachent des conditions de travail dangereuses et contraires à l’éthique, sans réglementation et sans redistribution du pouvoir. 

Sara Enright, directrice de projet à la Global Impact Sourcing Coalition (GISC), a déclaré à la MIT Technology Review : « S’il s’agit uniquement d’un travail à la tâche dans lequel une personne accède à un salaire à temps partiel en y dédiant une heure par jour ici et là, il ne s’agit pas d’un emploi à impact, car cela ne conduit pas réellement à un développement de carrière et, en définitive, à la réduction de la pauvreté. »

Selon les experts, l’externalisation de ces travailleurs est avantageuse pour les grandes entreprises technologiques, car elle leur permet non seulement d’économiser, mais aussi d’éviter plus facilement un contrôle judiciaire strict. Cela crée également une distance entre les travailleurs et l’entreprise elle-même, ce qui lui permet de maintenir l’e marketing magique et sophistiqué de ses outils d’IA. 

« S’il existe des protections du travail et la juridiction des travailleurs, il est incroyablement difficile de les faire respecter, lorsque le client est dans un autre pays, et que la plateforme se trouve dans un pays tiers », explique Howson. « Ils sont classés comme entrepreneurs indépendants, ils ont donc très peu de recours aux protections du travail locales, et aux cadres législatifs qui leur permettraient de se syndiquer ou d’engager des négociations collectives avec ces plateformes. »

En raison de ce déséquilibre structurel du pouvoir, les travailleurs n’ont souvent pas la possibilité de s’exprimer à propos de leurs clients, qu’il s’agisse de préoccupations éthiques concernant l’ensemble des données avec lesquelles ils interagissent ou de violations du travail, comme le refus de leur verser un salaire convenable. 

« De par mon expérience avec Amazon Mechanical Turk, j’ai pu constater que des robots et des personnes donnaient de fausses réponses aux questions. Ces dynamiques ont certainement une influence sur la qualité de ces ensembles de données. »

Lorsque Motherboard a demandé à la plateforme de crowdworker Clickworker, qui commercialise AI Solutions comme l’un des principaux demandeurs sur sa plateforme, comment elle s’assure que les travailleurs sont en mesure de vocaliser tout mauvais traitement reçu de la part d’un client, un porte-parole a répondu : « Ce genre de situation ne peut pas se produire chez nous, car les travailleurs Clickworker n’ont aucun contact avec le client et toute la gestion est assurée par nos soins. » 

« Il s’agit là encore d’une conséquence de cette discrimination géographique permise par un marché du travail à échelle mondiale. Les clients et les travailleurs se connectent directement presque en temps réel en établissant ces contrats à court terme, puis ils passent à autre chose », explique Howson. « En tant que micro-travailleur, il est non seulement incroyablement difficile, mais aussi bien souvent inutile de contester ces cas lorsqu’ils se produisent. Bien souvent, le travailleur ne consacre que quelques minutes à une tâche. S’il n’est pas payé, cela prend beaucoup plus de temps de passer par la procédure standard de la plateforme ou les mécanismes de médiation, que de simplement passer à la tâche suivante. » 

Kauffman est l’une des travailleuses à la tête de Turkopticon, une organisation à but non lucratif qui défend les droits des Turkers et fait remonter les problèmes à Amazon. Elle participe actuellement aux efforts de l’organisation pour obtenir justice contre une société d’IA appelée « AI Insights » qui a publié plus de 70 000 tâches sur Mechanical Turk, mais qui a rejeté toutes les tâches terminées qu’elle a reçues. L’entreprise a donc eu accès au travail réalisé, mais n’a pas payé les travailleurs. Kauffman précise qu’après avoir rejeté ces tâches, l’entreprise a rapidement quitté la plateforme, mais que son compte existe toujours, ce qui signifie qu’elle pourrait le réactiver si elle le souhaitait. 

Normalement, si le travail d’un Turker est rejeté, la personne peut contacter le client et lui demander pourquoi, et dans certains cas, réviser et soumettre à nouveau la tâche. Mais de nombreux Turkers qui ont contacté AI Insights et Amazon ont été ignorés ou se sont vus répondre qu’il n’y avait rien à faire. En conséquence, selon Kauffman, de nombreux travailleurs ont perdu de l’argent et ont vu leur cote d’approbation diminuer, ce qui rend plus difficile de trouver des tâches bien rémunérées sur la plateforme.

« Des e-mails ont été envoyés à Amazon à ce sujet. La seule réponse obtenue est qu’Amazon n’intervient pas dans les conflits entre le demandeur et les travailleurs. Et donc ils ne pouvaient et ne voulaient rien faire à ce sujet », confie Kauffman. « Nous avons tenté de les informer problème et nous savons qu’Amazon a la capacité d’intervenir et d’y remédier, mais ils ne le font pas et c’est franchement frustrant. »

Kauffman explique que pour s’inscrire en tant que travailleuse, elle a dû fournir ses données de sécurité sociale, son permis de conduire et ses informations bancaires afin de vérifier qu’elle travaillait légalement. En comparaison, dit-elle, les demandeurs peuvent entrer de faux noms et de fausses adresses électroniques, et ne sont pas tenus de respecter les mêmes normes de vérification. Ce déséquilibre des pouvoirs est en grande partie ce contre quoi Turkopticon se bat pour remédier. Les Turkers demandent à la plateforme de limiter le nombre de refus qui pourraient affecter le taux d’approbation d’un travailleur lorsqu’un demandeur rejette son travail et de consulter leur association de forums de travailleurs pour créer des solutions qui améliorent MTurk à la fois pour les demandeurs et les travailleurs.

« Le taux global auquel les tâches des travailleurs sont rejetées par les demandeurs est très faible (moins d’un pour cent), et les travailleurs ont accès à un certain nombre de mesures qui peuvent les aider à déterminer s’ils souhaitent travailler sur une tâche, y compris l’historique d’acceptation des tâches du demandeur », écrit un porte-parole d’Amazon Web Services à Motherboard. « MTurk continue d’aider un large éventail de travailleurs à gagner de l’argent et à contribuer à la croissance de leurs communautés. » Amazon a également déclaré que les rejets massifs étaient surveillés de près et que l’entreprise avait apporté des améliorations à son processus depuis l’incident AI Insights.

Howson dit à Motherboard qu’il y a beaucoup de travail non rémunéré intégré dans l’économie du cloud working sur les plateformes de travail à la tâche comme Mechanical Turk et Clickworker. En plus des faibles rémunérations non garanties, les travailleurs sur ces plateformes doivent passer beaucoup de temps à rafraîchir leur écran d’accueil pour trouver des tâche et à faire des offres. Ils doivent faire la course pour être les premiers à accepter les offres s’ils sont choisies. Le nombre de cloud workers dépasse également de loin la quantité de travail disponible et crée une grande concurrence sur les plateformes. Les clients peuvent ainsi facilement profiter de l’accessibilité et de l’abondance de travailleurs bon marché. Cela affecte également de manière disproportionnée les crowd workers du Sud, qui ont plus de mal à accéder aux tâches et aux opportunités d’emploi et présentent un ratio plus élevé de temps de travail non rémunéré par rapport au temps de travail rémunéré, selon les recherches de Howson.

Si cette rapidité d’exécution du travail répond au modèle de l’industrie, qui consiste à créer plus et plus vite, ces pratiques affectent également l’efficacité du travail pour les clients eux-mêmes. Les conditions de faible rémunération ne touchent pas seulement les travailleurs, mais cela augmente également la probabilité pour les clients de recevoir un travail de moindre qualité.

« Lorsque les travailleurs notamment sur Amazon Mechanical Turk se voient attribuer des tâches, ils dépendent de la personne qui crée la tâche pour être rémunérés », explique Okolo. « En plus de ne pas recevoir un salaire convenable, une grande partie de cet étiquetage est également bâclée. Mon expérience avec Amazon Mechanical Turk m’a permis de constater que des robots et des personnes donnent de mauvaises réponses aux questions. Ces dynamiques ont une influence sur la qualité de ces ensembles de données. »

« Le meilleur moyen d’assurer une bonne qualité, c’est de payer. Et c’est sans doute l’une des premières façons de réfléchir ce problème : dans la mesure où l’IA repose sur la cohérence et la qualité, si vous refusez de payer pour l’obtenir, vous ne l’obtiendrez pas », explique à Motherboard Jennifer King, chargée des politiques de confidentialité et de protection des données au Stanford Institute for Human-Centered Artificial Intelligence (HAI). « À mon sens, il s’agit en grande partie de ces incitations autour de la façon dont les produits sont développés, où les travaux d’ingénierie et de modélisation de l’IA sont les mieux payées et les plus désirables, [alors que] l’étiquetage des données passe vraiment au second plan. » 

Kauffman veut renverser l’hypothèse selon laquelle des emplois comme l’étiquetage des données seraient du travail « non qualifiés » simplement parce qu’ils sont mal rémunérés et implique des tâches répétitives. Elle explique que les travailleurs sont tenus d’avoir certaines qualifications et de passer des tests afin d’accéder à certaines tâches. 

« Aujourd’hui, ces personnes ont des compétences et des connaissances qu’ils n’avaient pas avant de passer ce test et d’examiner ces documents. L’idée que ces gens ne sont pas qualifiés, [après] avoir appris tant de choses sur tant de sujets différents est insensée », déclare Kauffman. « L’apprentissage est constant et ce travail n’est pas à la porté de n’importe qui. Des compétences supplémentaires sont nécessaire. » 

De nombreuses personnes ne réalisent pas qu’en utilisant des produits tech, ils sont également impliqués dans le processus d’IA. Nous avons tous déjà effectué un travail non rémunéré et formé des systèmes d’IA, qu’il s’agisse de résoudre un CAPTCHA pour prouver que nous ne sommes pas un robot ou de guider des voitures autonomes pour les éloigner des barrages routiers que le véhicule n’arrive pas à identifier. Comme le note une étude de 2020 co-rédigée par Forlano : « Les utilisateurs améliorent également les performances des modèles ML (Machine Learning) à mesure qu’ils interagissent avec ceux-ci, un seul clic imprévu peut modifier les paramètres d’un modèle et sa précision future. »

Ce travail est parfois si profondément intégré dans la façon dont les utilisateurs naviguent sur le web que cela se fait de manière inconsciente, par exemple lors de l’utilisation de Google Maps et de la production de modèles de mouvement de données qui permettent de prédire la circulation. Mais d’autres fois, cela se fait de façon plus consciente, par exemple lorsqu’il s’agit de classer des photos en remplissant un reCAPTCHA, ou de noter des chauffeurs Uber. »

Plus récemment, des générateurs de texte-image d’IA comme DALL-E 2, Midjourney et Stable Diffusion, et des modèles d’IA de prédiction du langage comme GPT-3 ont tous démontré des capacités prédictives étonnantes. Pourtant, ces outils bénéficient de la même relation entre le travail humain et la formation de l’IA.

Ces grands modèles linguistiques, qui génèrent une image ou produisent un texte à partir d’une invite de saisie de l’utilisateur, sont formés à l’aide de méthodes de deep learning. En gros, ces modèles sont capables d’imiter le fonctionnement de notre cerveau en analysant une multitude de couches de données créées par l’homme pour obtenir une image ou un texte approprié. Ces ensembles de données sont tous le fruit du travail humain. 

Stable Diffusion a, par exemple, été entraîné sur le jeu de données open source LAION-5B, une collection de 5,8 milliards d’images et de légendes extraites d’Internet. Ces images et légendes sont toutes le fruit d’un travail humain non rémunéré, qu’il s’agisse de personnes qui codent et conçoivent des sites Web ou d’utilisateurs qui téléchargent et publient des images sur ces sites.

Si les cadres prédictifs des modèles d’IA tels que les réseaux antagonistes génératifs (GAN) progressent à un rythme extrêmement rapide, les modèles sont devenus si importants et compliqués que leurs résultats sont pratiquement impossibles à expliquer. C’est pourquoi les préjugés et les stéréotypes racistes sont si fréquents dans les résultats des systèmes d’IA. Lorsque l’on bâtit un système avec des milliards de paramètres et d’exemples d’apprentissage, celui-ci ne fait que refléter les biais des données agrégées – et cela crée un décalage entre ce sur quoi le système a été basé et ce que les experts en IA attendent de lui. 

« L’une des conclusions logiques que l’on pourrait tirer serait que si l’on ajoute plus de données correctes aux systèmes, ceux-ci finiront par s’améliorer. Mais c’est une erreur. Ce n’est pas une question de quantité. »

« Il y a un fossé entre les connaissances des informaticiens sur le système et celles que les sociologues, en ce sens qu’ils ont des objectifs très différents », explique Forlano. « Et donc, même au sein des communautés qui travaillent sur l’IA, on a pu lire dans de nombreux journaux grand public que les informaticiens qui travaillent sur ces systèmes ne savent pas toujours comment les systèmes arrivent à leurs conclusions. »

Mais Forlano souligne que le problème est plus profond, et ne peut être résolu en ajoutant simplement plus de données pour améliorer le système. « L’une des conclusions logiques que l’on pourrait tirer serait que si l’on ajoute plus de données correctes aux systèmes, ceux-ci finiront par s’améliorer. Mais c’est une erreur. Ce n’est pas une question de quantité. »

En mettant en évidence les façons dont le travail humain porte une grande partie du processus d’IA, les experts et les chercheurs en IA espèrent démanteler cette mentalité du « aller vite et tout casser » qui régit les processus technologiques et exploite les travailleurs externes. Tout le monde s’accorde sur le fait que les humains feront toujours partie de l’IA, pour le développement de modèles ou pour la vérification de certains biais et erreurs. Ainsi, les experts en IA soutiennent que l’accent devrait être mis sur la façon de décoloniser le processus de développement de l’IA et d’inclure les humains d’une manière éthique et durable. 

« Nous devons penser sérieusement à la main-d’œuvre humaine dans la boucle qui pilote l’IA. Cette main-d’œuvre mérite d’être formée, soutenue et rémunérée pour s’être tenue à la disposition et être prête à faire un travail important que beaucoup pourraient trouver fastidieux ou trop exigeant », ont écrit Mary L. Gray et Siddharth Suri, auteurs de Ghost Work : How to Stop Silicon Valley from Building a New Global Underclass, un article publié en 2017 pour la Harvard Business Review.

Parmi les mesures concrètes recommandées par les auteurs, citons l’exigence d’une plus grande transparence de la part des entreprises de la tech, la création de politiques qui améliorent les conditions de travail et les salaires des apprentissages de données, et l’offre aux travailleurs de formations qui leur permettent de contribuer aux modèles d’IA autrement que par l’étiquetage. 

Marie-Therese Png, doctorante à l’Oxford Internet Institute et stagiaire de recherche à DeepMind Ethics and Society, a proposé dans ses recherches que le processus de gouvernance de l’IA soit restructuré pour inclure le Sud en tant que « co-gouverneur ». Il faut donc reconnaître les déséquilibres de pouvoir hérités de la colonisation qui sont reproduits dans le processus de l’IA et donner aux acteurs des pays en développement une influence sur « la détermination des priorités, la prise de décision et le pouvoir sur les ressources. »

Cela rejoint ce que Forlano et ses co-auteurs soutiennent dans leur article. Ils décrivent une mentalité de « conçu avec » plutôt que de « conçu pour », qui fait que les entreprises manquent de conseils et de représentation des groupes qui sont affectés par le système d’IA. « Les experts comprennent souvent mal la façon de concevoir des processus participatifs efficaces ou d’engager les bonnes parties prenantes pour obtenir les résultats souhaités », écrivent les auteurs. « Les ateliers de participation peuvent devenir performatifs, lorsque les experts ne prennent pas réellement en considération les besoins ou les recommandations des différents groupes concernés. » 

Les auteurs de l’étude suggèrent que tous les participants à l’apprentissage de l’IA devraient être reconnus et rémunérés, ce qui donne aux utilisateurs quotidiens la possibilité d’opter ou non pour des pratiques de travail en ligne gratuites qui formeraient un système d’apprentissage automatique (ML). S’ils choisissent de participer, ils devraient être rémunérés en conséquence ou bénéficier de mesures incitatives. « Les gens devraient être rémunérés pour le travail qui participe à l’amélioration de ces systèmes », estime Forlano. « Et si cela n’est pas fait de manière équitable, c’est juste une autre forme d’exploitation. »

VICE France est sur TikTok, Twitter, Insta, Facebook et Flipboard.
VICE Belgique est sur Instagram et Facebook.

Back to top button

Adblock Detected

Please consider supporting us by disabling your ad blocker.