Science


Comme la blockchain, l’IA a-t-elle fait plus de promesses qu’elle ne pouvait tenir ? Gary Smith et Jeffrey Funk, deux analystes du mdia conomique Quartz, pensent que oui. Dans un rapport publi rcemment, les deux analystes ont allgu que l’IA a “surpromis” travers un battage mdiatique sans prcdent, notamment les missions de tlvision et les films, et les livres. En traitant le cas des promesses de l’IA dans le domaine de la radiologie, ils affirment que l’IA a encore beaucoup prouver avant que les mdecins dcident de lui faire confiance. En gros, ils pensent qu’elle n’est pas du tout prte diagnostiquer les patients.

L’IA peut-elle substituer un humain n’importe o ?

La rvolution inerte de l’IA en radiologie est un autre exemple de la faon dont l’IA a surpromis et sous livr , a dclar l’quipe d’analystes. Cela signifie que l’IA a promis de nombreuses rvolutions dans de nombreux domaines, mais l’quipe a dclar que ces bouleversements tardent venir et l’on se demande finalement s’ils arriveront ou si certains d’entre eux ne dpassent pas les possibilits de l’IA. Alors, qu’est-ce qui s’est pass dans le domaine de la radiologie ? En effet, les socits dveloppant des systmes d’IA et des personnalits influentes de l’industrie auraient promis une IA plus performante que les radiologues.

Par exemple, le rapport de Smith et Funk cite Geoffrey Hinton, un informaticien de renon, qui fait partie du trio (avec Yann LeCun et Yoshua Bengio) laurat du prix Turing 2018, considr comme le prix Nobel de l’informatique. Ces trois hommes sont considrs comme les “parrains de l’IA” et les “parrains de “l’apprentissage profond”. Alors, si Hinton fait une dclaration promettant une rvolution immdiate dans le domaine de la radiologie, cela devrait enthousiasmer de nombreuses personnes qui seraient impatientes l’ide de voir ce changement brusque. Les gens sont donc rests attentifs une dclaration qu’il a faite en 2016.

Nous pouvons maintenant arrter de former des radiologues, il est juste compltement vident que d’ici cinq ans, l’apprentissage profond fera beaucoup mieux que les radiologues , avait-il dclar l’poque. La Food and Drug Administration (FDA) amricaine aurait approuv le premier algorithme d’IA pour l’imagerie mdicale cette anne-l et il y aurait maintenant plus de 80 algorithmes approuvs aux tats-Unis et un nombre similaire en Europe. Mais nous sommes en 2021 et l’on na rien observ de tel. Le rapport allgue mme que le nombre de radiologues travaillant aux tats-Unis a augment, au lieu de diminuer. Il aurait augment d’environ 7 % entre 2015 et 2019.

Mieux, le rapport estime qu’il y a maintenant une pnurie de radiologues qui devrait s’accentuer au cours de la prochaine dcennie. En attendant que la rvolution tant espre prenne forme, Smith et Funk ont rapport que les algorithmes de reconnaissance d’images introduits dans le domaine de la radiologie au cours de ces cinq dernires annes sont souvent fragiles et incohrents. La radiologie est une tche troitement dfinie pour laquelle l’IA, telle que dfinie par les experts, pourrait tre bonne, mais le rapport estime que seuls 33 % des radiologues ont dclar utiliser un type d’IA en 2020, selon une tude rcente de l’American College of Radiology.

En outre, seuls 40 des plus de 80 algorithmes de radiologie actuellement autoriss par la FDA, avec 27 outils internes, auraient t utiliss par les rpondants. Seuls 34 % d’entre eux seraient utiliss pour l’interprtation des images ; les autres applications comprendraient la gestion des listes de travail, l’amlioration des images, les oprations et les mesures. En rsum, seulement 11 % des radiologues auraient utilis l’IA pour l’interprtation d’images dans une pratique clinique. Parmi ceux qui n’utilisent pas l’IA, 72 % n’auraient pas l’intention de le faire, tandis qu’environ 20 % souhaiteraient l’adopter d’ici cinq ans.

La peur de l’IA ou une technologie simplement en retard ?

Certains commentaires estiment que, lorsqu’il s’agit de l’intelligence artificielle ou des technologies rvolutionnaires en gnral, les rpondants aux diverses enqutes faussent parfois volontairement les rsultats pour repousser le changement. Dans le cas de l’IA, les gens auraient peur de se faire remplacer par une machine ou de devoir tre surveills par cette dernire. En gros, ces critiques estiment que le faible d’adoption de l’IA par les radiologues interrogs pourrait s’expliquer par les diffrents points susmentionns. Cependant, d’autres s’opposent fortement cette argumentation. Smith et Funk avancent d’autres arguments.

Selon eux, la raison de cette lente diffusion est la faible performance. Seuls 5,7 % des utilisateurs auraient dclar que l’IA fonctionne toujours, tandis que 94 % ont fait tat de performances irrgulires. Les performances irrgulires de l’IA sont en effet soulignes par d’autres experts, tant en radiologie que dans le secteur des soins de sant. Dans une interview rcente, Andrew Ng, gourou de l’IA et fondateur de Coursera, a dclar : Ceux d’entre nous qui travaillent dans le domaine de l’apprentissage automatique sont vraiment bons pour obtenir de bons rsultats sur un ensemble de tests .

Mais malheureusement, le dploiement d’un systme demande plus que de bons rsultats sur un ensemble de tests , a-t-il nuanc. Voici l’exemple qu’il a donn : lorsque nous prenons des donnes de l’hpital de Stanford, puis que nous nous entranons et testons sur des donnes du mme hpital, nous pouvons effectivement publier des articles montrant que [les algorithmes] sont comparables aux radiologues humains dans la dtection de certaines conditions. Nous pouvons publier des articles montrant que [les algorithmes] sont comparables ceux des radiologues humains en ce qui concerne la dtection de certaines conditions .

Mais lorsque vous apportez ce mme systme d’IA dans un hpital plus ancien situ en bas de la rue, avec une machine plus ancienne, et que le technicien utilise un protocole d’imagerie lgrement diffrent, ces donnes drivent et les performances du systme d’IA se dgradent considrablement. En revanche, n’importe quel radiologue humain peut se rendre en bas de la rue dans l’ancien hpital et s’en sortir sans aucun problme. Ainsi, mme si un moment donn, sur un ensemble de donnes spcifique, nous pouvons montrer que cela fonctionne, la ralit clinique est que ces modles ont encore besoin de beaucoup de travail .

Selon Andrew Ng, il reste normment de travail l’IA pour atteindre la production, et pas seulement dans les soins de sant. Une grande majorit des algorithmes approuvs par la FDA n’ont pas t valids sur un grand nombre de sites, ce qui soulve la possibilit que des biais lis au patient et l’quipement puissent tre l’origine de performances incohrentes , a dclar l’American College of Radiology l’issue de son enqute. Nous pouvons constater l’impact de l’cart entre la preuve de concept et la production dans d’autres applications, mais sous des noms diffrents , a dclar l’institution.

L’industrie a-t-elle survalu les capacits relles de l’IA ?

Aprs une dcennie pendant laquelle les entreprises d’IA ont promis tout type de systmes d’IA, qui seraient la fois performants et efficaces et capables de rduire le cot de main-d’uvre, des voix s’lvent de plus en plus pour dnoncer un suppos battage mdiatique. En dehors des biais que peuvent contenir les systmes d’IA, ce sont mme les termes dfinissant l’IA qui sont dsormais remis en cause. Des critiques travaillant dans le domaine de l’IA disent aujourd’hui que l’IA n’est pas intelligente et elle ne peut pas “voluer” d’elle-mme, car elle dpend et est limite aux donnes qui ont servi son entranement .

Pour expliquer les pitres performances de l’IA en radiologie et dans d’autres applications d’imagerie, Smith et Funk estiment que les humains peuvent voir les choses pour ce qu’elles sont. Lorsqu’ils voient un chariot ou une photo de chariot, ils reconnaissent ce que le physicien et auteur Douglas Hofstadter appelle son essence structurelle : une bote rectangulaire, des roues et une poigne. Il peut tre de diffrentes tailles, fait de diffrents matriaux, ou peint de diffrentes couleurs, mais ils le reconnaissent toujours comme un chariot. Sous de nombreux angles diffrents, ils voient toujours un chariot.

Ce n’est pas le cas des algorithmes d’IA, qui saisissent des pixels et crent des reprsentations mathmatiques de ces pixels – ce que le laurat du prix Turing, Judea Pearl, appelle “just curve-fitting”. C’est–dire trouver des quations mathmatiques qui correspondent un ensemble de donnes sans tenir compte de ce que ces donnes reprsentent. Par exemple, un algorithme d’IA est entran en recevant de trs nombreuses images de chariots et l’tiquette “chariots”. Lorsqu’une nouvelle image est montre l’algorithme, il adapte les pixels en courbe et recherche une correspondance mathmatique dans sa base de donnes.

S’il trouve une correspondance suffisante avec les pixels de chariots sur lesquels il a t entran, il renvoie l’tiquette, mme si elle peut aussi bien tre fausse, car l’algorithme n’a aucune ide de sa signification. Si la nouvelle image du chariot est d’une taille, d’une texture ou d’une couleur diffrente, si elle est vue sous un angle diffrent ou si elle est partiellement obscurcie, l’algorithme d’IA peut chouer. Cette fragilit est la base de ces tests Captcha o l’on demande aux utilisateurs de prouver qu’ils ne sont pas des algorithmes en cliquant sur les rectangles qui contiennent des images de voitures, de feux de signalisation, etc.

Selon l’quipe d’analystes, lors d’un test, lorsque l’image d’un chariot a t prsente un systme d’IA, le programme l’a identifi comme l’enseigne d’une entreprise. D’un autre ct, le Wolfram Image Identification Project, un jeu de donnes d’entranement des systmes d’IA en ligne, aurait identifi tort le chariot comme une raquette de badminton. Lorsque la couleur du chariot a t change en rouge, il a t identifi tort comme un coupe-cigare. Enfin, lorsque le chariot rouge a t plac sur une pente de 45 degrs, il a t identifi tort comme un trombone. Ces subtilits ne pouvaient pas fausser la certitude d’un tre humain.

L’industrie devrait penser d’autres algorithmes d’IA

Selon les deux analystes, l’algorithme CLIP d’Open AI, l’entreprise fonde par Elon Musk et l’origine du dsormais tristement clbre systme de cration de texte GPT, fonctionne un peu diffremment. Il demande aux utilisateurs d’aider le programme en soumettant un petit nombre d’tiquettes proposes, dont une est correcte. Malgr cette indication artificielle et extrmement utile, lorsque l’algorithme a choisi entre chariot, panneau, poteaux de but et raquette de badminton, il a donn des probabilits de 0,03, 0,14, 0,80 et 0,03, respectivement (1,0 correspondant une confiance totale).

Comment l’IA pourrait-elle confondre un chariot avec une raquette de badminton, un trombone ou un poteau ? Comment pourrait-elle changer d’avis si le chariot est d’une autre couleur, si le mot raquette est pel diffremment ou si l’expression poteau de but est compos de deux mots ? Pour l’quipe d’analystes, les algorithmes de reconnaissance d’images sont fragiles, car ils s’adaptent la courbe des pixels au lieu de reconnatre et de comprendre les entits. Ici, ils ne savent pas ce qui fait qu’un chariot est un chariot (la bote, les roues et la poigne) et ne peuvent pas distinguer les caractristiques importantes des dtails superficiels.

Selon Smith et Funk, compte tenu des difficults pour l’IA de faire la distinction entre un chariot, une raquette de badminton, un trombone et un cerveau, il n’est pas surprenant que les interprtations d’images mdicales par l’IA soient fragiles et que les mdecins soient rticents s’en remettre l’IA pour la radiologie et d’autres dcisions de vie ou de mort. Une tude qui vient d’tre publie sur des centaines d’algorithmes d’apprentissage automatique pour utiliser les scanners thoraciques afin de dtecter le COVID-19 a rvl que 85 % auraient chou un contrle de reproductibilit et de qualit.

En outre, aucun des modles n’tait prs d’tre prt tre utilis dans les cliniques . La lente diffusion de l’IA en radiologie n’a pas entach l’optimisme profond de Geoffrey Hinton pour l’apprentissage profond. Sans se laisser dcourager par les revers, il a rcemment proclam : L’apprentissage profond fera tout . Smith et Funk ont dclar que cela rappelle la boutade de l’investisseur Ed Yardeni sur les prvisions du march boursier : Si vous donnez un chiffre, ne donnez pas de date .

Source : Analyse de Gary Smith et Jeffrey Funk

Et vous ?

Quel est votre avis sur le sujet ? L’IA peut-elle tre utile dans tous les domaines ?

Pensez-vous que l’IA peut l’avenir rvolutionner les domaines comme la radiologie ?

Pensez-vous que l’on devrait changer le terme “intelligence artificielle” ? Si oui, quelle est votre proposition ?

Voir aussi

L’IA n’est ni artificielle ni intelligente , selon Kate Crawford de Microsoft Research, l’universitaire estime que cette technologie donne du pouvoir a des institutions dj puissantes

L’IA base sur Microsoft Azure est retenue par la police de Nouvelle-Galles du Sud. Elle apporte une analyse plus rapide et aide l’examen des preuves

Les personnes intelligentes qui pensent que l’IA ne pourrait pas l’tre plus qu’elles sont bien plus btes qu’elles ne le pensent , d’aprs Elon Musk

L’intelligence artificielle n’existe pas et la voiture autonome n’existera jamais , selon un expert en IA

Arrtez de tout appeler IA , dit Michael I. Jordan, un pionnier de l’apprentissage automatique, qui explique pourquoi les systmes d’IA actuels ne sont pas rellement intelligents

Back to top button