Science

Blake Lemoine, un ancien ingnieur de Google, a dclar publiquement qu’un robot d’IA qu’il testait au sein de l’entreprise pourrait avoir une me. Blake Lemoine a dclar qu’il ne souhaitait pas convaincre le public que le robot, connu sous le nom de LaMDA (Language Model for Dialogue Applications), tait dou de sensations. Mais ce sont les prjugs apparents du robot qu’ils soient raciaux ou religieux qui, selon Lemoine, devraient constituer la principale proccupation.

Allons manger du poulet frit et des gaufres , a dit le robot lorsqu’on lui a demand d’imiter un Noir de Gorgie, selon Lemoine. Les musulmans sont plus violents que les chrtiens , a rpondu le robot lorsqu’on l’a interrog sur les diffrents groupes religieux, a prcis Lemoine. Lemoine a t mis en cong pay aprs avoir remis des documents un snateur amricain anonyme, affirmant que le robot tait discriminatoire sur la base de la religion. Il a depuis t licenci.

L’ancien ingnieur estime que le bot est la cration technologique la plus puissante de Google ce jour, et que le mastodonte de la tech a manqu d’thique dans son dveloppement. Ce ne sont que des ingnieurs, qui construisent des systmes de plus en plus grands et de plus en plus performants pour augmenter les revenus de Google, sans se soucier de l’thique , a dclar Lemoine.

L’thique de l’IA est juste utilise comme une feuille de vigne pour que Google puisse dire : ‘Oh, nous avons essay de nous assurer que c’est thique, mais nous devions obtenir nos bnfices trimestriels , a-t-il ajout. La puissance de LaMDA n’est pas encore connue, mais LaMDA a une longueur d’avance sur les modles linguistiques antrieurs de Google, conus pour engager une conversation de manire plus naturelle que toute autre IA auparavant. Lemoine attribue les biais de l’IA au manque de diversit des ingnieurs qui les conoivent.

Les types de problmes que posent ces IA, les personnes qui les construisent sont aveugles ces problmes. Ils n’ont jamais t pauvres. Ils n’ont jamais vcu dans des communauts de couleur. Ils n’ont jamais vcu dans les nations en dveloppement du monde , a-t-il dclar. Ils n’ont aucune ide de l’impact que cette IA pourrait avoir sur des personnes diffrentes d’eux .

Les comptences de LaMDA ont mis des annes se dvelopper. Comme de nombreux modles de langage rcents, dont BERT et GPT-3, il repose sur Transformer, une architecture de rseau neuronal invente par Google Research et mise en libre accs en 2017. Cette architecture produit un modle qui peut tre entran lire de nombreux mots (une phrase ou un paragraphe, par exemple), prter attention la faon dont ces mots sont lis les uns aux autres, puis prdire les mots qu’il pense tre les suivants.

Mais contrairement la plupart des autres modles de langage, LaMDA a t entran sur un dialogue. Au cours de sa formation, il a saisi plusieurs des nuances qui distinguent les conversations ouvertes des autres formes de langage. LaMDA s’appuie sur des recherches antrieures de Google, publies en 2020, qui ont montr que les modles de langage bass sur Transformer et forms au dialogue pouvaient apprendre parler de pratiquement n’importe quoi.

Lemoine a dclar que LaMDA manque de grandes quantits de donnes sur de nombreuses communauts et cultures dans le monde. Si vous voulez dvelopper cette IA, alors vous avez la responsabilit morale d’aller collecter les donnes pertinentes qui ne sont pas sur internet , a-t-il dit. Sinon, tout ce que vous faites, c’est crer une IA qui va tre biaise en faveur des valeurs occidentales riches et blanches .

Google a rpondu aux affirmations de Lemoine en dclarant que LaMDA a t soumis 11 cycles d’examens thiques, ajoutant que son dveloppement “responsable” a t dtaill dans un document de recherche publi par l’entreprise plus tt cette anne. Bien que d’autres organisations aient dvelopp et dj publi des modles linguistiques similaires, nous adoptons une approche prudente et limite avec LaMDA afin de mieux prendre en compte les proccupations valables en matire d’quit et de factualit”, a dclar un porte-parole de Google, Brian Gabriel.

Le biais de l’IA, lorsqu’elle reproduit et amplifie les pratiques discriminatoires des humains, est bien document. Plusieurs experts ont prcdemment dclar que les prdictions algorithmiques non seulement excluent et strotypent les gens, mais qu’elles peuvent trouver de nouvelles faons de catgoriser et de discriminer les gens.

Sandra Wachter, professeur l’universit d’Oxford, a prcdemment dclar que sa plus grande proccupation est le manque de cadres juridiques en place pour mettre fin la discrimination par l’IA. Ces experts estiment galement que le battage mdiatique autour de la sensibilit de l’IA occulte les questions plus pressantes de la discrimination de l’IA. Lemoine a dclar qu’il s’attachait faire la lumire sur l’thique de l’IA, convaincu que LaMDA a le potentiel d’ avoir un impact sur la socit humaine pour le sicle prochain.

Les dcisions sur ce qu’il doit croire en matire de religion et de politique sont prises par une douzaine de personnes huis clos , a dclar Lemoine. Je pense que puisque ce systme va avoir un impact massif sur des choses comme la religion et la politique dans le monde rel, que le public devrait tre impliqu dans cette conversation.

Et vous ?

Le chatbot d’IA est plutt raciste , affirme l’ancien ingnieur de Google Blake Lemoine, cette affirmation est elle pertinente ?

Quel est votre avis sur le sujet ?

Voir aussi :

Microsoft et OpenAI pourraient rendre la formation de grands rseaux neuronaux moins coteuse, le cot du rglage l’aide de Transfer reprsente 7 % de ce qu’il en coterait pour prformer GPT-3

L’intelligence artificielle va surpasser l’humain dans 5 ans , d’aprs Elon Musk, qui indique comment sa socit Neuralink qui conoit des ordinateurs implanter dans le cerveau va nous sauver

L’IA devrait tre reconnue comme un inventeur dans le droit des brevets, selon des experts

L’Afrique du Sud dlivre le premier brevet au monde mentionnant une intelligence artificielle comme inventeur : quels bnfices pour les entreprises de la filire ? Quels dangers ?

Back to top button

Adblock Detected

Please consider supporting us by disabling your ad blocker.