Nous en sommes avec l’IA où nous en étions il y a quelques dizaines d’années avec le climat et la biodiversité : confrontés à des prises de posi tion tranchées de spécialistes fondées sur des arguments dont nous avons du mal à apprécier la valeur. Mais, s'il y a maintenant un consensus sur le climat, nous en sommes encore très loin sur l’IA.
Pour avancer, commençons par situer ces autorités, essayons de comprendre d’où elles parlent. Un exercice auquel nous pouvons nous essayer grâce aux déclarations simultanées et divergentes de trois copains, récepteurs en 2018 du Prix Turing, considéré comme le " prix Nobel de l’informatique ».
Points communs
Yoshhua Bengio (Canada), Yann Le Cun (France) et Geoffrey Hinton (GB) sont spécialistes des technologies à la base de l’envolée actuelle de l’intelligence artificielle (réseaux de neurones et de l'apprentissage profond). Ils ont été successivement étudiant l’un de l’autre et ont travaillé ensemble sur plusieurs projets. Une équipe informelle mais cohérente. Tous les trois pensent que l’IA est susceptible de dépasser l’intelligence humaine, qu’elle commet des erreurs (ce qui la rapproche de notre fonctionnement) et qu’on ne comprend pas aujourd’hui tout ce qu’elle fait, sans avoir la certitude d’y parvenir un jour.
Les trois semblent d’accord sur le besoin de réglementation mais, seul Bengio a signé la demande de pause du 29 mars associée au nom d’Elon Musk « dans le but d’alerter la société sur la nécessité de ralentir le développement de systèmes d’intelligence artificielle, qui s’est accéléré au détriment du principe de précaution et de l’éthique. » Hinton s’est abstenu et Le Cun l’a dénoncée avec virulence.
Grâce à des entretiens avec les deux premiers réalisés par Claire Legros du Monde et à un article de la Technology Review du M.I.T. sur Hinton nous pouvons apprécier leurs divergences aujourd'hui.
Leurs différences
Pour Yoshua Bengio, les risques dont on parle tant ne sont pas certains. « Mais c’est justement l’incertitude liée à ces technologies qui me conduit à alerter. Et l’absence de réglementation « avantage les équipes qui prennent le moins de précautions et se soucient peu d’éthique. »
Yann Le Cun, ne nie pas l’existence de risques. « ces systèmes ne sont ni très fiables ni très contrôlables. Ils peuvent inventer de fausses informations, faire référence à des documents qui n’existent pas. […] et nous ne sommes pas capables de les piloter, » dit-il. Mais il ne craint pas que « l’IA échappe à notre contrôle et conduise à la destruction de l’humanité. »
Il est contre toute tentative de pause difficile à mettre en oeuvre et qui risquerait « de ralentir les progrès" . Au contraire, dit-il : « il faut accélérer. »
Porteur de l’optimisme souvent insouciant de Silicon Valley il déclare que « Plus les gens sont éduqués, instruits, capables de raisonner et d’anticiper ce qui va se produire, plus ils peuvent prendre des décisions bénéfiques à long terme. »
La responsabilité incombe aux utilisateurs. Il suffit de les « informer des limites de l’application. »
Geoffrey Hinton , le plus âgé des trois, est considéré comme le « parrain de l’IA ». Psychologue cognitif et informaticien, il s’est inspiré de la biologie et des neurosciences pour faire évoluer les réseaux neuronaux.
Ses principales craintes concernent :
La propagation massive de fausses infos impossibles à distinguer des vraies, et l’impact sur l’emploi.
La capacité des machines à se fixer leurs propres objectifs et à tenter de les atteindre.
Leur puissance amplifiée par le fait qu’elles sont connectables en accès direct. « C'est comme si nous étions 10 000 et que dès qu'une personne apprend quelque chose, tout le monde le savait. »
Les salauds s’en serviront, qu’il s’agisse de truquer des élections ou de remporter une guerre.
A la différence du nucléaire il est impossible de savoir si une entreprise ou un pays y travaillent en secret.
Le bébé qu’il a aidé à mettre au monde est devenu « une forme complètement différente d’intelligence,” nouvelle et meilleure. « J'ai soudain changé d'avis sur la question de savoir si ces choses seront plus intelligentes que nous. Je pense qu'elles en sont très proches aujourd'hui et qu'elles seront beaucoup plus intelligentes que nous à l'avenir », déclare-t-il.
Mais, d’où viennent ces divergences ?
De l’activité professionnelle différente de chacun des trois amis et de leurs sensibilités personnelles.
Professeur à l’Université de Toronto Hinton avait quitté en 1980 l’Université de Cornell aux États-Unis pour ne plus dépendre des financements du Pentagone. Employé de Google depuis 10 ans, il est resté discret jusqu’au 30 avril. Mais, cohérent avec ses nouvelles craintes, il vient de passer à l’acte en annonçant sa démission. « Je veux parler des questions de sécurité de l'IA sans avoir à me préoccuper de la manière dont elle interagit avec les activités de Google,” dit-il. En sus de quoi il mentionne son âge (75 ans) pour expliquer sa décision et le fait que les positions qu'on prend sur le sujet dépendent largement du côté optimiste ou pessimiste de celui qui parle. « Modérément déprimé, » lui-même, il est inquiet.
Bengio est avant tout professeur installé à l’Université de Montréal où il dirige un laboratoire. Il a travaillé avec la BigTech tout en maintenant ses distances.
Le Cun est responsable de l’IA pour Facebook/Meta, une des plus grosses boîtes de Silicon Valley.
Nul ne saurait contester les convictions de chacun mais leur marge d’expression n’est pas la même.
Faute de consensus…
Revenons au parallèle, décalé dans le temps, entre IA et la crise climatique.
Il a fallu de nombreuses années pour que la communauté scientifique parvienne à un consensus. Maintenant qu’elle y est parvenue, nous pouvons suivre avec plus de confiance et nous engager en sachant pourquoi.
Ce n'est pas le cas avec l'IA et, dans les désaccords notés, la science n’est pas la seule à expliquer les prises de position. Faute de pouvoir apprécier sur le fond la validité des arguments avancés, nous devons situer ceux qui parlent, quelles que soient leurs références académiques ou autres. Pour grands que soient les chercheurs, docteurs, professeurs et autres « Nobel », leurs intérêts comme leur philosophie, pèsent sur leurs prises de position, comme elles le font sur les nôtres.
A la semaine prochaine. N’oubliez pas de jeter un coup d’oeil à IApedIA où vous trouverez des explications simples de termes techniques.
A propos des trois "turingiens" et de la comparaison entre IA et climat, le facteur cle est l'echelle de temps pour arriver a un consensus. 50 ans depuis le Club de Rome, et quelques mois depuis ChatGPT4, qui n'est lui-meme qu'une maigre illustration, certes parlante pour le grand public, de ce qu'une IA peut faire.