Avec l'essor des LLM, de quoi devrions-nous vraiment nous préoccuper ?
14 décembre 2023
Par Ian Evans
Michael Wooldridge est professeur d'informatique à l'université d'Oxford.
Le professeur Michael Wooldridge, de l'Université d'Oxford, parle des dangers et des promesses de l'IA avant sa conférence de Noël de la Royal Institution sur la BBC
L'arrivée de modèles d'IA à langage étendu comme ChatGPT a déclenché des débats dans les universités, les gouvernements, les entreprises et les médias. Les discussions vont de leur impact sur l'emploi et la politique à la spéculation sur la menace existentielle qu'ils pourraient représenter pour l'humanité.
Michael Wooldridge S’ouvre dans une nouvelle fenêtre, professeur d'informatique à l'université d'Oxford, a décrit l'avènement de ces grands modèles de langage (LLM) comme étant "des choses étranges téléportées sur Terre qui rendent soudain possibles des choses dans le domaine de l'intelligence artificielle qui n'étaient que des débats philosophiques il y a encore trois ans" Pour Michael, la menace existentielle potentielle de l'IA est exagérée, alors que les dommages réels, voire mortels, qu'elle peut déjà causer sont sous-estimés. et le potentiel qu'ils offrent est alléchant.
Quel est le véritable risque de l'IA ?
Avant de se prononcer sur l'une des conférences de Noël de la Royal Institution(S'ouvre dans une nouvelle fenêtre) S’ouvre dans une nouvelle fenêtre le 12 décembre, Michael a déclaré que les inquiétudes concernant les menaces existentielles(S'ouvre dans une nouvelle fenêtre) S’ouvre dans une nouvelle fenêtre n'étaient pas réalistes :
En ce qui concerne les grands risques liés à l'IA, vous n'avez pas à craindre que le ChatGPT sorte de l'ordinateur et prenne le contrôle. Si vous regardez sous le capot de ChatGPT et que vous voyez comment il fonctionne, vous comprendrez que ce n'est pas le cas. Dans toutes les discussions sur les menaces existentielles, personne ne m'a jamais présenté de scénario plausible sur la façon dont l'IA pourrait constituer un risque existentiel.
Au contraire, Michael considère l'attention portée à cette question comme une distraction qui peut "aspirer tout l'air de la pièce" et faire en sorte qu'il n'y ait plus d'espace pour parler d'autre chose - y compris des risques plus immédiats :
Il y a un risque que rien d'autre ne soit jamais discuté, même lorsqu'il y a des abus et des préjudices qui sont causés maintenant, et qui seront causés dans les prochaines années, et qui doivent être pris en considération, qui doivent faire l'objet d'une attention, d'une réglementation et d'une gouvernance.
Michael a décrit un scénario dans lequel un adolescent présentant des symptômes médicaux peut se trouver trop gêné ou embarrassé pour aller voir un médecin ou en discuter avec un soignant. Dans une telle situation, l'adolescent pourrait s'adresser à un LLM pour obtenir de l'aide et recevoir des conseils de piètre qualité.
Les prestataires responsables essaieront d'intercepter les requêtes de ce type et de dire : "Je ne donne pas de conseils médicaux". Cependant, il n'est pas difficile de contourner ces garde-fous, et lorsque la technologie proliférera, il y aura beaucoup de fournisseurs qui ne seront pas responsables", a déclaré M. Michael. "Des personnes mourront parce que des produits sont mis sur le marché sans être correctement protégés
Ce scénario - où la technologie prolifère sans garde-fou - constitue un risque majeur pour l'IA, a affirmé Michael. L'IA elle-même ne cherchera pas à nous nuire, mais les personnes qui l'utilisent à mauvais escient peuvent causer et causent des dommages.
"Le gouvernement britannique a été très actif dans l'étude des risques liés à l'IA et résume un scénario qu'il appelle le Far West", a-t-il déclaré. Dans ce scénario, l'IA se développe de telle sorte que tout le monde peut mettre la main sur un LLM sans garde-fou, ce qui devient alors impossible à contrôler.
"Cela met des outils puissants entre les mains d'acteurs potentiellement mal intentionnés qui les utilisent pour faire de mauvaises choses", a-t-il déclaré. "Nous allons assister à des élections au Royaume-Uni, aux États-Unis, en Inde, où la désinformation va poser un problème majeur
Quel est le grand défi - et comment pouvons-nous le relever ?
Michael a résumé le défi comme suit : "Comment soutenir les personnes qui veulent innover dans ce domaine ? "Comment soutenir les personnes qui veulent innover dans ce domaine, tout en évitant que cette technologie ne prolifère au point de devenir impossible à gouverner ?
Il n'y a pas de réponse facile dans l'immédiat, mais M. Michael a fait remarquer que les entreprises de médias sociaux pourraient faire davantage pour mettre en place des systèmes permettant de repérer les fausses informations flagrantes et de les empêcher de se propager. "Les contre-arguments habituels sont que si vous essayez d'aborder ce sujet, vous étouffez la liberté d'expression", a-t-il déclaré. "Mais lorsque des faussetés manifestes sont répandues, je pense que les entreprises de médias sociaux ont l'obligation d'en faire plus ».
Il est essentiel de trouver un équilibre entre la prévention des préjudices et la promotion de l'innovation car, comme l'a souligné Michael, les LLM constituent un domaine fascinant pour les chercheurs, avec un potentiel considérable :
L'arrivée de ces modèles a été un véritable trou noir qui a bouleversé l'ensemble de l'informatique. Et toute la science a été touchée par cette énorme présence.
Michael a fait remarquer que les dix groupes de recherche de son département universitaire ont été touchés par les progrès du LLM : "Dans certains cas, ils ont réécrit leur programme de recherche ; dans d'autres, ils mettent fin à leurs travaux parce qu'ils ne sont plus pertinents".
Michael s'intéresse particulièrement aux systèmes multi-agents, dans lesquels plusieurs systèmes d'intelligence artificielle ayant des objectifs concurrents ou complémentaires interagissent pour résoudre un problème qui échapperait à un système unique.
"C'est vraiment une question qui me turlupine", a-t-il déclaré. "Les grands modèles de langage représentent une opportunité vraiment alléchante - cette idée de les faire interagir les uns avec les autres sans nécessairement le faire en langage humain".
"Ainsi, par exemple, une idée est que vous pouvez traiter l'hallucination en ayant de grands modèles de langage qui sont essentiellement dans un scénario compétitif les uns avec les autres. L'un des modèles propose un texte, l'autre le critique, et l'idée est que le processus se termine par un accord sur une déclaration factuelle".
Face au type de changement radical que représentent ces modèles d'IA, Michael considère que la communication scientifique est essentielle. En tant que co-rédacteur en chef de la revue Artifical S’ouvre dans une nouvelle fenêtre Intelligence publiée par Elsevier, il connaît bien la communication sur la recherche entre les chercheurs. Les conférences de Noël de l'Institut royal constituent quant à elles une plateforme pour communiquer des faits sur l'IA de manière plus générale.
"Cette question figure en bonne place dans mon programme, et ce depuis plusieurs années", a-t-il déclaré. "Avec toutes les discussions autour de l'IA, je considère qu'il est essentiel d'essayer d'informer le public sur ce qu'est l'IA. Cela fait partie de la science. Si j'accepte un financement public pour mon travail, j'ai l'obligation - si cela devient un sujet de discussion - de me lever et d'en parler".
Michael aborde notamment la question de l'idée fausse selon laquelle l'IA a ses propres intentions ou ses propres considérations :
L'un des grands malentendus est que les gens s'imaginent qu'il y a un esprit de l'autre côté de l'écran, ce qui n'est absolument pas le cas. Une IA ne prend pas en compte votre question. Lorsque vous comprenez leur fonctionnement, même à un niveau superficiel, vous vous rendez compte qu'il s'agit simplement d'un algorithme statistique. C'est un algorithme statistique très cool et impressionnant, mais il ne pense pas et ne réfléchit pas. Certaines personnes sont surprises d'apprendre qu'il n'y a pas d'esprit du tout.
Cette idée fausse peut être alimentée par le langage qui entoure l'IA, à savoir qu'elle "cherche" des informations, qu'elle peut être "trompée" ou qu'elle "veut" fournir un certain type de réponse.
"Nous utilisons ce langage parce qu'il est pratique", a déclaré Michael, "mais le danger de l'anthropomorphisation de l'IA est que nous y lisons beaucoup plus que ce qu'il y a en réalité".
Malgré la tempête de discussions, le catastrophisme, les idées fausses et le risque de désinformation, Michael est enthousiaste à propos de l'IA du point de vue de la recherche :
C'est une évolution très intéressante. Nous disposons d'outils très puissants, dont nous commençons à peine à explorer les dimensions. Ces outils sont bizarres, et nous ne comprenons pas exactement pourquoi ils se trompent de certaines manières et quelles sont leurs capacités. C’est un voyage fascinant que d’en dresser la carte.
Michael Wooldridge
Michael Wooldridge(S'ouvre dans une nouvelle fenêtre) S’ouvre dans une nouvelle fenêtre(@wooldridgemike) S’ouvre dans une nouvelle fenêtre est professeur d'informatique à l'Université d'Oxford. Il est chercheur en IA depuis plus de 30 ans et a publié plus de 400 articles scientifiques sur le sujet. Il est membre de l'Association for Computing Machinery (ACM), de l'Association for the Advancement of AI (AAAI) et de l'Association européenne pour l'IA (EurAI). De 2014 à 2016, il a été président de l'Association européenne pour l'IA et de 2015 à 2017, il a été président de la Conférence internationale conjointe sur l'IA (IJCAI).
Histoires liées
● Un chat avec GPThibault : "Oubliez le Metaverse, ChatGPT est déjà utile" S’ouvre dans une nouvelle fenêtre (7 juin 2023)
● L'IA responsable et les multiples dimensions de l'intelligence artificielle S’ouvre dans une nouvelle fenêtre (4 mai 2023)
● Comment nous utilisons l'IA pour stimuler la productivité des chercheurs en chimie S’ouvre dans une nouvelle fenêtre (6 février 2023)