Sommaire
Intelligence artificielle générale (AGI) : une avancée majeure dans le domaine de l’IA
L’intelligence artificielle générale (AGI), souvent appelée « IA forte », « IA complète », « IA de niveau humain » ou « action intelligente générale », représente un saut significatif dans le domaine de l’intelligence artificielle. Contrairement à l’IA étroite, qui est adaptée à des tâches spécifiques telles que la détection de défauts de produits, la résumé de l’actualité ou la création d’un site web, l’AGI sera capable d’effectuer un large éventail de tâches cognitives à un niveau égal ou supérieur à celui des humains. Lors d’une conférence de presse donnée cette semaine lors de la conférence annuelle des développeurs de Nvidia, le PDG Jensen Huang semblait s’ennuyer sérieusement de discuter du sujet, notamment parce qu’il se retrouve souvent mal cité, dit-il.
Les questions existentielles posées par l’AGI
La fréquence de la question est compréhensible : le concept soulève des questions existentielles sur le rôle de l’humanité et son contrôle dans un avenir où les machines peuvent surpasser, apprendre et surpasser les humains dans pratiquement tous les domaines. La préoccupation principale réside dans l’imprévisibilité des processus de prise de décision et des objectifs de l’AGI, qui peuvent ne pas être alignés sur les valeurs ou les priorités humaines (un concept exploré en profondeur dans la science-fiction depuis au moins les années 1940). On craint qu’une fois que l’AGI atteindra un certain niveau d’autonomie et de capacité, il deviendra impossible de le contenir ou de le contrôler, ce qui donnera lieu à des scénarios où ses actions ne pourront pas être prédites ou inversées.
La question du moment où l’AGI sera atteinte
Lorsque la presse sensationnaliste demande un délai, elle cherche souvent à inciter les professionnels de l’IA à fixer une échéance pour la fin de l’humanité, ou du moins du statu quo actuel. Il va sans dire que les PDG des entreprises d’IA ne sont pas toujours désireux d’aborder le sujet.
Cependant, Huang a pris le temps de dire à la presse ce qu’il pense du sujet. Selon lui, la prédiction de la date à laquelle nous verrons une AGI acceptable dépend de la manière dont nous définissons l’AGI, et il fait quelques parallèles : même avec les complications des fuseaux horaires, on sait quand le Nouvel An arrive et que l’année 2025 commence. Si vous conduisez jusqu’au San Jose Convention Center (où se déroule la conférence GTC de cette année), vous savez généralement que vous êtes arrivé lorsque vous voyez les énormes bannières de la GTC. Le point crucial est que nous pouvons convenir de la manière de mesurer que vous êtes arrivé, que ce soit temporellement ou géospatialement, là où vous espériez aller.
« Si nous définissons l’AGI comme quelque chose de très spécifique, un ensemble de tests où un programme informatique peut s’en sortir très bien – ou peut-être 8% mieux que la plupart des gens – je crois que nous y arriverons d’ici 5 ans », explique Huang. Il suggère que les tests pourraient être un examen juridique, des tests logiques, des tests économiques ou peut-être la capacité à réussir un examen de pré-médecine. À moins que le questionneur ne soit en mesure de préciser ce que signifie l’AGI dans le contexte de la question, il n’est pas disposé à faire une prédiction. C’est compréhensible.
La résolution des hallucinations de l’IA
Lors de la session de questions-réponses de mardi, Huang a été interrogé sur la façon de résoudre les hallucinations de l’IA – la tendance de certaines IA à inventer des réponses qui semblent plausibles mais qui ne sont pas basées sur des faits. Il semblait visiblement frustré par la question et a suggéré que les hallucinations sont facilement résolues en s’assurant que les réponses sont bien recherchées.
« Ajoutez une règle : pour chaque réponse, vous devez rechercher la réponse », déclare Huang, en se référant à cette pratique comme une « génération augmentée par la récupération », décrivant une approche très similaire à la littératie médiatique de base : examiner la source et le contexte. Comparer les faits contenus dans la source avec les vérités connues, et si la réponse est factuellement inexacte – même partiellement – rejeter toute la source et passer à la suivante. « L’IA ne devrait pas seulement répondre ; elle devrait d’abord faire des recherches pour déterminer quelles sont les meilleures réponses. »
Pour les réponses critiques, telles que des conseils de santé ou similaires, le PDG de Nvidia suggère peut-être de consulter plusieurs sources et des sources de vérité connues. Bien sûr, cela signifie que le générateur qui crée une réponse doit avoir la possibilité de dire : « Je ne connais pas la réponse à votre question » ou « Je ne peux pas parvenir à un consensus sur la bonne réponse à cette question » ou même quelque chose comme « Hé, le Super Bowl n’a pas encore eu lieu, donc je ne sais pas qui a gagné. »