Sommaire
DeepMind dévoile AlphaGeometry, un système d’IA qui résout des problèmes de géométrie
DeepMind, le laboratoire de recherche en IA de Google, pense que la clé de systèmes d’IA plus performants pourrait résider dans la découverte de nouvelles façons de résoudre des problèmes de géométrie complexes.
Ainsi, DeepMind a dévoilé aujourd’hui AlphaGeometry – un système qui, selon le laboratoire, peut résoudre autant de problèmes de géométrie qu’un médaillé d’or moyen de l’Olympiade internationale de mathématiques. Le code source d’AlphaGeometry a été rendu public ce matin et ce système résout 25 problèmes de géométrie de l’Olympiade dans les délais impartis, surpassant ainsi les 10 problèmes résolus par le système précédent, à la pointe de la technologie.
« Résoudre des problèmes de géométrie de niveau Olympiade est une étape importante dans le développement du raisonnement mathématique approfondi sur la voie de systèmes d’IA plus avancés et plus généraux », ont écrit Trieu Trinh et Thang Luong, chercheurs en IA chez Google, dans un article de blog publié ce matin. « [Nous] espérons que … AlphaGeometry ouvre de nouvelles possibilités dans les domaines des mathématiques, de la science et de l’IA. »
Pourquoi se concentrer sur la géométrie ?
DeepMind affirme que prouver des théorèmes mathématiques, ou expliquer logiquement pourquoi un théorème (comme le théorème de Pythagore) est vrai, nécessite à la fois du raisonnement et la capacité de choisir parmi une gamme d’étapes possibles vers une solution. Cette approche de résolution de problèmes pourrait, si DeepMind a raison, s’avérer utile dans les systèmes d’IA à usage général.
« Démontrer qu’une conjecture particulière est vraie ou fausse met à l’épreuve les capacités même des systèmes d’IA les plus avancés aujourd’hui », indiquent les documents de presse de DeepMind partagés avec nous. « Dans cette optique, être capable de prouver des théorèmes mathématiques… est une étape importante car cela démontre la maîtrise du raisonnement logique et la capacité à découvrir de nouvelles connaissances. »
Les défis de l’entraînement d’un système d’IA pour résoudre des problèmes de géométrie
Former un système d’IA à résoudre des problèmes de géométrie pose des défis uniques.
En raison des complexités de la traduction des preuves en un format compréhensible par les machines, il y a un manque de données d’entraînement en géométrie utilisables. De plus, de nombreux modèles d’IA génératifs de pointe d’aujourd’hui, bien qu’exceptionnels pour identifier des schémas et des relations dans les données, manquent de la capacité de raisonner logiquement à travers des théorèmes.
La solution de DeepMind était double.
La conception d’AlphaGeometry
Pour concevoir AlphaGeometry, le laboratoire a associé un modèle de « langage neuronal » – un modèle architecturalement similaire à ChatGPT – à un « moteur de déduction symbolique », un moteur qui utilise des règles (par exemple, des règles mathématiques) pour déduire des solutions aux problèmes. Les moteurs symboliques peuvent être rigides et lents, surtout lorsqu’ils traitent des ensembles de données volumineux ou complexes. Mais DeepMind a atténué ces problèmes en permettant au modèle neuronal de « guider » le moteur de déduction à travers les réponses possibles aux problèmes de géométrie donnés.
À défaut de données d’entraînement, DeepMind a créé ses propres données synthétiques, générant 100 millions de « théorèmes synthétiques » et de preuves de complexité variable. Le laboratoire a ensuite entraîné AlphaGeometry à partir de zéro sur les données synthétiques et l’a évalué sur des problèmes de géométrie de l’Olympiade.
Les problèmes de géométrie de l’Olympiade sont basés sur des diagrammes auxquels il faut ajouter des « constructions » avant de pouvoir les résoudre, telles que des points, des lignes ou des cercles. Appliqué à ces problèmes, le modèle neuronal d’AlphaGeometry prédit quelles constructions pourraient être utiles à ajouter – des prédictions que le moteur symbolique d’AlphaGeometry utilise pour faire des déductions sur les diagrammes afin d’identifier des solutions similaires.
Le débat sur les approches symboliques et neuronales
Les résultats de la résolution de problèmes d’AlphaGeometry, qui ont été publiés dans une étude dans la revue Nature cette semaine, sont susceptibles de nourrir le débat de longue date sur la question de savoir si les systèmes d’IA doivent être construits sur la manipulation de symboles – c’est-à-dire la manipulation de symboles qui représentent des connaissances à l’aide de règles – ou sur les réseaux neuronaux, qui sont plus proches du fonctionnement du cerveau.
Les partisans de l’approche des réseaux neuronaux soutiennent que le comportement intelligent – de la reconnaissance vocale à la génération d’images – peut émerger de rien d’autre que de vastes quantités de données et de calcul. Par opposition aux systèmes symboliques, qui résolvent des tâches en définissant des ensembles de règles de manipulation de symboles dédiées à des tâches particulières (comme l’édition d’une ligne dans un logiciel de traitement de texte), les réseaux neuronaux essaient de résoudre des tâches par approximation statistique et apprentissage à partir d’exemples.
Les réseaux neuronaux sont la pierre angulaire de puissants systèmes d’IA tels que le DALL-E 3 d’OpenAI et le GPT-4. Mais, selon les partisans de l’IA symbolique, ils ne sont pas la panacée ; l’IA symbolique pourrait être mieux placée pour encoder efficacement les connaissances du monde, raisonner dans des scénarios complexes et « expliquer » comment elle est arrivée à une réponse.
AlphaGeometry : une approche hybride symbolique-neuronale
En tant que système hybride symbolique-réseau neuronal similaire à AlphaFold 2 et AlphaGo de DeepMind, AlphaGeometry démontre peut-être que les deux approches – manipulation de symboles et réseaux neuronaux – combinées sont la meilleure voie à suivre dans la recherche d’une IA généralisable.
« Notre objectif à long terme reste de construire des systèmes d’IA capables de généraliser dans tous les domaines mathématiques, en développant des capacités de résolution de problèmes sophistiquées et de raisonnement sur lesquelles les systèmes d’IA généraux dépendront, tout en repoussant les frontières de la connaissance humaine », écrivent Trinh et Luong. « Cette approche pourrait façonner la manière dont les systèmes d’IA du futur découvrent de nouvelles connaissances, en mathématiques et au-delà. »