La méta confirme l’arrivée imminente de son Llama 3 LLM open source – Une révolution à ne pas manquer !

Meta prévoit de lancer Llama 3, sa nouvelle génération de modèle de langage

Lors d’un événement à Londres mardi, Meta a confirmé qu’il prévoit de lancer prochainement Llama 3, la prochaine génération de son grand modèle de langage utilisé pour alimenter les assistants IA génératifs.

Cela confirme un rapport publié lundi par The Information selon lequel Meta se rapprochait du lancement.

Un déploiement progressif de différentes versions de Llama 3

« Dans le mois à venir, voire même plus tôt, nous espérons commencer à déployer notre nouvelle suite de modèles fondamentaux de nouvelle génération, Llama 3 », a déclaré Nick Clegg, président des affaires mondiales de Meta. Il a décrit ce qui semble être le lancement de plusieurs itérations ou versions différentes du produit. « Il y aura plusieurs modèles différents avec des capacités différentes, des polyvalences différentes [lancées] au cours de cette année, commençant très bientôt. »

Meta cherche à rattraper son retard sur OpenAI

Meta a été pris de court par OpenAI, qui a lancé ChatGPT il y a plus d’un an et l’application est devenue virale, transformant les questions et réponses de l’IA générative en expériences courantes et grand public.

Meta a adopté une approche très prudente avec l’IA, mais cela n’a pas été bien accueilli par le public, les versions précédentes de Llama ayant été critiquées comme étant trop limitées. (Llama 2 a été publié publiquement en juillet 2023. La première version de Llama n’a pas été publiée publiquement, mais a quand même fuité en ligne.)

Llama 3 : des capacités étendues pour répondre à une plus grande variété de questions

Llama 3, qui est plus vaste que ses prédécesseurs, devrait remédier à cela, avec des capacités non seulement pour répondre aux questions de manière plus précise, mais aussi pour traiter une plus large gamme de questions, y compris des sujets plus controversés. Espérons que cela permettra au produit de séduire les utilisateurs.

« Notre objectif à long terme est de faire en sorte qu’une IA Meta alimentée par Llama soit l’assistant le plus utile au monde », a déclaré Joelle Pineau, vice-présidente de la recherche en IA. « Il reste encore beaucoup de travail à faire pour y parvenir. » La société n’a pas parlé de la taille des paramètres utilisés dans Llama 3, ni proposé de démonstrations de son fonctionnement. On estime qu’il aura environ 140 milliards de paramètres, contre 70 milliards pour le plus grand modèle Llama 2.

Meta mise sur des produits open source pour attirer les développeurs

Les familles de produits Llama de Meta, construites en tant que produits open source, représentent une approche philosophique différente de celle du développement de l’IA en tant que technologie plus large. Ce faisant, Meta espère gagner en faveur auprès des développeurs par rapport à des modèles plus propriétaires.

Mais Meta semble également jouer la prudence, notamment en ce qui concerne l’IA générative au-delà de la génération de texte. L’entreprise ne semble pas encore prête à sortir Emu, son outil de génération d’images, selon Joelle Pineau.

Les sceptiques de l’IA générative chez Meta

Ironiquement, même si Meta travaille sur le lancement de Llama 3, il a des sceptiques importants de l’IA générative en interne.

Yann LeCun, le célèbre universitaire en IA qui est également le scientifique en chef de l’IA chez Meta, a critiqué les limitations de l’IA générative dans l’ensemble et a déclaré qu’il parie sur ce qui vient après. Il prédit que ce sera l’architecture de prédiction d’encastrement commune (JEPA), une approche différente à la fois de la formation des modèles et de la production de résultats, que Meta utilise pour construire une IA prédictive plus précise dans le domaine de la génération d’images.

« L’avenir de l’IA est le JEPA. Ce n’est pas l’IA générative », a-t-il déclaré. « Nous allons devoir changer le nom de la division des produits de Chris. »

Comparta su opinión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.