L’IA traditionnelle toujours en tête malgré l’essor des LLMs – Découvrez pourquoi !

La persistance des modèles basés sur des tâches spécifiques

Il y a un an, avant que nous ne connaissions ChatGPT, l’apprentissage automatique consistait principalement à construire des modèles pour résoudre une seule tâche, comme l’approbation de prêts ou la protection contre la fraude. Avec l’avènement des modèles de langage à grande échelle (LLMs), cette approche semblait être abandonnée. Cependant, il est important de noter que les modèles généralisés ne conviennent pas à tous les problèmes, et les modèles basés sur des tâches spécifiques sont toujours bien présents dans le monde de l’entreprise.

Les modèles basés sur des tâches spécifiques dans l’entreprise

Avant l’émergence des LLMs, les modèles basés sur des tâches spécifiques étaient la base de l’intelligence artificielle dans les entreprises, et ils ne disparaîtront pas de sitôt. C’est ce que le directeur technique d’Amazon, Werner Vogels, a qualifié de « bonne vieille intelligence artificielle » lors de son discours d’ouverture cette semaine. Selon lui, c’est ce type d’IA qui résout encore de nombreux problèmes concrets.

Atul Deo, directeur général d’Amazon Bedrock, un produit lancé plus tôt cette année pour se connecter à différents modèles de langage à grande échelle via des API, est également convaincu que les modèles basés sur des tâches spécifiques ne vont pas simplement disparaître. Au contraire, ils sont devenus un outil supplémentaire dans l’arsenal de l’IA.

« Avant l’avènement des modèles de langage à grande échelle, nous étions principalement dans un monde spécifique à chaque tâche. L’idée était de former un modèle spécifique à partir de zéro pour une tâche particulière », explique Deo à Toukiela. Selon lui, la principale différence entre le modèle basé sur des tâches spécifiques et le LLM est que le premier est formé pour une tâche spécifique, tandis que le second peut gérer des éléments en dehors des limites du modèle.

Les capacités émergentes des LLMs et les limites

Jon Turow, associé chez Madrona, une société d’investissement, et ancien employé d’AWS pendant près de dix ans, affirme que l’industrie parle des capacités émergentes des modèles de langage à grande échelle, telles que le raisonnement et la robustesse hors domaine. « Ces capacités vous permettent d’aller au-delà d’une définition étroite de ce que le modèle était initialement censé faire », explique-t-il. Cependant, selon lui, il reste encore beaucoup à débattre sur la mesure dans laquelle ces capacités peuvent être étendues.

Tout comme Deo, Turow estime que les modèles basés sur des tâches spécifiques ne vont pas simplement disparaître. « Il y a clairement encore une place pour les modèles spécifiques à chaque tâche, car ils peuvent être plus petits, plus rapides, moins chers et, dans certains cas, même plus performants, car ils sont conçus pour une tâche spécifique », affirme-t-il.

Le modèle tout-en-un et les avantages des modèles basés sur des tâches spécifiques

Cependant, il est difficile d’ignorer l’attrait d’un modèle tout-en-un. « Lorsque vous regardez au niveau global d’une entreprise, lorsque des centaines de modèles d’apprentissage automatique sont formés séparément, cela n’a aucun sens », déclare Deo. « En revanche, si vous optez pour un modèle de langage à grande échelle plus performant, vous bénéficiez immédiatement de l’avantage de la réutilisabilité, tout en permettant d’utiliser un seul modèle pour résoudre différents cas d’utilisation. »

Pour Amazon, SageMaker, la plateforme d’exploitation d’apprentissage automatique de l’entreprise, reste un produit clé, destiné aux scientifiques des données plutôt qu’aux développeurs, contrairement à Bedrock. Elle compte des dizaines de milliers de clients qui construisent des millions de modèles. Il serait insensé de renoncer à cet outil, d’autant plus que les LLMs sont à la mode en ce moment. Il convient également de noter qu’Amazon a annoncé des améliorations de SageMaker cette semaine, visant notamment à gérer les modèles de langage à grande échelle.

Le rôle des scientifiques des données

Avant l’apparition des modèles de langage à grande échelle, le modèle basé sur une tâche spécifique était vraiment la seule option, et les entreprises abordaient cette approche en constituant une équipe de scientifiques des données pour aider à développer ces modèles. Quel est le rôle du scientifique des données à l’ère des modèles de langage à grande échelle lorsque les outils sont destinés aux développeurs ? Turow estime qu’ils ont toujours un rôle essentiel à jouer, même dans les entreprises axées sur les LLMs.

« Ils vont réfléchir de manière critique à propos des données, et c’est un rôle qui connaît une croissance, pas un déclin », affirme-t-il. Quel que soit le modèle, Turow estime que les scientifiques des données aideront les gens à comprendre la relation entre l’IA et les données au sein des grandes entreprises.

« Je pense que nous devons tous réfléchir de manière critique à ce dont l’IA est capable et à ce qu’elle ne peut pas faire, ainsi qu’à ce que les données signifient ou ne signifient pas », déclare-t-il. Et cela est vrai que vous construisiez un modèle de langage à grande échelle plus généralisé ou un modèle basé sur une tâche spécifique.

La coexistence des deux approches

Voilà pourquoi ces deux approches continueront à fonctionner de manière concurrente pendant un certain temps, car parfois, plus grand ne signifie pas forcément meilleur.

Partagez votre opinion

Ce site utilise Akismet pour réduire les spams. Découvrez comment les données de vos commentaires sont traitées.