{"id":8428,"date":"2023-12-05T20:51:52","date_gmt":"2023-12-05T18:51:52","guid":{"rendered":"https:\/\/toukiela.com\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/"},"modified":"2023-12-05T20:51:52","modified_gmt":"2023-12-05T18:51:52","slug":"lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi","status":"publish","type":"post","link":"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/","title":{"rendered":"L&rsquo;IA traditionnelle toujours en t\u00eate malgr\u00e9 l&rsquo;essor des LLMs &#8211; D\u00e9couvrez pourquoi !"},"content":{"rendered":"<p><em><\/em><\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Sommaire<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f1e47e25cbb\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f1e47e25cbb\"  aria-label=\"Toggle\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/#La_persistance_des_modeles_bases_sur_des_taches_specifiques\" >La persistance des mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/#Les_modeles_bases_sur_des_taches_specifiques_dans_lentreprise\" >Les mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques dans l\u2019entreprise<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/#Les_capacites_emergentes_des_LLMs_et_les_limites\" >Les capacit\u00e9s \u00e9mergentes des LLMs et les limites<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/#Le_modele_tout-en-un_et_les_avantages_des_modeles_bases_sur_des_taches_specifiques\" >Le mod\u00e8le tout-en-un et les avantages des mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/#Le_role_des_scientifiques_des_donnees\" >Le r\u00f4le des scientifiques des donn\u00e9es<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/toukiela.com\/fr_ca\/lia-traditionnelle-toujours-en-tete-malgre-lessor-des-llms-decouvrez-pourquoi\/#La_coexistence_des_deux_approches\" >La coexistence des deux approches<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"La_persistance_des_modeles_bases_sur_des_taches_specifiques\"><\/span>La persistance des mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Il y a un an, avant que nous ne connaissions ChatGPT, l\u2019apprentissage automatique consistait principalement \u00e0 construire des mod\u00e8les pour r\u00e9soudre une seule t\u00e2che, comme l\u2019approbation de pr\u00eats ou la protection contre la fraude. Avec l\u2019av\u00e8nement des mod\u00e8les de langage \u00e0 grande \u00e9chelle (LLMs), cette approche semblait \u00eatre abandonn\u00e9e. Cependant, il est important de noter que les mod\u00e8les g\u00e9n\u00e9ralis\u00e9s ne conviennent pas \u00e0 tous les probl\u00e8mes, et les mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques sont toujours bien pr\u00e9sents dans le monde de l\u2019entreprise.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Les_modeles_bases_sur_des_taches_specifiques_dans_lentreprise\"><\/span>Les mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques dans l\u2019entreprise<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Avant l\u2019\u00e9mergence des LLMs, les mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques \u00e9taient la base de l\u2019intelligence artificielle dans les entreprises, et ils ne dispara\u00eetront pas de sit\u00f4t. C\u2019est ce que le directeur technique d\u2019Amazon, Werner Vogels, a qualifi\u00e9 de \u00ab\u00a0bonne vieille intelligence artificielle\u00a0\u00bb lors de son discours d\u2019ouverture cette semaine. Selon lui, c\u2019est ce type d\u2019IA qui r\u00e9sout encore de nombreux probl\u00e8mes concrets.<\/p>\n<p>Atul Deo, directeur g\u00e9n\u00e9ral d\u2019Amazon Bedrock, un produit lanc\u00e9 plus t\u00f4t cette ann\u00e9e pour se connecter \u00e0 diff\u00e9rents mod\u00e8les de langage \u00e0 grande \u00e9chelle via des API, est \u00e9galement convaincu que les mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques ne vont pas simplement dispara\u00eetre. Au contraire, ils sont devenus un outil suppl\u00e9mentaire dans l\u2019arsenal de l\u2019IA.<\/p>\n<p>\u00ab\u00a0Avant l\u2019av\u00e8nement des mod\u00e8les de langage \u00e0 grande \u00e9chelle, nous \u00e9tions principalement dans un monde sp\u00e9cifique \u00e0 chaque t\u00e2che. L\u2019id\u00e9e \u00e9tait de former un mod\u00e8le sp\u00e9cifique \u00e0 partir de z\u00e9ro pour une t\u00e2che particuli\u00e8re\u00a0\u00bb, explique Deo \u00e0 Toukiela. Selon lui, la principale diff\u00e9rence entre le mod\u00e8le bas\u00e9 sur des t\u00e2ches sp\u00e9cifiques et le LLM est que le premier est form\u00e9 pour une t\u00e2che sp\u00e9cifique, tandis que le second peut g\u00e9rer des \u00e9l\u00e9ments en dehors des limites du mod\u00e8le.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Les_capacites_emergentes_des_LLMs_et_les_limites\"><\/span>Les capacit\u00e9s \u00e9mergentes des LLMs et les limites<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Jon Turow, associ\u00e9 chez Madrona, une soci\u00e9t\u00e9 d\u2019investissement, et ancien employ\u00e9 d\u2019AWS pendant pr\u00e8s de dix ans, affirme que l\u2019industrie parle des capacit\u00e9s \u00e9mergentes des mod\u00e8les de langage \u00e0 grande \u00e9chelle, telles que le raisonnement et la robustesse hors domaine. \u00ab\u00a0Ces capacit\u00e9s vous permettent d\u2019aller au-del\u00e0 d\u2019une d\u00e9finition \u00e9troite de ce que le mod\u00e8le \u00e9tait initialement cens\u00e9 faire\u00a0\u00bb, explique-t-il. Cependant, selon lui, il reste encore beaucoup \u00e0 d\u00e9battre sur la mesure dans laquelle ces capacit\u00e9s peuvent \u00eatre \u00e9tendues.<\/p>\n<p>Tout comme Deo, Turow estime que les mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques ne vont pas simplement dispara\u00eetre. \u00ab\u00a0Il y a clairement encore une place pour les mod\u00e8les sp\u00e9cifiques \u00e0 chaque t\u00e2che, car ils peuvent \u00eatre plus petits, plus rapides, moins chers et, dans certains cas, m\u00eame plus performants, car ils sont con\u00e7us pour une t\u00e2che sp\u00e9cifique\u00a0\u00bb, affirme-t-il.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Le_modele_tout-en-un_et_les_avantages_des_modeles_bases_sur_des_taches_specifiques\"><\/span>Le mod\u00e8le tout-en-un et les avantages des mod\u00e8les bas\u00e9s sur des t\u00e2ches sp\u00e9cifiques<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Cependant, il est difficile d\u2019ignorer l\u2019attrait d\u2019un mod\u00e8le tout-en-un. \u00ab\u00a0Lorsque vous regardez au niveau global d\u2019une entreprise, lorsque des centaines de mod\u00e8les d\u2019apprentissage automatique sont form\u00e9s s\u00e9par\u00e9ment, cela n\u2019a aucun sens\u00a0\u00bb, d\u00e9clare Deo. \u00ab\u00a0En revanche, si vous optez pour un mod\u00e8le de langage \u00e0 grande \u00e9chelle plus performant, vous b\u00e9n\u00e9ficiez imm\u00e9diatement de l\u2019avantage de la r\u00e9utilisabilit\u00e9, tout en permettant d\u2019utiliser un seul mod\u00e8le pour r\u00e9soudre diff\u00e9rents cas d\u2019utilisation.\u00a0\u00bb<\/p>\n<p>Pour Amazon, SageMaker, la plateforme d\u2019exploitation d\u2019apprentissage automatique de l\u2019entreprise, reste un produit cl\u00e9, destin\u00e9 aux scientifiques des donn\u00e9es plut\u00f4t qu\u2019aux d\u00e9veloppeurs, contrairement \u00e0 Bedrock. Elle compte des dizaines de milliers de clients qui construisent des millions de mod\u00e8les. Il serait insens\u00e9 de renoncer \u00e0 cet outil, d\u2019autant plus que les LLMs sont \u00e0 la mode en ce moment. Il convient \u00e9galement de noter qu\u2019Amazon a annonc\u00e9 des am\u00e9liorations de SageMaker cette semaine, visant notamment \u00e0 g\u00e9rer les mod\u00e8les de langage \u00e0 grande \u00e9chelle.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Le_role_des_scientifiques_des_donnees\"><\/span>Le r\u00f4le des scientifiques des donn\u00e9es<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Avant l\u2019apparition des mod\u00e8les de langage \u00e0 grande \u00e9chelle, le mod\u00e8le bas\u00e9 sur une t\u00e2che sp\u00e9cifique \u00e9tait vraiment la seule option, et les entreprises abordaient cette approche en constituant une \u00e9quipe de scientifiques des donn\u00e9es pour aider \u00e0 d\u00e9velopper ces mod\u00e8les. Quel est le r\u00f4le du scientifique des donn\u00e9es \u00e0 l\u2019\u00e8re des mod\u00e8les de langage \u00e0 grande \u00e9chelle lorsque les outils sont destin\u00e9s aux d\u00e9veloppeurs ? Turow estime qu\u2019ils ont toujours un r\u00f4le essentiel \u00e0 jouer, m\u00eame dans les entreprises ax\u00e9es sur les LLMs.<\/p>\n<p>\u00ab\u00a0Ils vont r\u00e9fl\u00e9chir de mani\u00e8re critique \u00e0 propos des donn\u00e9es, et c\u2019est un r\u00f4le qui conna\u00eet une croissance, pas un d\u00e9clin\u00a0\u00bb, affirme-t-il. Quel que soit le mod\u00e8le, Turow estime que les scientifiques des donn\u00e9es aideront les gens \u00e0 comprendre la relation entre l\u2019IA et les donn\u00e9es au sein des grandes entreprises.<\/p>\n<p>\u00ab\u00a0Je pense que nous devons tous r\u00e9fl\u00e9chir de mani\u00e8re critique \u00e0 ce dont l\u2019IA est capable et \u00e0 ce qu\u2019elle ne peut pas faire, ainsi qu\u2019\u00e0 ce que les donn\u00e9es signifient ou ne signifient pas\u00a0\u00bb, d\u00e9clare-t-il. Et cela est vrai que vous construisiez un mod\u00e8le de langage \u00e0 grande \u00e9chelle plus g\u00e9n\u00e9ralis\u00e9 ou un mod\u00e8le bas\u00e9 sur une t\u00e2che sp\u00e9cifique.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"La_coexistence_des_deux_approches\"><\/span>La coexistence des deux approches<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Voil\u00e0 pourquoi ces deux approches continueront \u00e0 fonctionner de mani\u00e8re concurrente pendant un certain temps, car parfois, plus grand ne signifie pas forc\u00e9ment meilleur.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":8431,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-8428","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/8428","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/comments?post=8428"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/8428\/revisions"}],"predecessor-version":[{"id":8429,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/posts\/8428\/revisions\/8429"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/media\/8431"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/media?parent=8428"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/categories?post=8428"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/fr_ca\/wp-json\/wp\/v2\/tags?post=8428"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}