{"id":9440,"date":"2024-01-09T07:00:36","date_gmt":"2024-01-09T05:00:36","guid":{"rendered":"https:\/\/toukiela.com\/deployez-efficacement-vos-llms-en-suivant-ces-5-etapes-cruciales-pour-les-start-ups\/"},"modified":"2024-01-09T07:00:37","modified_gmt":"2024-01-09T05:00:37","slug":"deployez-efficacement-vos-llms-en-suivant-ces-5-etapes-cruciales-pour-les-start-ups","status":"publish","type":"post","link":"https:\/\/toukiela.com\/fr_be\/deployez-efficacement-vos-llms-en-suivant-ces-5-etapes-cruciales-pour-les-start-ups\/","title":{"rendered":"D\u00e9ployez efficacement vos LLMs en suivant ces 5 \u00e9tapes cruciales pour les start-ups !"},"content":{"rendered":"<p><em><\/em><\/p>\n<h2>Les d\u00e9fis de la formation et du d\u00e9ploiement d\u2019un LLM<\/h2>\n<p><\/p>\n<p>Un probl\u00e8me li\u00e9 \u00e0 l\u2019utilisation des LLM est leur co\u00fbt d\u2019exploitation consid\u00e9rable, car la demande de calcul pour les former et les ex\u00e9cuter est tr\u00e8s intense (ils ne sont pas appel\u00e9s \u00ab\u00a0grands mod\u00e8les de langage\u00a0\u00bb pour rien).<\/p>\n<p><\/p>\n<div class=\"article-block block--pullout block--right\">\n<blockquote><p>\n\t\t\tLes LLM sont passionnants, mais les d\u00e9velopper et les adopter n\u00e9cessite de surmonter plusieurs obstacles de faisabilit\u00e9.\t\t\t\t\t<\/p><\/blockquote>\n<p>\n\t<\/p><\/div>\n<p>Tout d\u2019abord, le mat\u00e9riel n\u00e9cessaire pour ex\u00e9cuter les mod\u00e8les est co\u00fbteux. La carte graphique H100 de Nvidia, un choix populaire pour les LLM, se vend environ 40 000 $ par puce sur le march\u00e9 secondaire. Une source estime qu\u2019il faudrait environ <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/blog.apnic.net\/2023\/08\/10\/large-language-models-the-hardware-connection\/#:~:text=But%2C%20in%20many%20training%20workloads,it%20needed%2010000%20of%20them.\">6 000 puces<\/a> pour former un LLM comparable \u00e0 ChatGPT-3.5. Cela repr\u00e9sente environ 240 millions de dollars rien que pour les GPU.<\/p>\n<p><\/p>\n<p>Une autre d\u00e9pense importante concerne l\u2019alimentation de ces puces. On estime qu\u2019il faut environ <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/www.washington.edu\/news\/2023\/07\/27\/how-much-energy-does-chatgpt-use\/#:~:text=Overall%2C%20this%20can%20lead%20to%20up%20to%2010%20gigawatt%2Dhour%20(GWh)%20power%20consumption%20to%20train%20a%20single%20large%20language%20model%20like%20ChatGPT%2D3.\">10 gigawattheures (GWh)<\/a> d\u2019\u00e9lectricit\u00e9 pour former un mod\u00e8le, soit la consommation \u00e9lectrique annuelle de 1 000 foyers am\u00e9ricains. Une fois le mod\u00e8le form\u00e9, le co\u00fbt de l\u2019\u00e9lectricit\u00e9 variera mais peut devenir exorbitant. Cette source estime que la consommation \u00e9lectrique pour ex\u00e9cuter ChatGPT-3.5 est d\u2019environ 1 GWh par jour, soit la consommation \u00e9nerg\u00e9tique quotidienne combin\u00e9e de 33 000 foyers.<\/p>\n<p><\/p>\n<p>La consommation d\u2019\u00e9nergie peut \u00e9galement \u00eatre un obstacle potentiel pour l\u2019exp\u00e9rience utilisateur lors de l\u2019ex\u00e9cution de LLM sur des appareils portables. En effet, une utilisation intensive de l\u2019appareil peut rapidement vider sa batterie, ce qui constituerait un obstacle majeur \u00e0 l\u2019adoption par les consommateurs.<\/p>\n<h2>Les d\u00e9fis de formation et de d\u00e9ploiement d\u2019un LLM<\/h2>\n<p><\/p>\n<p>Les LLM sont des mod\u00e8les de langage de grande envergure qui ont \u00e9t\u00e9 lanc\u00e9s avec le lancement de ChatGPT. En plus des offres d\u2019OpenAI, on trouve d\u2019autres LLM comme la famille LaMDA de Google (y compris Bard), le projet BLOOM (une collaboration entre des groupes de Microsoft, Nvidia et d\u2019autres organisations), LLaMA de Meta et Claude d\u2019Anthropic.<\/p>\n<p><\/p>\n<p>Il en sera sans aucun doute cr\u00e9\u00e9 d\u2019autres. En fait, une enqu\u00eate d\u2019Arize r\u00e9alis\u00e9e en <a rel=\"nofollow noopener\" target=\"_blank\" href=\"https:\/\/arize.com\/blog\/survey-massive-retooling-around-large-language-models-underway\/#:~:text=Over%20half%20(53.3%25)%20of%20say%20they%20plan%20to%20deploy%20large%20language%20model%20(LLM)%20applications%20into%20production%20in%20the%20next%2012%20months%20or%20%E2%80%9Cas%20soon%20as%20possible%E2%80%9D\">avril 2023<\/a> a r\u00e9v\u00e9l\u00e9 que 53 % des personnes interrog\u00e9es pr\u00e9voyaient de d\u00e9ployer des LLM dans l\u2019ann\u00e9e \u00e0 venir, voire plus t\u00f4t. Une approche pour y parvenir consiste \u00e0 cr\u00e9er un LLM \u00ab\u00a0vertical\u00a0\u00bb qui part d\u2019un LLM existant et le r\u00e9entra\u00eene soigneusement sur des connaissances sp\u00e9cifiques \u00e0 un domaine particulier. Cette tactique peut fonctionner pour les sciences de la vie, les produits pharmaceutiques, l\u2019assurance, la finance et d\u2019autres secteurs d\u2019activit\u00e9.<\/p>\n<p><\/p>\n<p>D\u00e9ployer un LLM peut offrir un avantage concurrentiel puissant, \u00e0 condition que cela soit bien fait.<\/p>\n<p><\/p>\n<p>Les LLM ont d\u00e9j\u00e0 pos\u00e9 des probl\u00e8mes m\u00e9diatis\u00e9s, tels que leur tendance \u00e0 \u00ab\u00a0halluciner\u00a0\u00bb des informations incorrectes. C\u2019est un probl\u00e8me grave qui peut distraire les dirigeants des probl\u00e8mes essentiels li\u00e9s aux processus qui g\u00e9n\u00e8rent ces sorties, ce qui peut \u00eatre tout aussi probl\u00e9matique.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":12505,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-9440","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts\/9440","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/comments?post=9440"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts\/9440\/revisions"}],"predecessor-version":[{"id":9441,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/posts\/9440\/revisions\/9441"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/media\/12505"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/media?parent=9440"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/categories?post=9440"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/fr_be\/wp-json\/wp\/v2\/tags?post=9440"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}