{"id":5639,"date":"2023-09-10T19:19:13","date_gmt":"2023-09-10T17:19:13","guid":{"rendered":"https:\/\/toukiela.com\/decouvrez-comment-imbue-leve-200-millions-de-dollars-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/"},"modified":"2023-09-10T19:19:14","modified_gmt":"2023-09-10T17:19:14","slug":"decouvrez-comment-imbue-leve-200-millions-de-dollars-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste","status":"publish","type":"post","link":"https:\/\/toukiela.com\/de\/decouvrir-comment-imbue-leve-200-million-de-dollars-pass-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/","title":{"rendered":"Erfahren Sie, wie Imbue 200 Millionen US-Dollar aufbringt, um KI-Modelle zu entwickeln, die \"robust argumentieren\" k\u00f6nnen!"},"content":{"rendered":"<p><em><\/em><\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Inhaltsverzeichnis<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f1fb934e8b0\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewbox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewbox=\"0 0 24 24\" version=\"1.2\" baseprofile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f1fb934e8b0\"  aria-label=\"Toggle\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/toukiela.com\/de\/decouvrir-comment-imbue-leve-200-million-de-dollars-pass-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/#Imbue_le_laboratoire_de_recherche_en_IA_anciennement_connu_sous_le_nom_de_Generally_Intelligent_a_leve_200_millions_de_dollars_lors_dun_tour_de_financement_de_serie_B_qui_valorise_la_societe_a_plus_de_1_milliard_de_dollars_Parmi_les_participants_figurent_lAstera_Institute_Nvidia_le_PDG_de_Cruise_Kyle_Vogt_et_le_co-fondateur_de_Notion_Simon_Last\" >Imbue, das KI-Forschungslabor, das fr\u00fcher unter dem Namen Generally Intelligent bekannt war, hat in einer Finanzierungsrunde der Serie B 200 Millionen US-Dollar aufgebracht, wodurch das Unternehmen mit \u00fcber 1 Milliarde US-Dollar bewertet wird. Zu den Teilnehmern geh\u00f6ren das Astera Institute, Nvidia, der CEO von Cruise Kyle Vogt und der Mitbegr\u00fcnder von Notion Simon Last.<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/toukiela.com\/de\/decouvrir-comment-imbue-leve-200-million-de-dollars-pass-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/#La_nouvelle_approche_dImbue\" >Imbues neuer Ansatz<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/toukiela.com\/de\/decouvrir-comment-imbue-leve-200-million-de-dollars-pass-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/#Le_raisonnement_robuste_comme_principal_obstacle\" >Robustes Denken als gr\u00f6\u00dftes Hindernis<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/toukiela.com\/de\/decouvrir-comment-imbue-leve-200-million-de-dollars-pass-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/#Une_formation_avec_des_modeles_tres_larges\" >Eine Ausbildung mit sehr breiten Vorlagen<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/toukiela.com\/de\/decouvrir-comment-imbue-leve-200-million-de-dollars-pass-pour-creer-des-modeles-dia-capables-de-raisonner-de-maniere-robuste\/#Une_vision_orientee_vers_lavenir\" >Eine zukunftsorientierte Vision<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Imbue_le_laboratoire_de_recherche_en_IA_anciennement_connu_sous_le_nom_de_Generally_Intelligent_a_leve_200_millions_de_dollars_lors_dun_tour_de_financement_de_serie_B_qui_valorise_la_societe_a_plus_de_1_milliard_de_dollars_Parmi_les_participants_figurent_lAstera_Institute_Nvidia_le_PDG_de_Cruise_Kyle_Vogt_et_le_co-fondateur_de_Notion_Simon_Last\"><\/span>Imbue, das KI-Forschungslabor, das fr\u00fcher unter dem Namen Generally Intelligent bekannt war, hat in einer Finanzierungsrunde der Serie B 200 Millionen US-Dollar aufgebracht, wodurch das Unternehmen mit \u00fcber 1 Milliarde US-Dollar bewertet wird. Zu den Teilnehmern geh\u00f6ren das Astera Institute, Nvidia, der CEO von Cruise Kyle Vogt und der Mitbegr\u00fcnder von Notion Simon Last.<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Mit der neuen Tranche erh\u00f6ht sich das von Imbue eingeworbene Gesamtkapital auf 220 Millionen US-Dollar, was es zu einem der am besten finanzierten KI-Startups der letzten Monate macht. Es liegt nur geringf\u00fcgig vor AI21 Labs (283 Millionen US-Dollar), einem Unternehmen mit Sitz in Tel Aviv, das eine Reihe von generativen KI-Tools entwickelt, sowie vor generativen KI-Anbietern wie Cohere (445 Millionen US-Dollar) und Adept (415 Millionen US-Dollar).<\/p>\n<h2><span class=\"ez-toc-section\" id=\"La_nouvelle_approche_dImbue\"><\/span>Imbues neuer Ansatz<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>\"Diese neueste Finanzierung wird unsere Entwicklung von KI-Systemen beschleunigen, die logisch denken und kodieren k\u00f6nnen, damit sie uns helfen k\u00f6nnen, gr\u00f6\u00dfere Ziele in der Welt zu erreichen\", schrieb Imbue in einem Blogbeitrag, der heute Morgen ver\u00f6ffentlicht wurde. \"Unser Ziel bleibt dasselbe: praktische KI-Agenten zu bauen, die in der Lage sind, gr\u00f6\u00dfere Ziele zu erreichen und in der realen Welt sicher f\u00fcr uns zu arbeiten.\"<\/p>\n<p>Imbue wurde im Oktober letzten Jahres mit einem ehrgeizigen Ziel ins Leben gerufen: Er sollte nach den Grundlagen der menschlichen Intelligenz suchen, die Maschinen noch nicht haben. Sein Plan, wie er Toukiela damals vorgestellt wurde, bestand darin, diese \"Grundlagen\" in eine Reihe von zu l\u00f6senden Aufgaben umzuwandeln, verschiedene KI-Modelle zu entwerfen und ihre F\u00e4higkeit zu testen, zu lernen, wie man diese Aufgaben in komplexen, vom Imbue-Team erstellten 3D-Welten l\u00f6st.<\/p>\n<p>Allerdings scheint sich der Ansatz des Unternehmens seitdem etwas ge\u00e4ndert zu haben. Anstatt die KI in 3D-Welten zu entlassen, entwickelt Imbue nach eigenen Angaben Modelle, die sie f\u00fcr den Anfang als \"intern n\u00fctzlich\" erachtet, darunter auch Modelle, die codieren k\u00f6nnen (\u00e0 la GitHub Copilot und Amazon CodeWhisperer).<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Le_raisonnement_robuste_comme_principal_obstacle\"><\/span>Robustes Denken als gr\u00f6\u00dftes Hindernis<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Viele Modelle k\u00f6nnen codieren. Aber was die von Imbue auszeichnet, ist ihre F\u00e4higkeit, \"robust zu argumentieren\", sagt das Unternehmen.<\/p>\n<p>\"Wir glauben, dass die Argumentation das Haupthindernis f\u00fcr effektive KI-Agenten ist\", schreibt Imbue in dem Blogbeitrag. \"Robuste Argumentation ist f\u00fcr effektives Handeln notwendig. Es beinhaltet die F\u00e4higkeit, mit Unsicherheit umzugehen, zu wissen, wann wir unseren Ansatz \u00e4ndern m\u00fcssen, Fragen zu stellen und neue Informationen zu sammeln, Szenarien durchzuspielen und Entscheidungen zu treffen, Hypothesen aufzustellen und zu verwerfen und generell mit der komplizierten und schwer vorhersehbaren Natur der realen Welt umzugehen.\"<\/p>\n<p>Imbue ist auch davon \u00fcberzeugt, dass der Code ein wichtiger Anwendungsfall ist, der \u00fcber seine F\u00e4higkeit hinausgeht, ihrem Team die Entwicklung von KI-Anwendungen im gro\u00dfen Ma\u00dfstab zu erm\u00f6glichen. In dem Blogbeitrag behauptet das Unternehmen, dass Code das Denken verbessern kann und eine der effektivsten M\u00f6glichkeiten f\u00fcr Modelle ist, um auf einer Maschine zur Tat zu schreiten.<\/p>\n<p>\"Ein Agent, der eine SQL-Abfrage schreibt, um Informationen aus einer Tabelle zu extrahieren, erf\u00fcllt mit viel gr\u00f6\u00dferer Wahrscheinlichkeit eine Benutzeranfrage als ein Agent, der versucht, die gleichen Informationen ohne Verwendung von Code zusammenzustellen\", schreibt das Unternehmen. \"Au\u00dferdem hilft das Training mit Code den Modellen, besser argumentieren zu lernen; das Training ohne Code scheint Modelle hervorzubringen, die schlecht argumentieren.\"<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Une_formation_avec_des_modeles_tres_larges\"><\/span>Eine Ausbildung mit sehr breiten Vorlagen<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Imbue trainiert \"sehr gro\u00dfe\" Modelle - Modelle mit mehr als 100 Milliarden Parametern -, die so optimiert sind, dass sie auf ihren internen Benchmarks f\u00fcr das Schlussfolgern gut abschneiden. Dieses Training wird auf einem von Nvidia mitentwickelten Rechencluster durchgef\u00fchrt, der 10 000 Grafikprozessoren der H100-Serie von Nvidia enth\u00e4lt.<\/p>\n<p>Imbue investiert auch in den Aufbau ihrer eigenen KI- und maschinellen Lernwerkzeuge, z. B. KI-Prototypen zum Debuggen und visuelle Schnittstellen \u00fcber KI-Modellen. Und sie betreibt Forschung, um den Lernprozess in gro\u00dfen Sprachmodellen zu verstehen.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Une_vision_orientee_vers_lavenir\"><\/span>Eine zukunftsorientierte Vision<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Imbue hat nicht vor, einen Gro\u00dfteil dessen, woran sie arbeitet, vorerst in Produktion zu bringen. Stattdessen sieht sie diese Werkzeuge und Modelle als Mittel, um die zuk\u00fcnftige, generalistischere KI zu verbessern und den Grundstein f\u00fcr eine Plattform zu legen, die die Menschen nutzen k\u00f6nnen, um ihre eigenen personalisierten Modelle zu erstellen.<\/p>\n<p>\"Wenn wir KI-Agenten bauen, bauen wir in Wirklichkeit Computer, die unsere Ziele verstehen, proaktiv kommunizieren und im Hintergrund f\u00fcr uns arbeiten k\u00f6nnen\", fuhr Imbue in dem Blogbeitrag fort. \"Letztendlich hoffen wir, dass wir Systeme einrichten k\u00f6nnen, die es jedem erm\u00f6glichen, robuste und personalisierte KI-Agenten zu bauen, wodurch die produktive Kraft der KI f\u00fcr jeden zug\u00e4nglich wird... Diese neueste Finanzierung wird unsere Entwicklung von KI-Systemen beschleunigen, die logisch denken und kodieren k\u00f6nnen, damit sie uns helfen k\u00f6nnen, gr\u00f6\u00dfere Ziele in der Welt zu erreichen.\"<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":5641,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-5639","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts\/5639","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/comments?post=5639"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts\/5639\/revisions"}],"predecessor-version":[{"id":5640,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts\/5639\/revisions\/5640"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/media\/5641"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/media?parent=5639"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/categories?post=5639"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/tags?post=5639"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}