{"id":6754,"date":"2023-10-12T11:00:17","date_gmt":"2023-10-12T09:00:17","guid":{"rendered":"https:\/\/toukiela.com\/tidalflow-revolutionne-linteraction-entre-tous-les-logiciels-et-chatgpt-pour-une-experience-llm-incroyable\/"},"modified":"2023-10-12T11:00:19","modified_gmt":"2023-10-12T09:00:19","slug":"tidalflow-revolutionne-linteraction-entre-tous-les-logiciels-et-chatgpt-pour-une-experience-llm-incroyable","status":"publish","type":"post","link":"https:\/\/toukiela.com\/de\/tidalflow-revolutioniert-die-interaktion-zwischen-allen-software-und-chatgpt-fur-eine-llm-incredible-experience\/","title":{"rendered":"Tidalflow revolutioniert die Interaktion zwischen s\u00e4mtlicher Software und ChatGPT f\u00fcr ein unglaubliches LLM-Erlebnis!"},"content":{"rendered":"<p><em><\/em><\/p>\n<h2>Die Bedeutung der Konfiguration von Software f\u00fcr das LLM-\u00d6kosystem<\/h2>\n<p>Unternehmen m\u00fcssen ihre Software so konfigurieren, dass sie sich an die Revolution der k\u00fcnstlichen Intelligenz (KI) anpasst, bei der gro\u00dfe Sprachmodelle (Large Language Models, LLM) zu einer neuen Macht geworden sind, um Text in nat\u00fcrlicher Sprache zu interpretieren und zu generieren. So wie Unternehmen ihre Software f\u00fcr verschiedene Desktop-, Mobil- und Cloud-Betriebssysteme anpassen, m\u00fcssen sie sie auch f\u00fcr das LLM-\u00d6kosystem konfigurieren.<\/p>\n<p>Das Problem besteht jedoch darin, dass die Unternehmen sicherstellen m\u00fcssen, dass das LLM-\u00d6kosystem ihre Software richtig nutzen kann, und dass sie gen\u00fcgend Einblick in die tats\u00e4chliche Funktionsweise haben m\u00fcssen. Genau das will Tidalflow mit seiner umfassenden Plattform l\u00f6sen, die es Entwicklern erm\u00f6glicht, ihre bestehende Software in das LLM-\u00d6kosystem zu integrieren. Das Startup geht heute mit einer Finanzierung in H\u00f6he von 1,7 Millionen US-Dollar aus der Diskretionsphase hervor, die von Googles Gradient Ventures und Dig Ventures, einer von Ross Mason, dem Gr\u00fcnder von MuleSoft, gegr\u00fcndeten Risikokapitalgesellschaft, unter Beteiligung von Antler gemeinsam geleitet wird.<\/p>\n<h2>Vertrauen in die Ergebnisse der LLM<\/h2>\n<p>Nehmen wir ein hypothetisches Beispiel: Eine Online-Reiseplattform beschlie\u00dft, LLM-aktivierte Chatbots wie ChatGPT und Bard von Google zu verwenden, mit denen Kunden Flugpreise anfragen und Tickets buchen k\u00f6nnen, indem sie Anweisungen in nat\u00fcrlicher Sprache in einer Suchmaschine verwenden. Das Unternehmen erstellt also f\u00fcr jeden dieser Chatbots eine LLM-Instanz, wei\u00df aber nicht, ob 2% der ChatGPT-Ergebnisse ein anderes Reiseziel als das vom Kunden gew\u00fcnschte liefern - eine Fehlerquote, die bei Bard noch h\u00f6her sein k\u00f6nnte. Mit anderen Worten: Es ist unm\u00f6glich, mit Sicherheit zu wissen, ob die Ergebnisse richtig oder falsch sind.<\/p>\n<p>Wenn ein Unternehmen eine Ausfallrate von weniger als 1% toleriert, m\u00f6chte es vielleicht lieber keine generative KI einsetzen, bis es einen besseren Einblick in die Leistung seiner LLM-Instanz hat. Hier setzt Tidalflow an und bietet Module an, die Unternehmen dabei helfen, ihre LLM-Instanz nicht nur zu erstellen, sondern auch zu testen, einzusetzen, zu \u00fcberwachen, zu sichern und m\u00f6glicherweise zu monetarisieren. Sie k\u00f6nnen auch die LLM-Instanz ihres Produkts f\u00fcr jedes \u00d6kosystem in einer lokalen simulierten Umgebung verfeinern, bis sie eine L\u00f6sung gefunden haben, die ihre Fehlertoleranzschwelle einh\u00e4lt.<\/p>\n<p>\"Das gro\u00dfe Problem ist, dass man, wenn man etwas wie ChatGPT einf\u00fchrt, nicht wirklich wei\u00df, wie die Nutzer damit interagieren\", erkl\u00e4rt Sebastian Jorna, Gesch\u00e4ftsf\u00fchrer von Tidalflow. \"Dieser Mangel an Vertrauen in die Zuverl\u00e4ssigkeit ihrer Software ist ein gro\u00dfes Hindernis f\u00fcr den Einsatz von Softwaretools in LLM-\u00d6kosystemen. Das Test- und Simulationsmodul von Tidalflow st\u00e4rkt dieses Vertrauen.\"<\/p>\n<p>Zusammenfassend l\u00e4sst sich sagen, dass Unternehmen mit Tidalflow viele Sonderf\u00e4lle testen k\u00f6nnen, die ihre neue generative KI m\u00f6glicherweise st\u00f6ren k\u00f6nnten. Dies ist vor allem f\u00fcr gro\u00dfe Unternehmen wichtig, wo das Risiko, die Zuverl\u00e4ssigkeit der Software zu gef\u00e4hrden, einfach zu gro\u00df ist.<\/p>\n<h2>Von der Gr\u00fcndung bis zur Finanzierung<\/h2>\n<p>Tidalflow ist erst drei Monate alt, aber die Gr\u00fcnder, Sebastian Jorna (CEO) und Coen Stevens (CTO), haben sich \u00fcber Antlers Entrepreneur-in-Residence-Programm in Amsterdam kennengelernt. \"Nachdem das offizielle Programm diesen Sommer gestartet war, wurde Tidalflow zum am schnellsten finanzierten Unternehmen in der Geschichte von Antler in den Niederlanden\", sagt Jorna.<\/p>\n<p>Heute besteht Tidalflow aus einem Team von drei Personen, darunter die beiden Mitbegr\u00fcnder und Henry Wynaendts, Produktmanager. Mit einer frischen Finanzierung von 1,7 Millionen US-Dollar sucht das Unternehmen laut Jorna nun aktiv nach neuen Mitarbeitern f\u00fcr verschiedene Positionen im Front- und Back-End-Engineering, um sich auf eine vollst\u00e4ndige Markteinf\u00fchrung vorzubereiten.<\/p>\n<p>Diese Beschleunigung von der Gr\u00fcndung bis zur Finanzierung ist bezeichnend f\u00fcr den derzeitigen Run auf generative KI. Mit der ChatGPT-API und der Unterst\u00fctzung f\u00fcr Plug-ins von Drittanbietern bereitet sich Google darauf vor, dasselbe f\u00fcr das Bard-\u00d6kosystem zu tun, und Microsoft integriert seinen KI-Assistenten Copilot in Microsoft 365. Unternehmen und Entwickler haben somit eine gro\u00dfe Chance, generative KI nicht nur f\u00fcr ihre eigenen Produkte zu nutzen, sondern auch eine gro\u00dfe Anzahl von Nutzern in diesem Prozess zu erreichen.<\/p>\n<p>\"So wie das iPhone 2007 eine neue \u00c4ra f\u00fcr mobiltaugliche Software eingel\u00e4utet hat, sind wir jetzt an einem \u00e4hnlichen Punkt, an dem Software mit LLMs kompatibel werden muss\", stellt Jorna fest.<\/p>\n<p>Tidalflow wird vorerst in einer geschlossenen Beta-Version bleiben, mit Pl\u00e4nen f\u00fcr eine \u00f6ffentliche kommerzielle Einf\u00fchrung bis Ende 2023.<\/p>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":12535,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[608],"tags":[],"class_list":["post-6754","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite-intelligence-artificielle","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50"],"_links":{"self":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts\/6754","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/comments?post=6754"}],"version-history":[{"count":1,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts\/6754\/revisions"}],"predecessor-version":[{"id":6755,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/posts\/6754\/revisions\/6755"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/media\/12535"}],"wp:attachment":[{"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/media?parent=6754"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/categories?post=6754"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/toukiela.com\/de\/wp-json\/wp\/v2\/tags?post=6754"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}