Die Bedeutung der Konfiguration von Software für das LLM-Ökosystem
Unternehmen müssen ihre Software so konfigurieren, dass sie sich an die Revolution der künstlichen Intelligenz (KI) anpasst, bei der große Sprachmodelle (Large Language Models, LLM) zu einer neuen Macht geworden sind, um Text in natürlicher Sprache zu interpretieren und zu generieren. So wie Unternehmen ihre Software für verschiedene Desktop-, Mobil- und Cloud-Betriebssysteme anpassen, müssen sie sie auch für das LLM-Ökosystem konfigurieren.
Das Problem besteht jedoch darin, dass die Unternehmen sicherstellen müssen, dass das LLM-Ökosystem ihre Software richtig nutzen kann, und dass sie genügend Einblick in die tatsächliche Funktionsweise haben müssen. Genau das will Tidalflow mit seiner umfassenden Plattform lösen, die es Entwicklern ermöglicht, ihre bestehende Software in das LLM-Ökosystem zu integrieren. Das Startup geht heute mit einer Finanzierung in Höhe von 1,7 Millionen US-Dollar aus der Diskretionsphase hervor, die von Googles Gradient Ventures und Dig Ventures, einer von Ross Mason, dem Gründer von MuleSoft, gegründeten Risikokapitalgesellschaft, unter Beteiligung von Antler gemeinsam geleitet wird.
Vertrauen in die Ergebnisse der LLM
Nehmen wir ein hypothetisches Beispiel: Eine Online-Reiseplattform beschließt, LLM-aktivierte Chatbots wie ChatGPT und Bard von Google zu verwenden, mit denen Kunden Flugpreise anfragen und Tickets buchen können, indem sie Anweisungen in natürlicher Sprache in einer Suchmaschine verwenden. Das Unternehmen erstellt also für jeden dieser Chatbots eine LLM-Instanz, weiß aber nicht, ob 2% der ChatGPT-Ergebnisse ein anderes Reiseziel als das vom Kunden gewünschte liefern - eine Fehlerquote, die bei Bard noch höher sein könnte. Mit anderen Worten: Es ist unmöglich, mit Sicherheit zu wissen, ob die Ergebnisse richtig oder falsch sind.
Wenn ein Unternehmen eine Ausfallrate von weniger als 1% toleriert, möchte es vielleicht lieber keine generative KI einsetzen, bis es einen besseren Einblick in die Leistung seiner LLM-Instanz hat. Hier setzt Tidalflow an und bietet Module an, die Unternehmen dabei helfen, ihre LLM-Instanz nicht nur zu erstellen, sondern auch zu testen, einzusetzen, zu überwachen, zu sichern und möglicherweise zu monetarisieren. Sie können auch die LLM-Instanz ihres Produkts für jedes Ökosystem in einer lokalen simulierten Umgebung verfeinern, bis sie eine Lösung gefunden haben, die ihre Fehlertoleranzschwelle einhält.
"Das große Problem ist, dass man, wenn man etwas wie ChatGPT einführt, nicht wirklich weiß, wie die Nutzer damit interagieren", erklärt Sebastian Jorna, Geschäftsführer von Tidalflow. "Dieser Mangel an Vertrauen in die Zuverlässigkeit ihrer Software ist ein großes Hindernis für den Einsatz von Softwaretools in LLM-Ökosystemen. Das Test- und Simulationsmodul von Tidalflow stärkt dieses Vertrauen."
Zusammenfassend lässt sich sagen, dass Unternehmen mit Tidalflow viele Sonderfälle testen können, die ihre neue generative KI möglicherweise stören könnten. Dies ist vor allem für große Unternehmen wichtig, wo das Risiko, die Zuverlässigkeit der Software zu gefährden, einfach zu groß ist.
Von der Gründung bis zur Finanzierung
Tidalflow ist erst drei Monate alt, aber die Gründer, Sebastian Jorna (CEO) und Coen Stevens (CTO), haben sich über Antlers Entrepreneur-in-Residence-Programm in Amsterdam kennengelernt. "Nachdem das offizielle Programm diesen Sommer gestartet war, wurde Tidalflow zum am schnellsten finanzierten Unternehmen in der Geschichte von Antler in den Niederlanden", sagt Jorna.
Heute besteht Tidalflow aus einem Team von drei Personen, darunter die beiden Mitbegründer und Henry Wynaendts, Produktmanager. Mit einer frischen Finanzierung von 1,7 Millionen US-Dollar sucht das Unternehmen laut Jorna nun aktiv nach neuen Mitarbeitern für verschiedene Positionen im Front- und Back-End-Engineering, um sich auf eine vollständige Markteinführung vorzubereiten.
Diese Beschleunigung von der Gründung bis zur Finanzierung ist bezeichnend für den derzeitigen Run auf generative KI. Mit der ChatGPT-API und der Unterstützung für Plug-ins von Drittanbietern bereitet sich Google darauf vor, dasselbe für das Bard-Ökosystem zu tun, und Microsoft integriert seinen KI-Assistenten Copilot in Microsoft 365. Unternehmen und Entwickler haben somit eine große Chance, generative KI nicht nur für ihre eigenen Produkte zu nutzen, sondern auch eine große Anzahl von Nutzern in diesem Prozess zu erreichen.
"So wie das iPhone 2007 eine neue Ära für mobiltaugliche Software eingeläutet hat, sind wir jetzt an einem ähnlichen Punkt, an dem Software mit LLMs kompatibel werden muss", stellt Jorna fest.
Tidalflow wird vorerst in einer geschlossenen Beta-Version bleiben, mit Plänen für eine öffentliche kommerzielle Einführung bis Ende 2023.