How to „AI“ - LLMs als Gebrauchsgegenstand
Manche Software ist sehr teuer, manche ist billig und andere ist kostenlos. Und manche Arten von Software kosteten im Jahr 2005 noch bis zu mehrere Millionen und sind jetzt völlig umsonst zu haben.
Enterprise Search hat diese Reise hinter sich. Am Anfang war die schiere Leistung, ein skalierbares System hinzustellen, in das man Daten stopfen und aus dem man sie idealerweise auch wieder herausholen konnte, den Kunden Hunderttausende Euros wert. Und nochmal Zehntausende an Professional Services, damit das Ganze auch wirklich (manchmal) läuft.
Solr, OpenSearch und Vespa sind heute (und schon seit langem) im eigentlichen Sinne kostenlos und können das Gleiche oder mehr.
Verdient man deshalb kein Geld mehr mit Suche? Im Gegenteil, aber die Schwerpunkte haben sich drastisch verschoben. Kundenspezifische Anpassungen, Skalierung des Systems in heterogenen Umgebungen oder pfiffige Lösungen für Geschäftsprobleme stehen im Vordergrund und werden bezahlt. Die Entwicklung der Kernsoftware obliegt der Open Source Community.
Die Moral von der Geschichte: Die eigentliche Software ist (fast) nie auf Dauer ein Umsatzbringer, außer sie erschafft sich ein Quasi-Monopol. Forschung, Open Source, disruptive Konkurrenten, all das bringt früher oder später solche Lizenzmodelle zum Kollabieren.
Genauso sollte man auch schon heute weise darauf verzichten, ein Geschäftsmodell darauf zu bauen, dass man sich darauf versteht, LLMs (also Large Language Models) zu benutzen. Ein API-Wrapper um ChatGPT oder ein Service, der in Wirklichkeit nur Vicuna prompted, kann nicht lange Bestand haben. Selbst das wunderbarste LLM der Welt zu besitzen und gegen Geld verfügbar zu machen, ist vermutlich auf Dauer kein tragbares Geschäftsmodell. Zu groß ist die Konkurrenz verschiedener Modelle, von denen immer mehr frei verfügbar oder zumindest günstig zu benutzen sind.
Offensichtlich stört das die Infrastrukturanbieter wie Microsoft und Amazon eher wenig, sie können mit überteuerten GPU-Instanzen so oder so ordentlich Geld verdienen.
Aber wie kann man im Bereich generativer AI dauerhafte und einzigartige Mehrwerte schaffen?
Ich behaupte, das funktioniert ganz ähnlich wie bei Suchmaschinen, Dokumentenverwaltungssystemen und anderer Enterprise Software: Der Mehrwert kommt aus dem Wissen und den Daten, die die Nutzer der Software zur Verfügung stellen und der Art, wie man als Dienstleister damit umgeht.
Meine Top 4 Zutaten für einzigartige Lösungen, die auch in 5 Jahren noch ihr Geld wert sind:
- Technisches Verständnis
Ja, man muss wissen, was man tut, wie man die entsprechenden Technologien benutzt, anpasst, ausrollt. Schon daran hapert es in Bezug auf LLMs gerade bei denen, die auf LinkedIn am lautesten sind. - Problemverständnis
Was ist das Problem, das wir lösen? Welcher Geschäftsprozess wird verbessert? Wie spart der Kunde Geld oder wie macht er Geld? Nicht das Problem zur Technologie suchen, sondern die Technologie zum Problem, ist hierbei die Devise. - Die richtigen Daten in der richtigen Form
„Daten sind das neue Öl." Das stimmt schon auch insofern als Daten der Antrieb und das Schmiermittel solcher Technologien sind. Mit welchen Daten kann man ein LLM finetunen, damit es zum Experten für europäischen Regularien wird? Was sind die besten Textabschnitte für Beispielprompts? All diese Schätze sind beim Kunden vorhanden und müssen in die richtige Form gebracht werden, damit die LLM-Technologie davon profitieren kann. - Nutzerinteraktionen
Eine große Chance von Machine-Learning-Algorithmen im Allgemeinen liegt darin, dass man Feedback-Schleifen zum Nutzer bauen kann. Eine Antwort gefällt dem Nutzer nicht? Sein „Daumen runter“ kann direkt zum Negativbeispiel für das nächste Finetuning werden. Ein Nutzer editiert die Ausgabe des LLM noch etwas? Prima, schon haben wir ein Positivbeispiel oder eine Erweiterung für den Prompt.
In „Dienstleisterkreisen“ wird gern und viel von „Innovation mit dem Kunden“ geredet. Diese Integration von technischem Sachverstand mit Datenschatz und Prozessverständnis des Kunden ist, wie wir das bei NEOMO verstehen.