How to „AI“ - LLMs als Gebrauchs­gegenstand

Johannes Stiehler
Arbiträre Ausbrüche
#Projektdurchführung
#LargeLanguageModels
#Produktentwicklung
Cover Image for How to „AI“ - LLMs als Gebrauchs­gegenstand

Manche Software ist sehr teuer, manche ist billig und andere ist kostenlos. Und manche Arten von Software kosteten im Jahr 2005 noch bis zu mehrere Millionen und sind jetzt völlig umsonst zu haben.

Enterprise Search hat diese Reise hinter sich. Am Anfang war die schiere Leistung, ein skalierbares System hinzustellen, in das man Daten stopfen und aus dem man sie idealerweise auch wieder herausholen konnte, den Kunden Hunderttausende Euros wert. Und nochmal Zehntausende an Professional Services, damit das Ganze auch wirklich (manchmal) läuft.

Solr, OpenSearch und Vespa sind heute (und schon seit langem) im eigentlichen Sinne kostenlos und können das Gleiche oder mehr.

Verdient man deshalb kein Geld mehr mit Suche? Im Gegenteil, aber die Schwerpunkte haben sich drastisch verschoben. Kundenspezifische Anpassungen, Skalierung des Systems in heterogenen Umgebungen oder pfiffige Lösungen für Geschäftsprobleme stehen im Vordergrund und werden bezahlt. Die Entwicklung der Kernsoftware obliegt der Open Source Community.

Die Moral von der Geschichte: Die eigentliche Software ist (fast) nie auf Dauer ein Umsatzbringer, außer sie erschafft sich ein Quasi-Monopol. Forschung, Open Source, disruptive Konkurrenten, all das bringt früher oder später solche Lizenzmodelle zum Kollabieren.

Genauso sollte man auch schon heute weise darauf verzichten, ein Geschäftsmodell darauf zu bauen, dass man sich darauf versteht, LLMs (also Large Language Models) zu benutzen. Ein API-Wrapper um ChatGPT oder ein Service, der in Wirklichkeit nur Vicuna prompted, kann nicht lange Bestand haben. Selbst das wunderbarste LLM der Welt zu besitzen und gegen Geld verfügbar zu machen, ist vermutlich auf Dauer kein tragbares Geschäftsmodell. Zu groß ist die Konkurrenz verschiedener Modelle, von denen immer mehr frei verfügbar oder zumindest günstig zu benutzen sind.

Offensichtlich stört das die Infrastrukturanbieter wie Microsoft und Amazon eher wenig, sie können mit überteuerten GPU-Instanzen so oder so ordentlich Geld verdienen.
Aber wie kann man im Bereich generativer AI dauerhafte und einzigartige Mehrwerte schaffen?

Ich behaupte, das funktioniert ganz ähnlich wie bei Suchmaschinen, Dokumentenverwaltungssystemen und anderer Enterprise Software: Der Mehrwert kommt aus dem Wissen und den Daten, die die Nutzer der Software zur Verfügung stellen und der Art, wie man als Dienstleister damit umgeht.

Meine Top 4 Zutaten für einzigartige Lösungen, die auch in 5 Jahren noch ihr Geld wert sind:

  1. Technisches Verständnis
    Ja, man muss wissen, was man tut, wie man die entsprechenden Technologien benutzt, anpasst, ausrollt. Schon daran hapert es in Bezug auf LLMs gerade bei denen, die auf LinkedIn am lautesten sind.
  2. Problemverständnis
    Was ist das Problem, das wir lösen? Welcher Geschäftsprozess wird verbessert? Wie spart der Kunde Geld oder wie macht er Geld? Nicht das Problem zur Technologie suchen, sondern die Technologie zum Problem, ist hierbei die Devise.
  3. Die richtigen Daten in der richtigen Form
    „Daten sind das neue Öl." Das stimmt schon auch insofern als Daten der Antrieb und das Schmiermittel solcher Technologien sind. Mit welchen Daten kann man ein LLM finetunen, damit es zum Experten für europäischen Regularien wird? Was sind die besten Textabschnitte für Beispielprompts? All diese Schätze sind beim Kunden vorhanden und müssen in die richtige Form gebracht werden, damit die LLM-Technologie davon profitieren kann.
  4. Nutzerinteraktionen
    Eine große Chance von Machine-Learning-Algorithmen im Allgemeinen liegt darin, dass man Feedback-Schleifen zum Nutzer bauen kann. Eine Antwort gefällt dem Nutzer nicht? Sein „Daumen runter“ kann direkt zum Negativbeispiel für das nächste Finetuning werden. Ein Nutzer editiert die Ausgabe des LLM noch etwas? Prima, schon haben wir ein Positivbeispiel oder eine Erweiterung für den Prompt.

In „Dienstleisterkreisen“ wird gern und viel von „Innovation mit dem Kunden“ geredet. Diese Integration von technischem Sachverstand mit Datenschatz und Prozessverständnis des Kunden ist, wie wir das bei NEOMO verstehen.

Johannes Stiehler
CO-Founder NEOMO GmbH
Johannes hat während seiner gesamten Laufbahn an Softwarelösungen gearbeitet, die Textinformationen verarbeiten, anreichern und kontextabhängig anzeigen.

Wir haben noch mehr zu bieten!

Unseren Newsletter abonnieren

Wenn Sie sich vom Twitter- und LinkedIn-Wahnsinn abkoppeln, aber trotzdem unsere Inhalte lesen möchten, freuen wir uns und haben genau das richtige für Sie: Unser Newsletter hält Sie über alles Wissenswerte auf dem Laufenden.

Bitte benutzen Sie das untenstehende Formular, um ihn zu abonnieren.

NEOMO verpflichtet sich, Ihre Privatsphäre zu schützen und zu respektieren und Ihre persönlichen Daten nur dazu verwenden, Ihr Konto zu verwalten und die von Ihnen angeforderten Informationen bereitzustellen. Um Ihnen die gewünschten Inhalte zur Verfügung stellen zu können, müssen wir Ihre personenbezogenen Daten speichern und verarbeiten.

Folgen Sie uns für Einblicke, Ausblicke und Durchblicke.

Wann immer neue Inhalte verfügbar sind oder etwas Bemerkenswertes in der Branche passiert - wir halten Sie auf dem Laufenden.

Folgen Sie uns auf LinkedIn und Twitter, um Neuigkeiten zu erfahren, und auf YouTube für bewegte Bilder.

Teilen, wenn's gefällt

Wenn Ihnen unser Beitrag gefällt, helfen Sie uns bitte, ihn zu verteilen, indem Sie Ihr eigenes Netzwerk aktivieren.

Weitere Blogartikel

Image

"Digitale Wissensbissen": Die Zukunft der Datenanalyse – Ein Gespräch mit Christian Schömmer

Data Warehouse, Data Lake, Data Lakehouse - die Begriffe eskalieren stetig. Aber was brauche ich wirklich für welchen Zweck? Reicht meine alte (und teure) Datenbank oder würde ein "Data Lakehouse" mein Geschäft so richtig weiterbringen? Gerade in der Kombination mit Generativer KI sind die Möglichkeiten so vielfältig wie verwirrend. Gemeinsam mit Christian Schömmer setzen wir uns vors Datenhaus am See und gehen der Sache auf den Grund.

Image

"Digitale Wissensbissen": Generative KI in geschäftskritischen Prozessen

Nach der etwas kritischen Sicht auf generative KI in der letzten Episode geht es diesmal um den konkreten Einsatz: Kann man generative KI schon in Geschäftsprozessen integrieren und wenn ja, wie geht das genau. Es stellt sich heraus: Wenn man zwei oder drei Grundregeln beachtet, treten die meisten der Probleme in den Hintergrund und die coolen Möglichkeiten generative KI kommen relativ risikofrei zur Geltung. Wir gehen sehr konkret darauf ein, wie wir eine Compliance-Anwendung gebaut haben, die maximal von Large Language Models profitiert, ohne auf menschliche Kontrolle und "Accountability" zu verzichten.

Image

Bleeding Edge - Fluch oder Segen?

Wir setzen auf modernste Technologien, um Unternehmen durch innovative Lösungen voranzubringen. Daher gehen wir in Gesprächen mit Kunden und Partnern oder unseren Webinaren immer wieder darauf ein, Unternehmen die Vorteile und Möglichkeiten moderner Technologien nahezubringen. Aber auch für uns selbst kommt KI zum Einsatz: Durch die Automatisierung von Ausschreibungsprozessen konnten wir wertvolle Ressourcen sparen und Effizienz steigern.