Im Moment ist KI wie ein 12-jähriger Kollege
Ist ein Fensterrahmen so nützlich wie ein Pendellampenschirm? Eine saublöde Frage könnte man meinen: Lampen taugen nicht, um Maueröffnungen lichtdurchlässig zu verschließen und Fensterrahmen sind eher unnütz als Dekorationselemente.
Worauf ich hinauswill: Beiden liegt in vielen Fällen die exakt gleiche Technologie zugrunde (Aluminiumdruckguss), mittels derer aber völlig unterschiedliche Produkte für unterschiedliche Einsatzzwecke entstehen. Erst der Zweck macht das Produkt sinnvoll oder unsinnig, die Technologie ist völlig im Hintergrund und den meisten Endanwendern sowohl unbekannt als auch schnuppe.
Sobald es um Software geht, finden diese Prinzipien aber oft keine Anwendung mehr. Sowohl die „Cloud“, die plötzlich losgelöst von allen Zwecken ein Heilsbringer sein sollte als auch „Blockchain“ als auch „Künstliche Intelligenz“ sind Technologien auf der Suche nach einem Anwendungsfall. Das Neue ist, dass man mit ChatGPT ein unspezifisches, nicht an eine Anwendung gebundenes Tool in der Hand hat, mittels dessen diese Technologie fast jedem direkt zugänglich ist.
Aber dabei bleibt es eben: ChatGPT exponiert die „rohe Technologie“ direkt an den Endanwender. Deswegen muss letzterer nun geschult werden: Im Formulieren von Prompts, im Erkennen von Halluzinationen etc.
Das ist OK für ein „Spielzeug“, aber nicht für etwas, das in Geschäftsabläufen eine echte Bedeutung gewinnen soll. Hier gilt nach wie vor: Die Technologie muss im Prozess eingebettet und dem Prozess angepasst werden und nicht unverbunden daneben schweben. Das gilt auch für Large Language Models – obwohl sie aufgrund ihrer „Menschlichkeit“ den Eindruck erwecken, als könnte man sie wie einen Kollegen behandeln und nicht wie ein Tool. Aber in wie vielen Geschäftsbereichen bringt ein Kollege mit den intellektuellen Kapazitäten eines Zwölfjährigen einen großen Mehrwert?
Um im Business-Kontext wirklich nützlich zu sein, muss eine Technologie aufgabenspezifisch angepasst und integriert sein. Ein Kugelschreiber ist ein wunderbares Werkzeug. Man kann einen ganzen Roman mit ihm schreiben, aber ein Spezialprogramm wie „Scrivener“ ist dafür viel besser.
Man kann ein Bild mit ihm malen, aber die meisten Künstler würden doch einen Bleistift, einen Tuschkasten oder Aquarellfarben vorziehen.
Man kann mit ihm sogar Musik machen, indem man ihn auf den Tisch trommelt oder rhythmisch die Mine rausklickt, aber kein Musiker würde einen Kuli ernsthaft als Instrument in Erwägung ziehen - eben weil er dem Zweck nicht angepasst ist.
Bei generativer KI herrscht nach wie vor Goldgräberstimmung: ChatGPT kann jetzt Bilder erzeugen, Essays schreiben, Tabellen analysieren. Nächstes Jahr kann es dann vielleicht auch Musik machen und einen Podcast vollautomatisch befüllen. Aber das macht es immer noch nicht zu einem integrierten und angepassten Werkzeug.
Zurück zum Kugelschreiber: Wird der besser, wenn er größer wird oder wenn er mehr Minen enthält? Bis zu einem gewissen Grad schon: Wenn er mehrere Farben enthält, kann ich bessere Bilder malen, aber es ist immer noch kein Farbkasten und auf keinen Fall kann ich dann einen besseren Roman schreiben.
Und wenn er irgendwann groß genug ist, kann ich ihn auch als Teigrolle verwenden, dann aber ist er für den ursprünglichen Einsatzzweck nicht mehr geeignet. Genau das passiert auch gerade mit diesen Modellen: Mehr Funktionen, mehr Parameter, mehr Trainingsdaten - vielleicht kommt dann am Ende ja etwas ganz neues heraus?
Es ist weder sicher noch auch nur wahrscheinlich, dass die Intensivierung der aktuellen Ansätze wirklich noch irgendwelche fundamentalen Probleme mit generativen Modellen (Halluzinationen! Geschwindigkeit!) löst. Geschweige denn, dass dann irgendwann „Artificial General Intelligence“ rauskommt.
Viel wichtiger wäre es, den Hype ein bisschen abklingen zu lassen und - wie bei anderen Technologien auch – vom Geschäftsprozess her zu schauen: Welche Prozesse kann ich durch (generative) KI besser, schneller, skalierbarer machen? Welche Eigenschaften muss die Technologie dafür haben? Kann ich diese Eigenschaften mit aktuellen Technologien garantieren?
Dann würde z.B. auffallen, dass in der Technologiewelt Dinge passieren, die wichtiger sind als GPT-4o oder Moshi: Relativ unbemerkt von der Bubble bringen Google (Gemma 2) und Microsoft (Phi-3) und andere, immer mehr kleine Modelle heraus, Modelle, die z.T. ähnlich wie GPT-4 performen, aber auf meinem Laptop oder gar Smartphone laufen.
Oft wurden diese Modelle auch ursprünglich mit kleineren und deswegen saubereren Datenmengen trainiert. Dadurch sind sie viel einfacher auf spezifische Tasks anpassbar.
Meiner Meinung nach sind das die Forschungen, die uns näher an den eigentlichen „Gral“ in dieser Sache bringen: Aufgabenspezifisch angepasste und deshalb effektive und effiziente KI-Module, die in die Abläufe, in den Menschen heute arbeiten, unsichtbar und reibungslos integriert sind und gerade deswegen einen immensen Unterschied machen.