Live aus dem KI-Maschinenraum - Teil 2: Die Plattform
Manche scheinen sich zu wünschen, generative KI sei eine Dampfmaschine: Einfach ordentlich viel Kohle reinkippen, und ab geht’s mit dem Business, wie auf Schienen. Mehr als zwei Jahre Best-Practice-Erfahrung zeigen, dass es leider nicht ganz so einfach ist. Für mich Anlass genug, mir Gedanken zu einer kleinen Blog-Serie zu machen. Deren zweiter Teil handelt von den zugrundeliegenden Plattformen.
Im ersten Teil meiner Serie standen die Basics auf dem Programm – die KI-Reifegrade. Meine Beobachtung im vorigen Beitrag lautete, dass vielfach bereits „Phase II“ bei den Unternehmen eingeläutet wurde, nämlich die Etablierung von Plattformen, um generative KI schneller und kontrolliert einzuführen. Sobald die wichtigsten Use Cases und eine zugrunde liegende Plattform umfänglich implementiert sowie Strategie und Governance etabliert sind, wird Phase III erreicht, der (vorläufige) finale Schritt bei der strategischen unternehmensweiten Einführung von KI. Daher widmen wir uns fortfolgend den Plattformen, diesem KI-Fundament, ein wenig intensiver.
Hierfür möchte ich gern auf die gezeigte Graphik verweisen, samt der dort enthaltenen Nummerierung. Beginnen wir mit (1), einer einzigen, zentralen, unternehmens- und gegebenenfalls weltweit genutzten Plattform. Sie ermöglicht es, Anwendungen, die generative KI im Kern nutzen, einfacher und effizienter zu skalieren. Diese Anwendungen basieren wiederum auf zahlreichen Core Services (2), die sich aus wiederkehrenden Mustern einer Pipeline möglicher Use Cases speisen. Hierzu gehören idealerweise nicht nur grundlegende Services für generative KI, sondern auch Datenkonnektoren, Services für „klassische KI“ usw. Diese Plattform-Core-Services werden häufig in eine bereits existierende Plattform für „klassische" KI-Anwendungen integriert.
Dabei ist es durchaus ratsam, auf verschiedene Modelle (3) mehrerer Hersteller oder auch auf Open Source zu setzen, um einen Vendor-Lock-in zu vermeiden – oder einfach, um die jeweils kostengünstigsten Modellvarianten einsetzen zu können. Ebenso ist für unsere größeren Kunden eine Multi-Cloud-Fähigkeit (4) eine wichtige Anforderung, sofern nicht schon vorab eine Auswahl für einen Cloud-Vendor erfolgt war. Ganz praktisch kann etwa eine generative KI-Anwendung in einer Cloud-Instanz von Microsoft laufen, muss aber Daten- oder Servicezugriff zu einer Private Cloud oder auch anderer Anbieter haben.
Wer sich dem Thema derart strategisch nähert, bleibt flexibel – so ist etwa ein späterer Tausch der Modelle möglich. Mit diesem Konstrukt wird auch ersichtlich, dass Custom-built-Services für viele Anwendungen eine relevante Option sind, da hier die bessere Kosten- und Funktionskontrolle gegeben ist; dem Vergleich Custom-built vs. Off-the-Shelf-Lösung widme ich mich in einem späteren Beitrag detailliert.
Neben besserer Kostengrundkontrolle und effizienter Skalierung von Anwendungsentwicklung auf einer Plattform für generative KI ist vor allem die Standardisierungsmöglichkeit hervorzuheben. Man denke etwa an gleiche Standards und Tonalität bei Chatbots in verschiedenen Kanälen: freundlich, hip, sachlich oder auch bewusst unterschiedlich nach Zielgruppen – das geht nur auf einer Plattform. Im nächsten Beitrag möchte ich dazu gerne ein anonymisiertes Beispiel vorstellen.
Bis dahin immer dran denken: A prompt a day keeps the job center away.
Dieser Beitrag wurde bereits auf LinkedIn veröffentlicht.
Diese Artikel könnten Sie auch interessieren:
Avanade Insights abonnieren
Wir starten jetzt damit, das zu tun, was wirklich zählt
Erzählen Sie uns mehr über Ihre Herausforderung oder Ihren Bedarf, und wir werden den Kontakt zu den richtigen Avanade-Expert:innen herstellen.
Hauptsitz
Nordamerika
Weltweiter Hauptsitz
1191 Second Avenue
Suite 100
Seattle, WA 98101
Wachstumsmärkte
Hauptsitz Singapur
Avanade Asia Pte Ltd
250 North Bridge Road
#30-03 Raffles City Tower
Singapur 179101