Potential von ChatGPT & Co.: Individualisierte KI-Systeme als nächster Schritt für Handel und Unternehmen

von Partnerunternehmen am 03.März 2023 in Partnerbeitrag, Trends & Analysen

Von Ole Dawidzinski (Lead Data Scientist und Partner bei Tisson & Company)

Seit der Veröffentlichung des Chatbots ChatGPT – eines textbasierten Dialogsystems, das auf maschinellem Lernen beruht – durch OpenAI überschlagen sich die Erwartungen. Gleichzeitig wachsen die Sorgen und Zweifel an der Praxistauglichkeit solcher Programme durch zu ungenaue oder generische Antworten. Die einen sehen in Künstlicher Intelligenz (KI) die Zukunft, mit großen Anwendungspotenzialen, andere fühlen sich in der Annahme bestärkt, dass KI noch in den Kinderschuhen steckt. Experimente mit ChatGPT zeigen immer wieder, dass insbesondere bei Fachfragen oder speziellen Problemstellungen sehr unterhaltsame, aber häufig falsche oder zu allgemeine Antworten generiert werden. Den Programmen fehlt einfach noch eine ganze Menge Wissen. Ausgerechnet diese Tatsache ist jedoch deren eigentliches Potenzial und ermöglicht es Unternehmen, ihre ganz eigenen, fallbezogenen Systeme aufzubauen. Doch was bedeutet das genau und welche Möglichkeiten bieten sich mit Blick auf Personalisierung, Produktentwicklung oder der Kund:innenkommunikation?

Stark oder schwach: was für eine KI ist ChatGPT?

Um KI-Systeme wie ChatGPT und deren Möglichkeiten für den Handel einordnen zu können, ist es zunächst wichtig zu verstehen, was diese sind und was nicht. Grundsätzlich kann und muss man zwischen einer schwachen und starken KI unterscheiden, denn KI ist nicht gleich KI. Unter einer starken oder auch Allgemeinen KI versteht man eine, die in der Lage ist, Aufgaben und Probleme zu lösen, die normalerweise menschliche Intelligenz erfordern. Eine solche KI kann unabhängig und autonom handeln und Entscheidungen treffen, die nicht nur auf vorherigen Programmierungen und Daten basieren, sondern auch auf eigenen Erfahrungen und Lernprozessen.

Im Gegensatz dazu ist eine schwache KI darauf beschränkt, bestimmte spezifische Aufgaben zu erfüllen, auf die sie trainiert wurde, und kann nicht eigenständig außerhalb dieser Aufgabenbereiche handeln oder lernen. Während schwache KIs bereits weit verbreitet sind und in vielen Anwendungen (z. B. in Alexa, der automatischen Bilderkennung, Siri, Expertensystemen etc.) eingesetzt werden, ist die Entwicklung einer starken KI noch ein langfristiges Ziel und birgt sowohl technologische als auch ethische Herausforderungen. Daran hat sich auch durch die Veröffentlichung von ChatGPT nichts geändert, denn trotz der bereits beeindruckenden Fähigkeiten ist dieser Chatbot keine allgemeine, sondern nach wie vor „nur“ eine schwache KI.

Programme wie ChatGPT basieren auf großen Sprachmodellen, sogenannten Large Language Models (LLM). Diese nutzen Methoden des Maschinellen Lernens auf Basis von neuronalen Netzen (Deep Learning), um aus Datensätzen Muster, Zusammenhänge und Regeln zu lernen. Bei diesem zweistufigen Prozess bilden sehr große natürlichsprachige Datensätze die Grundlage. Im ersten Schritt extrahiert ein LLM aus diesen die Struktur und lernt dadurch die Inhalte, Kontext und grundlegende Sprachverarbeitungsfähigkeiten. Je größer und vielfältiger die Datensätze dabei sind, umso mehr und exakteres Wissen kann das LLM lernen. Diesem „vortrainierten Modell“ werden nun im zweiten Schritt die eigentlichen Aufgaben wie die Fähigkeit zur Klassifikation, Textverarbeitung, Zusammenfassung oder Übersetzung anhand von Eingabe-/Ausgabebeispielen beigebracht. Ein auf dieser Grundlage basierendes KI-System versucht dann auf Basis des in Schritt 1 gelernten Wissensfundus eine in Schritt 2 beigebrachte Aufgabenstellung auf Anfrage zu lösen, indem es die wahrscheinlichste Antwortsequenz auf die jeweilige Eingabe berechnet. Damit kann es nur Aufgabenstellungen lösen, die dem System vorher beigebracht wurden.

Warum ChatGPT nicht auf alles eine Antwort hat (und haben kann)

Damit kommen wir auch direkt zu den Vor- und Nachteilen solcher Systeme: Sie sind nur so gut wie ihre Daten und die Aufgaben, für die sie trainiert wurden. Im Falle von ChatGPT bestand der Trainingsdatensatz aus ca. 1 Milliarde Websites, Nachrichten, Artikeln, Wikipedia und Büchern. In Summe mehrere hundert Gigabyte. Diese Datenmenge ermöglicht es einem LLM wie dem hinter ChatGPT auf beeindruckende Art und Weise Anfragen in natürlicher Sprache zu verstehen, den Kontext zu verarbeiten und Antworten zu generieren. Jedoch hängen die Qualität und der Wahrheitsgehalt einer Antwort davon ab, ob das System die dafür benötigten Informationen kennt. Wenn die Antwort zu einer Fragestellung nicht oder unzureichend im Trainingsdatensatz enthalten war, dann kann das System im besten Fall die Frage einfach nicht beantworten. Im schlechtesten Fall rät das System. Man sagt dann, es halluziniert. Dies ist die Ursache warum ChatGPT bei vielen allgemeinen Aufgaben, wie der Zusammenfassung oder Generierung von Texten und Geschichten, einen guten Job macht, bei speziellen oder fachspezifischen Problemstellungen jedoch nicht immer brilliert.

Dazu ein fiktives Beispiel aus dem Kundensupport:

Ein Händler für exklusive Küchengeräte möchte seinen Kund:innenenservice ausweiten. Er entscheidet sich aufgrund der beeindruckenden Kommunikationsfähigkeiten für einen ChatBot auf Basis von ChatGPT für den 1st LVL-Support, außerhalb der regulären Servicezeiten. Eine Kund;in hat nun ein Problem mit einem Gerät, das exklusiv vom Unternehmen vertrieben wird und braucht technische Unterstützung. Der Fehler ist innerhalb des Unternehmens bekannt und es wurden kürzlich erfolgreiche Lösungsstrategien entwickelt. Der Chatbot kann dieses Wissen nicht haben und wird versuchen allgemeine Lösungsvorschläge auf Basis seiner Trainingsdaten zu machen oder kann die Anfrage schlicht nicht beantworten.

Entscheidend sind somit die Menge sowie Qualität der Trainingsdaten und Beispiele, da diese beeinflussen, ob und wie genau das System eine Aufgabenstellung lösen kann. Gleichzeitig ist dies auch der Grund, warum KI-Systeme nicht auf alles eine (richtige) Antwort haben, weil sie schlicht nicht alles wissen (können).

Individualisierte KI-Systeme für unterschiedliche Anwendungsfälle

Dass KI-Systeme nicht auf alles eine Antwort haben, ist häufig sogar gewollt und gut so. Für viele Unternehmen sind die eigenen Daten, Fachexpertise und langjährige Erfahrung wichtige Alleinstellungsmerkmale. Es würde mit Sicherheit Fragen aufwerfen, wenn frei zugängliche Systeme über diese interne und spezielle Expertise verfügen würden. Gleichzeitig mindert sich damit für Firmen vielfach der Praxisnutzen und Anwendungsbereich von KI-Systemen, da der Funktionsumfang ohne das interne Wissen entweder zu ungenau, falsch oder allgemein ausfällt. Die Entwicklung eines eigenen KI-Systems auf Basis eines LLMs wäre eine sehr kostspielige Angelegenheit. Es wird geschätzt, dass nur die Kosten für das Sprachmodell (LLM) hinter ChatGPT bei ca. 1,4 Millionen Euro lagen.

Die Lösung lautet: Individualisierung und Anpassung bestehender KI-Systeme, das sogenannte „Fin Tuning“. Dabei nimmt man als Grundlage ein bereits entwickeltes Sprachmodell (LLM) wie das hinter ChatGPT mit seinem bestehendem Funktionsumfang und trainiert diesem das fehlende Wissen oder die gewünschten Funktionen einfach an. Dadurch schafft man sich ein auf den persönlichen Anwendungsfall und Wissensschatz angepasstes und individualisiertes KI-System.

Beim oben genannten Beispiel könnte das wie folgt aussehen: Anstatt ChatGPT als ChatBot für den Support in Betrieb zu nehmen, würde man das System, ähnlich wie beim Onboarding neuer Kolleg:innen, zunächst für die neue Aufgabe im Support vorbereiten und trainieren. Das Unternehmen könnte dafür interne Support-Protokolle und Anfragen, Produktbeschreibungen, Prozesse oder Vorlagen nutzen. In ein einheitliches Format gebracht, würde das LLM damit nachtrainiert werden. Am Ende steht ein individuelles und für die Problemstellung und das interne Wissen angepasstes KI-System für den Support bereit.

Dieses Vorgehen ist längts Realität: OpenAI bietet ganz offiziell die vortrainierten Sprachmodelle (LLM) hinter ChatGPT zum Anpassen und Individualisieren an. Unternehmen (zu finden auf der Website von OpenAI) entwickeln bereits ihre eigenen und angepassten Anwendungen auf Basis von Sprachmodellen hinter dem von ChatGPT.

Potenziale für Retail und E-Commerce

Doch was bedeutet das für den Handel? Abseits von Anwendungsfällen in der Kundenkommunikation, könnten individualisierte KI-Systeme in unterschiedlichsten Anwendungsfällen eingesetzt werden:

  • Personalisiertes und automatisiertes Marketing

Ein auf Basis von internen Vorlagen, erfolgreichen Werbe-Kampagnen oder Kundenprofilen nachtrainiertes KI-System könnte individualisierte und personalisierte Anschreiben, Ansprachen oder Werbetexte zu Produkten oder Kampagnen generieren, die dann im persönlichen Stil der Firma oder einer Zielgruppe gehalten sind.

  • Produkt- und Serviceoptimierung

Firmen erreichen insbesondere in Social Media, aber auch über direkte Kanäle Feedback oder Kommentare zu Produkten oder Dienstleistungen. Ein System, das auf Basis dieser individuellen Produkt-Feedbacks oder Rezessionen trainiert wurde, kann bei der eigenen Produktentwicklung und Serviceoptimierung eingesetzt werden. So könnte das System automatisiert analysieren, welche Probleme Kund:innen mit einzelnen Produkten haben oder welche Eigenschaften sich diese wünschen und Vorschläge zur Verbesserung oder für neue Produkte geben.

  • Im Wissensmanagement

Jede Firma hat ihre internen Abläufe, Vorschriften und Best Practices. Je beratungsintensiver oder komplexer ein Produkt ist, umso mehr Wissen und Hintergründe müssen Berater:innen oder Angestellte aufnehmen und verinnerlichen. Ein mit internen Dokumenten und Fachwissen individuell nachtrainiertes System kann als Wissensspeicher bei den unterschiedlichsten Fragen oder Problemen digital assistieren. Sei es in der Kund:innen-Beratung oder bei der Einarbeitung neuer Mitarbeiter:innen.

Fazit

LLM-Modelle wie jene hinter ChatGPT zeigen, welche beeindruckenden Fähigkeiten in der Sprachverarbeitung möglich sind. Die Modelle sind in der Lage Kontext und Inhalt natürlicher Texte zu erkennen, auf Fragen zu antworten, Inhalte zusammenzufassen, zu übersetzen oder zu kategorisieren. Natürlich sind sie noch nicht perfekt und werden stetig weiterentwickelt. Ein wesentlicher Faktor dabei sind  die Daten, die dem System zur Verfügung stehen. Aktuell werden die Potenziale von KI-Systemen noch zu sehr in den beschriebenen Grenzen gesehen. Dass sie noch sehr generisch und für viele Anwendungsfälle zu ungenau sind, ist nur auf dem ersten Blick ein Nachteil, sondern vielmehr nachvollziehbar und eine riesige Chance. Unternehmen mit speziellen Anwendungsfällen oder Daten können sich auf dieser Grundlage ihre eigenen KI-Systeme schaffen und diese Wissens-Lücken schließen. Sam Altmann, CEO von OpenAI und Kopf hinter ChatGPT selbst sagte 2022 in einem Interview, dass es zukünftig viele spezialisierte und angepasste KI-Systeme auf Basis von wenigen großen LLMs geben werde.

Bei Fragen und Anregungen kontaktieren Sie den Autor Ole Dawidzinski gern via: ole.dawidzinski@tisson.com

Über den Autor:

Ole Dawidzinski (30) ist Lead Data Scientist und Partner bei Tisson & Company, einer auf Data Science, Projekt- sowie Workmanagement spezialisierten Unternehmensberatung mit Hauptsitz in Hamburg. Nach seiner Ausbildung zum IT-Systemelektroniker studierte Dawidzinski Medieninformatik an der Hochschule Bremen und der Riga Technical University in Lettland. Der gebürtige Regensburger hat seine Leidenschaft zum Beruf gemacht: Aus Daten Informationen machen. Seit 2015 ist er im Bereich der Data Science tätig und konnte in der Zeit Erfahrungen in unterschiedlichsten Anwendungs- und Forschungsprojekten sammeln. Dawidzinski gründete mit 24 seine eigene Firma und war unter anderem für Unternehmen wie die Deutsche Telekom, E.ON Business Services GmbH und Pumacy Technologies tätig. Seine Schwerpunkte liegen in der Sequenzmuster- und Datenanalyse, dem Maschinellen Lernen sowie der Entwicklung und Konzeption von datengetriebenen Smart-Services. https://www.linkedin.com/in/ole-dawidzinski-b58174251/

Über das Unternehmen:

Tisson & Company ist eine auf Data Science, Projekt- sowie Workmanagement spezialisierte Unternehmensberatung. Die Firma mit Hauptsitz in Hamburg wurde 1995 von Dr. Horst Tisson gegründet – 2012 stieß Stefan Kuhardt als Geschäftführer hinzu. Tisson & Company befähigt Unternehmen, ihre Arbeit und Prozesse bestmöglich zu gestalten, um wettbewerbs- und zukunftsfähig zu bleiben. Dabei reicht das Leistungsspektrum von der strategischen Beratung und Implementierung bis hin zur Entwicklung von KI-getriebenen individuellen Lösungen. Darüberhinaus ist Tisson & Company zertifizierter Partner von Adobe Workfront, einer kollaborativen Arbeitsmanagementlösung. www.tisson.com


Newsletter abonnieren

Abonnieren Sie den kostenlosen Newsletter von Location Insider. Wir liefern darin täglich gegen 11 Uhr business-relevante Hintergründe zur Digitalisierung des Handels.

Hiermit akzeptiere ich die Datenschutzbestimmungen.

Artikel teilen