Das Phänomen ChatGPT: Ein Blick hinter den Hype des KI-Chatbots

von Mareike Kühl

Der Hype um ChatGPT ist groß. Nach nur zwei Monaten, kann der KI-Chatbot bereits über 100 Millionen User verzeichnen. Was ist das für eine Anwendung, die einen riesigen Hype in den (sozialen) Medien ausgelöst hat. Ist der Hype berechtigt? Was kann ChatGPT wirklich und wo liegen seine Grenzen? Dieser Beitrag bildet den Auftakt zu einer kleinen Serie um große KI-Modelle wie den ChatGPT.

Es kursieren aktuell Massen an Schlagzeilen, Tweets oder Tutorials zu dem Chatbot, der seit November 2022 verfügbar ist. Um diesen Hype einzuordnen, lohnt sich der Blick auf die Entwicklung von Userzahlen bei anderen Anwendungen. Bis Twitter beispielsweise 100 Millionen User hatte, hat es ca. fünf Jahre gedauert, Google hat 9 Monate gebraucht und ChatGPT muss sich mit zwei Monaten nur knapp von Pokemon GO mit einem Monat geschlagen geben.

ChatGPT basiert auf einem riesigen Datensatz, der mithilfe einer KI verarbeitet wird. Aber ist dieser Chatbot intelligent? Was kann er wirklich und wo liegen seine Grenzen? In dieser Serie schauen wir genauer auf das neue „Wunderkind“ der Welt der künstlichen Intelligenz.

ChatGPT steht für „chat generative pre-trained transformer“. Als Transformer werden große KI-Modelle bezeichnet, die eine Reihe von Zeichen in neue Formen umwandeln können. Darunter fallen z.B. auch Übersetzungen.

Wir kennen Chatbots bereits in Form von FAQs oder standardisierten Anfragen auf Websiten zur Kundenbetreuung. Diese Chatbots haben allerdings einen sehr engen Funktionsumfang. Sie verarbeiten festgelegte Stichwörter und „frequently asked questions“ und antworten mit einem ebenso festgelegten Satz an Hilfestellungen. Und jeder von uns hat sich sicher schonmal mit einem chatbot herumgeärgert, der die Eingaben nicht „verstanden“ hat – egal wie oft man es versucht hat. Dagegen soll ChatGPT Abhilfe schaffen. Die Anwendung fällt in die Kategorie der natürlichen Sprachverarbeitung [natural language processing (NLP)]. Das bedeutet im konkreten Fall des ChatGPT, dass er darauf spezialisiert ist, Dialoge zu führen. Er verarbeitet eine gefühlt grenzenlose Bandbreite an Anfragen, Aufgabestellungen oder Nachfragen und „erinnert“ sich auch an Prompts, die bereits gestellt wurden. Prompts nennen sich die Eingaben bzw. Aufgabenstellungen im Dialogfeld von Sprachmodellen, wie dem ChatGPT. ChatGPT ist ein künstliches, neuronales Netz, das mithilfe von einem riesigen Datensatz menschliche Kommunikation imitieren soll.

ChatGPT steht seit November 2022 kostenlos als Beta-Version auf der Website von OpenAI zur Verfügung. Allerdings gibt es mittlerweile eine Upgrade-Version für 20 US-Dollar im Monat. Diese Premium-Version soll schneller und auch in Phasen hoher Nachfrage verfügbar sein. ChatGPT kann verschiedene Promts beantworten – von Programmiersprachen über Lieder oder Gedichte bis hin zu Dialogen und Textzusammenfassungen.

ChatGPT wird stetig durch die vielen Anfragen der User weitertrainiert. Eine wichtige Funktion ist die Option, die Antworten zu bewerten und bei falschen Antworten die „optimale“ Antwort bereitzustellen. Diese Art zu lernen, läuft nach dem Prinzip des bestärkenden Lernens ab. ChatGPT „versteht“ allerdings nicht, was er ausgibt. Er berechnet lediglich die Wahrscheinlichkeiten für diverse Wortbausteine und passt sie den Prompts sowie in Auftrag gegebenen Formaten an.

Wenn ein Satz mit „Ich gehe …“ beginnt, dann fallen den meisten Menschen auf Anhieb weitere Bausteine wie „zur Arbeit“, „nach Hause“ oder „spazieren“ ein. ChatGPT durchforstet daraufhin den Datensatz, der allerdings nur bis einschließlich 2021 aktuell ist, aus Büchern, Wikipedia, Webseiten und Social Media und verwendet dann den Wortbaustein mit der höchsten Wahrscheinlichkeit in Folge.

Mit dieser Methode kann ein Großteil der Anfragen gut beantwortet werden, allerdings sind diese ohne Quellenangaben stets mit Vorsicht zu genießen und besonders wichtig, stets zu überprüfen. Use Cases, was Google mit dieser Debatte zu tun hat, welche Alternativen es auf dem internationalen Markt gibt, wo Kritik angebracht ist und wie groß das wirtschaftliche Potential ist – all‘ das gibt es in den nächsten Beiträgen dieser Serie.

Mareike Kühl ist Referentin in der Abteilung Strategie und Zukunft der Arbeit bei der BDA. Sie betreut nicht nur das #futurework-Festival, sondern auch die Themenbereiche KI und Plattformarbeit. Neugierde und Offenheit für neue Technik sind ihr in dieser Debatte genauso wichtig wie das Verständnis für die Grenzen von Anwendungen wie dem ChatGPT.

Zurück

Beitrag teilen: