Lexikon Was ist eigentlich … ChatGPT?

Was ist eigentlich … ChatGPT?

Seit Livegang des textbasierten Dialogsystems ChatGPT wird die KI-Anwendung heiß diskutiert. In unserem bidt-Lexikoneintrag erläutern wir technische Wirkweisen und gehen auf Risiken und Potenziale der Technologie ein.

© Sutthiphong / stock.adobe.com

Am 30. November 2022 veröffentlichte der US-amerikanische Softwarehersteller OpenAI mit ChatGPT (GPT‑3), einen auf Künstlicher Intelligenz (KI) beruhenden Chatbot.

Die Einsatzmöglichkeiten sind vielfältig: Von Zusammenfassungen von Romanen über Jobbewerbungen bis hin zu Gedichten und seit der neuesten Version (GPT-4) sogar Bildbeschreibungen – ChatGPT ist in der Lage, jeden erdenklichen Text zu generieren. Was zunächst eine technologische Höchstleistung ist, die immense Potenziale birgt, stellt einige Bereiche wie etwa die Wissenschaft und das Prüfungswesen vor Herausforderungen: Wie ist der Output der KI zu bewerten? Wie nachvollziehbar und transparent sind die Ausgaben des Systems? Welche Quellen werden herangezogen?

In unserem bidt-Lexikoneintrag erläutern wir, was ChatGPT eigentlich genau ist, wie das Programm arbeitet und welche Herausforderungen und Potenziale damit verbunden sind.

bidt-Lexikon: Was ist ChatGPT?

ChatGPT (Generative Pre-trained Transformer) ist ein interaktives Sprachmodell der US-Firma OpenAI.

Ein Sprachmodell ist die maschinenlesbare Repräsentation von Sprache zur digitalen Weiterverarbeitung. Es gibt verschiedene Arten von Modelltypen, die sich hierfür eignen: maschinelle Lernmodelle, rein statistische Modelle und neuronale Netzwerke – wie im Beispiel von ChatGPT.

Der KI-gestützte Chatbot ist in der Lage, jedwede Art von Texten zu prozessieren und auszugeben. So können etwa Kurzgeschichten und Gedichte geschrieben, Fachfragen beantwortet, Codeblöcke ausgegeben oder Texte zusammengefasst werden. Seit der im März 2023 vorgestellten Version GPT-4 ist die Technologie zudem fähig, Bilder zu analysieren und zu beschreiben. Zugrunde des sogenannten Large Language Models liegt eine Architektur von neuronalen Netzen. Diese speisen sich großenteils unüberwacht mit immensen Mengen an Texten aus dem Internet und abstrahieren aus den Daten Übergangswahrscheinlichkeiten zwischen einzelnen Wörtern. Somit ist das System nicht in der Lage, Sprache auf einer semantischen Ebene zu konstruieren. Es ist jedoch aufgrund einer vorangegangenen Analyse von Sprachstrukturen und -mustern möglich, Texte zu berechnen und in natürlicher Sprache auszugeben.

Was „weiß“ ChatGPT?

Sprachmodelle wie ChatGPT haben Milliarden von Texten als Datenbasis. Bezüglich des Umfangs und der Kuratierung der eingespeisten Datengrundlage hält sich die Entwicklungsfirma bedeckt. Jedoch ist bekannt, dass der Großteil der zugrunde liegenden Trainingsdaten aus den Jahren vor 2021 stammt und der Chatbot somit keine informationsbasierten Aussagen über die Welt nach 2021 treffen kann. Es wird vermutet, dass der komplette Inhalt von Wikipedia etwa drei Prozent der Texte in einem solchen Modell ausmacht. Entsprechend groß müssen die neuronalen Netze angelegt sein, um für die Leserinnen und Leser sinnvolle Textausgaben generieren zu können.[1]

Von Wissen im herkömmlichen Sinne kann im Fall von ChatGPT tatsächlich nicht die Rede sein. Das KI-System ist nicht in der Lage, semantische Konstrukte, also die Bedeutung von Wörtern und Sätzen, zu begreifen. Begründet liegt dies in der Natur des Sprachmodells: Es ist darauf trainiert, Zusammenhänge von Wörtern zu berechnen – nicht deren Sinn. ChatGPT arbeitet, vereinfacht gesprochen, mit einer Gleichung mit Milliarden an Variablen, die lediglich die statistischen Zusammenhänge von Wörtern analysieren. So wird jedes folgende Wort aufs Neue berechnet.[2]

Wie arbeitet ChatGPT?

ChatGPT ist also ein interaktives Sprachmodell, das beliebige Texte auf Grundlage einer immens großen Datenbasis generieren kann. Auf die an ChatGPT gestellte Frage „Was ist ein Sprachmodell?“ antwortet der Chatbot:

Ein Sprachmodell ist eine mathematische Repräsentation natürlicher Sprache, die es einem Chatbot ermöglicht, natürliche Sprache zu verstehen und zu antworten. Ein Sprachmodell kann ein maschinelles Lernmodell, ein statistisches Modell oder ein neuronales Netzwerk sein.

ChatGPT auf die Frage „Was ist ein Sprachmodell?“

Diese Antwort ermöglicht einen guten Einblick. Die drei von ChatGPT genannten Modelle sind alle im Spektrum der KI zu verorten und haben alle zum Ziel, aus Daten zu lernen und Vorhersagen zu treffen. Obwohl sie sich in ihren technischen Herangehensweisen unterscheiden, weisen sie in der Praxis häufig Überschneidungen auf.[3] [4]

Das Sprachmodell ChatGPT entstammt der zuletzt angeführten Kategorie: Es basiert auf neuronalen Netzwerken. Die Netzwerke sind in der Lage, komplexe Datenmuster zu erkennen und zu lernen. Hierfür müssen die neuronalen Netzwerke mit einer Datenbasis gefüttert werden, welche dann das „Wissen“ des Modells darstellt. Auf dieser Grundlage lernt das System, wie Wörter in einer Sprache zusammenhängen. Es erstellt anschließend ein Modell, welches die Zusammenhänge abbildet, und nutzt es dann, um Vorhersagen darüber zu treffen, welche Wörter oder Sätze am wahrscheinlichsten folgen werden, basierend auf den zuvor eingegebenen Wörtern. Die neuronalen Netze selbst sind dabei so vielschichtig und komplex miteinander verschaltet, dass die gelernten Modelle letztlich Blackboxes sind; es kann also nicht mehr nachvollzogen werden, wie eine Ausgabe genau zustande kommt.[5]

Im Fall von ChatGPT handelt es sich um ein Modell, das durch sogenanntes Supervised Learning ergänzt wurde. Dafür wurde das System zunächst unüberwacht mit einer gigantischen Datenbasis gefüttert. Um Problematiken wie Rassismus, Sexismus oder Hatespeech zu begegnen, wurde das Sprachmodell in einem zweiten Schritt mit menschlichem Feedback trainiert. Menschen bewerteten also die Ausgaben des Systems und sensibilisierten es so für politisch korrekte Antworten.[6] [7]

Risiken und Potenziale von ChatGPT

Während der Chatbot im medialen Diskurs einerseits als „Wunderwerk[8] der Künstlichen Intelligenz gefeiert wird, wird andererseits Kritik an dem Sprachsystem laut. Einige der Kritikpunkte, wie fehlende Transparenz der Antworten oder die Gefahr des blinden Vertrauens in die Technik, sind bereits aus ähnlichen KI-Anwendungen bekannt. Allerdings handelt es sich bei ChatGPT um das bis dato leistungsstärkste Sprachsystem, was der Kritik noch einmal Nachdruck verleiht.

Ethische Überlegungen

Quellen und Transparenz

Ein Kritikpunkt an ChatGPT ist der Umgang mit Quellen. So ist ChatGPT zwar oft (nicht immer) in der Lage, auf Nachfrage Quellen anzugeben. Die Entscheidung, ob diese Quellenangabe vollständig, korrekt oder vertrauenswürdig ist, bleibt jedoch den Userinnen und Usern überlassen. Beim Training des Sprachmodells sind die Quellen nicht ausreichend berücksichtigt worden.[9] So führt etwa die Quellenangabe von ChatGPT im Hinblick auf die gestellte Frage „Was ist ein Sprachmodell?“ ins Leere. Erschwerend kommt hier die Problematik des sogenannten Framing-Effekts hinzu. Während beispielsweise Google für eine Suchanfrage verschiedene Quellen und relevante Informationen ausgibt, liefert ChatGPT lediglich eine einzige Antwort. Das birgt das Risiko des Automation Bias – des blinden Vertrauens in die maschinellen Antworten. Diese stehen ohne Kontext, Einordnung und Alternativen und – sofern nicht explizit gefragt – ohne jedwede Quelle. Somit könnten in der Darstellung eines Sachverhalts relevante Aspekte weggelassen oder hervorgehoben werden.

ChatGPT als Plagiatsmaschine?

Gerade wegen der bisweilen ungekannten Leistungsfähigkeit ergeben sich weitere Problematiken: Das Tool stellt insbesondere das Bildungs- und Prüfungswesen von Schulen oder Forschungseinrichtungen vor immense Herausforderungen, da es sich um eine „hocheffektive Plagiatsmaschine[10] handle, wie der bidt-Direktor Professor Julian Nida-Rümelin in einem WELT-Artikel betont. Prüfungsleistungen in Schulen oder Universitäten bestehen nicht selten aus Seminar- und Abschlussarbeiten. Hier kann der Nachweis schwierig werden, in welchem Maße neue Technologien wie ChatGPT eingesetzt wurden, was die gesamte Prüfungsform von Textabgaben infrage stellen könnte.[11] [12]

Juristische Herausforderungen

Nicht nur auf ethisch-moralischer, sondern auch auf juristischer Ebene ergeben sich einige Herausforderungen. Fragestellungen wie etwa Verantwortung, Haftbarkeit oder der Umgang mit geistigem Eigentum – sowohl aufseiten des Herstellers OpenAI als auch aufseiten der Nutzerinnen und Nutzer, die den maschinengenerierten Output weiterverwenden – müssen betrachtet werden. Gerade Fachbereiche wie Justiz, Medizin, Journalismus, das Prüfungswesen, die Forschung oder Softwareentwicklung sind von diesen neuen Entwicklungen betroffen.[13] Die jeweiligen Fallhöhen unterscheiden sich dabei drastisch. Zwar könnte etwa eine von ChatGPT generierte Geburtstagsrede missglückt sein, die Auswirkungen eines falschen Arztbriefes, einer fehlerhaften Anklageschrift oder eines schadhaften Codeblocks sind hingegen weitaus gravierender. Dies kann – je nach Anwendungsfall und Umgang – neben ethischen Fragen zivil- oder sogar strafrechtliche Konsequenzen nach sich ziehen.

Mit statt gegen ChatGPT

Bei aller Kritik bleibt anzuerkennen, dass ChatGPT eine mächtige KI mit Output in bisher nicht da gewesener Qualität darstellt, was immense Potenziale birgt. So könnte der Chatbot etwa im Bildungswesen als ergänzendes Assistenzsystem begriffen und im Unterricht und in Prüfungen eingesetzt werden, argumentiert bidt-Direktorin Professorin Ute Schmid in einem Interview.

Ebenso kann ChatGPT als Katalysator im Hinblick auf Diskussionen über die Sinnhaftigkeit von Klausuren, die lediglich Faktenwissen abfragen, dienen. Wenn eine KI imstande ist, Klausuren zu bestehen, handelt es sich dann um eine zeitgemäße Form der Prüfung? Diese Frage diskutieren die bidt-Direktoren Professor Dirk Heckmann und Professor Alexander Pretschner zusammen mit Dr. Jan Gogoll, einem wissenschaftlichen Referenten des bidt, in einem Artikel der Frankfurter Allgemeinen Zeitung [Bezahlinhalt].

Auch in puncto Barrierefreiheit im Netz könnte der Chatbot unterstützen. Durch die in der Version GPT-4 implementierte Bilderkennung und -beschreibung erleichtert das Programm Menschen mit Sehbehinderungen potenziell deutlich den Zugang. Auch andere Beiträge des Sprachmodells zur Verbesserung der Barrierefreiheit wären denkbar. Etwa könnten textuelle Inhalte, welche für Menschen mit kognitiven Behinderungen schwer verständlich sind, automatisiert in „leichte Sprache“ überführt werden.[14]

Das Sprachmodell ChatGPT ist in der Welt und nun liegt es an den Nutzerinnen und Nutzern, den Schulen und Universitäten, den Arbeitgebern und dem Staat, sich entsprechend dazu zu verhalten. Ein Boykott der Technologie scheint wenig sinnvoll – so der Konsens. Eher sollte die entsprechende Digital- und Medienkompetenz für die Nutzung des neuen Werkzeugs sowie ein bewusster Umgang mit dem Output gelehrt und verinnerlicht werden. Auf eine ganze Reihe von Feldern kann sich diese Technologie massiv produktivitätssteigernd auswirken. Die Erwartungen an das Assistenzsystem sollten realistisch bleiben und die generierten Texte als Basis für eine menschliche Überarbeitung dienen, finden die bidt-Direktorinnen und ‑Direktoren Professor Alexander Pretschner, Professor Eric Hilgendorf, Professorin Ute Schmid und Professorin Hannah Schmid-Peri in einem Gastbeitrag der Frankfurter Allgemeinen Zeitung [Bezahlinhalt].

Literatur

  • [1] Vgl. Klitsch, M. (2023). ChatGPT und KI in der Schule: „Es sind neue Wege im Unterricht gefragt“. In: campus schulmanagement 14.02.2023. Online unter: https://www.campus-schulmanagement.de/magazin/chat-gpt-und-ki-in-der-schule-es-sind-neue-wege-im-unterricht-gefragt [Zuletzt aufgerufen am: 29.03.2023].
  • [2] Vgl. Nida-Rümelin, J./Winter, D. (2023). KI kann schreiben wie Shakespeare, aber sie kopiert nur. In: WELT 20.01.2023. Online unter: https://www.welt.de/debatte/kommentare/plus243331151/ChatGPT-Textmaschinen-sind-nicht-kreativ-sie-kopieren-nur.html [Zuletzt aufgerufen am: 29.03.2023].
  • [3] Vgl. Schmid, U. (2022). Maschinelles Lernen. In: bidt Glossar (06.09.2022). Online unter: https://de.bid.friendventure.dev/glossar/maschinelles-lernen/ [Zuletzt aufgerufen am: 29.03.2023].
  • [4] Vgl. Bishop, C. (2006). Pattern Recognition and Machine Learning. Cambridge. Online unter: https://www.microsoft.com/en-us/research/uploads/prod/2006/01/Bishop-Pattern-Recognition-and-Machine-Learning-2006.pdf [Zuletzt aufgerufen am: 29.03.2023].
  • [5] Vgl. Schmid, U. (2022). Maschinelles Lernen. In: bidt Glossar (06.09.2022). Online unter: https://de.bid.friendventure.dev/glossar/maschinelles-lernen/ [Zuletzt aufgerufen am: 29.03.2023].
  • [6] Vgl. Fulterer, R. (2022). Diese künstliche Intelligenz kann Verse dichten und Programmiercode schreiben: Was steckt hinter Chat GPT? In: Neue Zürcher Zeitung 09.12.2022. Online unter: https://www.nzz.ch/technologie/diese-kuenstliche-intelligenz-kann-lieder-dichten-und-programmier-code-schreiben-was-steckt-hinter-chatgpt-ld.1715918 [Zuletzt aufgerufen am: 29.03.2023].
  • [7] Vgl. Beck, D. (2023). Gespräche führen mit ChatGPT: So lernt die KI von uns. In: SWR Wissen 16.01.2023. Online unter: https://www.swr.de/wissen/chatbots-wie-funktioniert-chat-gpt-100.html [Zuletzt aufgerufen am: 29.03.2023].
  • [8] Vgl. Hesse, M. (2023). Philosophen über Künstliche Intelligenz: Was denken die sich? In: Frankfurter Rundschau 26.03.2023. Online unter: https://www.fr.de/kultur/gesellschaft/philosophen-ueber-kuenstliche-intelligenz-was-denken-die-sich-92172058.html [Zuletzt aufgerufen am: 29.03.2023].
  • [9] Vgl. Klitzsch, M. (2023). ChatGPT und KI in der Schule: „Es sind neue Wege im Unterricht gefragt“. In: Campus Schulmanagement 14.02.2023. Online unter: https://www.campus-schulmanagement.de/magazin/chat-gpt-und-ki-in-der-schule-es-sind-neue-wege-im-unterricht-gefragt [Zuletzt aufgerufen am: 29.03.2023].
  • [10] Nida-Rümelin, J./Winter, D. (2023). KI kann schreiben wie Shakespeare, aber sie kopiert nur. In: WELT 20.01.2023. Online unter: https://www.welt.de/debatte/kommentare/plus243331151/ChatGPT-Textmaschinen-sind-nicht-kreativ-sie-kopieren-nur.html [Zuletzt aufgerufen am: 29.03.2023].
  • [11] Vgl. Nida-Rümelin, J./Winter, D. (2023). KI kann schreiben wie Shakespeare, aber sie kopiert nur. In: WELT 20.01.2023. Online unter: https://www.welt.de/debatte/kommentare/plus243331151/ChatGPT-Textmaschinen-sind-nicht-kreativ-sie-kopieren-nur.html [Zuletzt aufgerufen am: 29.03.2023].
  • [12] Vgl. Heller, P. (2022). Sprachprogramm ChatGPT – Die Uni-Hausarbeit hat ausgedient. In: Deutschlandfunk Kultur 22.12.2022. https://www.deutschlandfunkkultur.de/ki-chatgpt-sprachprogramm-hochschulen-100.html [Zuletzt aufgerufen am: 29.03.2023].
  • [13] Vgl. Pretschner, A. et al. (2023). Die mächtigen neuen Assistenzsysteme. In: Frankfurter Allgemeine Zeitung 09.01.2023. Online unter: https://zeitung.faz.net/faz/unternehmen/2023-01-09/die-maechtigen-neuen-assistenzsysteme/847161.html [Zuletzt aufgerufen am: 29.03.2023].
  • [14] Vgl. Kreer, C. (2023). GPT-4: Das nächste große Ding für digitale Zugänglichkeit?. In: Netzpolitik.org 16.03.2023. Online unter: https://netzpolitik.org/2023/gpt-4-das-naechste-grosse-ding-fuer-digitale-zugaenglichkeit/ [Zuletzt aufgerufen am: 29.03.2023].

Sebastian Nimsdorf B.A.

Studentischer Mitarbeiter, bidt