In den Medien WELT-Gastbeitrag: Wie ethisch (un)problematisch ist ChatGPT?

WELT-Gastbeitrag: Wie ethisch (un)problematisch ist ChatGPT?

In einem Gastbeitrag in der WELT diskutieren Professor Julian Nida-Rümelin und Dorothea Winter, wie ethisch (un)problematisch das Sprachsynthese-System ChatGPT ist.

© RareStock / stock.adobe.com

In einem Gastbeitrag „KI kann schreiben wie Shakespeare, aber sie kopiert nur“ in der WELT diskutieren Professor Julian Nida-Rümelin, Mitglied im bidt-Direktorium, und Dorothea Winter, wissenschaftliche Mitarbeiterin an der Humanistischen Hochschule Berlin, wie ethisch (un)problematisch das Sprachsynthese-System ChatGPT ist.

Dabei halten sie fest, „dass Chatbots wie ChatGPT letztlich große, hoch-effektive Plagiatsmaschinen ohne Quellenangaben sind“. Sie würden laut den Autoren Formulierungen, die in bestimmten Kontexten auftreten, aufgreifen und diese reproduzieren. Die Systeme würden meist syntaktisch korrekt agieren, aber über keine Semantik verfügen. Dies führe laut Nida-Rümelin und Winter zu ethischen Problemen, die sie anhand von unterschiedlichen Problemkreisen veranschaulichen.

Das erste ethische Problem sei der sogenannte „Framing-Effekt“, der bei ChatGPT entstehen kann. Hiermit ist die Darstellung eines Sachverhalts gemeint, bei der Aspekte weggelassen oder hervorgehoben werden, um eine bestimmte Interpretation oder Handlungsempfehlung zu erreichen. ChatGPT würde nach Ansicht der Autoren eindeutig framen:

Bei ChatGPT wird nur eine Antwort auf den Suchbegriff geliefert. Diese Antwort steht allein da – ohne Alternativen, ohne Relationen, ohne Einordnung. Dadurch wird selbst bei Digital Natives der Eindruck erweckt, dies sei das einzig relevante Ergebnis.

Das zweite ethische Problem drohe laut Autoren durch Bias. Im Zusammenhang mit ChatGPT werde darunter eine diskriminierende Verzerrung von Wahrnehmung, Erinnerung oder Meinungsbildung verstanden. Die käme durch eine einseitige Auswahl von Daten oder deren fehlerhafte Verarbeitung zustande: „Wenn die zugrundeliegenden Daten selbst Biase aufweisen, reproduzieren sie sich in den Antworten des Chatbots“.

Wie also kann ChatGPT ethisch vertretbar gestaltet werden? Laut Julian Nida-Rümelin und Dorothea Winter könne hier der Digitale Humanismus Orientierung geben, der „die Stärkung menschlicher Autorschaft und Gestaltungskraft ins Zentrum der digitalen Transformation stellt“.

Chatbots wie ChatGPT seien zwar Instrumente, „die zur Realisierung sinnvoller ökonomischer, sozialer und kultureller Ziele eingesetzt werden können, in der Bildungs- und Ausbildungspraxis, in Situationen, in denen eine rasche Orientierung in einem komplexen Entscheidungsumfeld erforderlich ist, als Repräsentation von Diskurslagen und Wissensbeständen“. Allerdings erfordere ihr Einsatz eine kritische Prüfung der Verlässlichkeit der Auskünfte, was nach mehr Transparenz der Datengrundlagen verlange.

„ChatGPT sucht zwar seinesgleichen, bleibt aber doch immer nur eine gut funktionierende KI, die Bedienungsanleitungen im Stil von Shakespeare schreiben und teilweise sogar ein menschliches Gegenüber vorgaukeln kann. Dabei fehlt ChatGPT jedoch Wesentliches: ein moralischer Kompass.“

Prof. Dr. Dr. h.c. Julian Nida-Rümelin

Mitglied im bidt Direktorium | Professor emeritus für Philosophie und politische Theorie, Ludwig-Maximilians-Universität München

Dorothea Winter M. A.

wissenschaftliche Mitarbeiterin Angewandte Ethik, Humanistische Hochschule Berlin