In den Medien FAZ-Gastbeitrag über die Sprach-KI ChatGPT

FAZ-Gastbeitrag über die Sprach-KI ChatGPT

In einem Gastbeitrag in der FAZ gehen Alexander Pretschner, Eric Hilgendorf, Ute Schmid und Hannah Schmid-Petri der Frage nach, was aus der Sprach-KI ChatGPT folgt.

© Miriam / stock.adobe.com

In einem in der Frankfurter Allgemeinen Zeitung veröffentlichten Gastbeitrag gehen Prof. Alexander Pretschner, Prof. Eric Hilgendorf, Prof. Ute Schmid und Prof. Hannah Schmid-Petri aus dem bidt-Direktorium der Frage nach, welche Chancen und Risiken die Sprach-KI ChatGPT mit sich bringt und wie die Mensch-Maschine-Interaktion gelingen kann.

Eines steht fest: Das Sprachsynthese-System ChatGPT erzeugt Texte von bemerkenswerter Qualität. ChatGPT und ähnliche Sprach-KI-Modelle sind weitere Assistenzsysteme für den Menschen, die vergleichbar mit einer maschinellen Übersetzung, einer Rechtschreibprüfung oder auch der manuellen Internetsuche seien. Das führe zu vielen Fragen für den Einsatz – beispielsweise in Schulen und Universitäten, in der Medizin oder etwa im Journalismus.

Laut den Autorinnen und Autoren läge das echte Potenzial von ChatGPT – wie übrigens der meisten Anwendungen des maschinellen Lernens – eher im Bereich der Assistenz des Menschen. Es komme daher darauf an, den Einsatz des neuen Systems zu gestalten.

Verantwortung können Maschinen nicht übernehmen, sie bleibt vielmehr Menschen vorbehalten.

Probleme, die während der Verwendung der neuen Technik auftreten können, seien zudem schon aus anderen Kontexten der Kooperation von Menschen mit Maschinen bekannt. Dazu gehörten „fehlende Transparenz, unkritisches Vertrauen in die Leistungsfähigkeit und Entscheidungsfindung der Technik und der selbst verschuldete Verlust eigener Fähigkeiten“. Speziell für den Umgang mit ChatGPT nennen die Autorinnen und Autoren als besondere Herausforderungen den Verzicht auf Quellenangaben und „ein bedenklicher Umgang mit fremdem geistigem Eigentum, was die Technik zu einer leistungsfähigen Software zur Plagiatsherstellung macht“.

Im Mittelpunkt der Aufmerksamkeit sollte daher zunächst die Frage stehen, „wer die KI-generierten Text- oder Codevorschläge zu prüfen hat: auf Korrektheit und Vollständigkeit, auf die Abwesenheit inadäquater Textstellen und Angabe relevanter Quellen und gegebenenfalls auch auf sprachliche Klarheit“. Um dies zu klären, könnten neue Verantwortungszuweisungen erforderlich werden. Falls ein KI-generierter Text nicht mehr sorgfältig von Menschen geprüft werde, könne sich daraus „das Problem einer zivil- oder sogar strafrechtlichen Haftung ergeben“.

Daher sei es wichtig, „kontextabhängig der eigenen Verantwortung gerecht zu werden, Chancen und Risiken abzuwägen und Regularien – von bloßer Etikette über Selbstverpflichtungen und bereichsspezifische Verhaltensstandards bis hin zu neuen rechtlichen Vorgaben – sowie eine neue Digital- und Medienkompetenz zu entwickeln“.

Prof. Dr. Alexander Pretschner

Vorsitzender im bidt Direktorium und Mitglied im Geschäftsleitenden Ausschuss | Professor für Software & Systems Engineering, Technische Universität München & Vorsitzender des wissenschaftlichen Direktoriums, fortiss

Prof. Dr. Ute Schmid

Mitglied im bidt Direktorium und im Geschäftsleitenden Ausschuss | Mitglied im Bayerischen KI-Rat & Professorin für Kognitive Systeme, Otto-Friedrich-Universität Bamberg

Prof. Dr. Dr. Eric Hilgendorf

Mitglied im bidt Direktorium | Lehrstuhlinhaber für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik, Julius-Maximilians-Universität Würzburg

Prof. Dr. Hannah Schmid-Petri

Mitglied im bidt Direktorium | Professorin für Wissenschaftskommunikation, Universität Passau