„ChatGPT ist ein Redeflussmodell, das Wissen simuliert“

Frank Steinicke, Professor für Human- Computer-Interaction an der Uni Hamburg, ordnet das Gefahrenpotenzial ein.

Dem medialen Hype um ChatGPT stehen auch Stimmen gegenüber, die prophezeien, dass diese Form der KI-Nutzung einst eine Randnotiz der Geschichte sein wird. Das mag für gewisse Anwendungen zutreffen, aber Fakt ist auch, dass in der mittlerweile diffusen medialen Welt längst mit KI gearbeitet wird. In einem lesenwerten Beitrag von Hamburg-News (erschienen am 9. Mai) wird zudem daran erinnert, dass mehr als 1000 internationale Experten auch Forschung und Technik – darunter selbst disruptive Treiber wie Elon Musk (Tesla, Twitter & Co.) – eine Entwicklungspause für neue KI-Modelle fordern. Im Interview mit Frank Steinicke, Professor für Human-Computer-Interaction am Fachbereich Informatik der Universität Hamburg, wird die Frage gestellt, die derzeit viele Menschen bewegt: Sind moderne generative KI-Systeme eine Gefahr und sollte die weitere Entwicklung der Technologie gestoppt werden?

Die Antwort des Informatik-Professors: „Stoppen halte ich für kontraproduktiv, denn ein solches Verbot wäre global gar nicht durchsetzbar, und die Länder, die sich daran halten, würden technologisch zurückfallen. Ich plädiere vielmehr für einen verantwortungsvollen Umgang mit der Entwicklung und Nutzung von KI unter Einbeziehung von allen relevanten Akteuren wie Ethikern, Kommunikationsexperten, aber auch Informatikern. Und ich halte die Macht, die aktuell KI-Systemen zugesprochen wird, für übertrieben. Von einer übermenschlichen Intelligenz – auch starke KI genannt – sind wir noch weit entfernt.“ Der Vergleich KI mit dem menschlichen Gehirn falle eindeutig pro Gehirn aus. Steinicke: „ChatGPT produziert kein Wissen. Es ist ein Redeflussmodell, das Wissen simuliert. Das tut es sogar hervorragend, nur eben ohne Verständnis hinter den Lösungen, die es präsentiert.“ Was folglich heißen dürfte: Wer dieses Modell nutzt, simuliert ebenfalls Wissen und lässt im Zweifel jegliches Verständnis für die kommunizierten Inhalte vermissen.

Anzeige

Drei Anwendungsbereiche

Dass es gleichwohl sinnvolle Anwendungen für ChatGPT & Co. geben kann, betont der Hamburger Professor allerdings auch – routinemäßige Texterstellungen beispielsweise. Das wäre eine Arbeitserleichterung. Er nennt drei aus seiner Sicht sinnvolle Anwendungsfelder: Text- und Bildproduktion beispielsweise für die Erstellung schneller Medieninhalte (Stichwort Homepage), Medizin (Automatisierung von Diagnoseverfahren beispielsweise durch Massenvergleiche von Röntgenbildern) und Bildung (Arbeitserleichterung für Lehrer, Erlernen des Umgangs mit künstlich erzeugten Inhalten und Fokussierung auf den intellektuellen Beitrag eingereichter Arbeiten). Hierzu wäre dann aber wohl auch eine Komplettrenovierung des deutschen Bildungssystems erforderlich. Darüber sagt Steinicke allerdings nichts. Er betont aber: „Der Umgang mit Deep Fake sollte im Unterricht thematisiert werden.“ Womit die Frage, „Was ist echt, was ist falsch?“ wieder auftaucht.