Warum KIs wie ChatGPT an Bremer Stadtmusikanten und Werder scheitern

Bremer Stadtmusikanten von einer künstlichen Intelligenz gezeichnet
Dieses Bild der Bremer Stadtmusikanten stammt von der künstlichen Intelligenz Midjourney. Für die Bremer Kunsthalle dürfte das nicht reichen. Bild: Midjourney

Die künstliche Intelligenz ChatGPT hat einen Hype ausgelöst. Wie der Chatbot funktioniert und weshalb gerade Bremer ihm nicht immer trauen sollten, erklären wir hier.

Erst zwei Monate auf dem Markt, hat der Text-Automat ChatGPT einer Studie der Schweizer Großbank UBS zufolge bereits rund 100 Millionen aktive Nutzer – und ist damit die am schnellsten wachsende Verbraucher-App, die jemals veröffentlicht worden ist. Einer Umfrage der Bochumer Forschungseinrichtung CAIS (Center for Advanced Internet Studies) zufolge, kennen mittlerweile ein Viertel aller Deutschen die Anwendung, die auf menschliche Anweisung Artikel schreibt, Reden ausarbeitet, Gedichte verfasst oder Software programmiert.

Was es mit ihr auf sich hat und wo ihre Grenzen liegen, erklären wir hier.

Wofür steht ChatGPT?

Der Name ChatGPT ist die Kurzform für "Chat Generative Pre-trained Transformer", was grob übersetzt für "Dialogsystem mit einer vortrainierten lernenden Maschine" steht. Das bedeutet: ChatGPT ist ein im November 2022 veröffentlichtes Modell künstlicher Intelligenz (KI), das mit Milliarden Dokumenten und Daten gefüttert und von Menschen trainiert worden ist. Es soll Fragen und Befehle in natürlicher Sprache verstehen und diese auch in natürlicher Sprache beantworten.

Bremer Stadtmusikanten erstellt mit Dall-e
Das KI-Unternhmen OpenAI hat auch Dall-E veröffentlicht. Ein Programm, dass aus Texten wie "3d render of 1 donkey, 1 dog, 1 cat, and 1 rooster standing in a row" Bilder erschafft. Bild: Dall-e

Auf die Frage, "Was bist du?", antwortet ChatGPT beispielsweise:
"Ich bin ein KI-basiertes Chatbot-Modell, das von OpenAI entwickelt wurde. Meine Hauptaufgabe ist es, auf Fragen, die auf natürlicher Sprache gestellt werden, so gut wie möglich zu antworten."

Wer steckt hinter dem Chatbot?

Die künstliche Intelligenz, die hinter dem Chatbot steckt, wurde von der 2015 in San Francisco gegründeten KI-Forschungsorganisation OpenAI Inc. entwickelt. Zu deren Mitgründern gehören namhafte US-Unternehmer wie Elon Musk (Tesla, SpaceX) oder Reid Hoffman (LinkedIn), aber auch Unternehmen wie die Amazon-Tochter Amazon Web Services (AWS).

Als Tochter der nicht-gewinnorientierten Gesellschaft OpenAI Inc. wurde 2019 zudem das profitorientierte Unternehmen OpenAI LP gegründet. An dieser Tochter hat sich mittlerweile auch der US-Konzern Microsoft beteiligt.

Wie kann ChatGPT genutzt werden?

ChatGPT kann bislang im Prinzip kostenlos genutzt werden. Anmelden können sich Nutzerinnen und Nutzer über die Website des Chatbots. Dort müssen sie ihre E-Mail-Adresse hinterlegen, mit der sie sich nach der Anmeldung in das System einloggen können.

Wer eingeloggt ist, kann in einem Schreibschlitz unten auf der Website einfach eine Frage oder eine Aufforderung an das System eintippen.

Anfrage bei ChatGPT
So sieht eine typische Anfrage im Chatbot ChatGPT aus. Bild: OpenAI / ChatGPT

Darauf antwortet die künstliche Intelligenz meist innerhalb von Sekunden. So kann der Nutzer durch weitere Nachfragen eine schriftliche Unterhaltung beginnen.

So sieht eine typische Antwort des Chatbots ChatPGT aus.
So sieht eine typische Antwort des Chatbots ChatPGT aus. Bild: OpenAI / ChatGPT


Die Nachfrage nach ChatGPT ist allerdings groß. Weshalb der Login oft über Stunden nicht möglich ist. Um die Wartenden bei Laune zu halten, werden ihnen dann ChatGPT-Fragen zum Status der Künstlichen Intelligenz angezeigt. In dieser Woche haben die Macher von ChatGPT zudem angekündigt, nach der bislang kostenlosen Testphase ein Abo-Modell einzuführen, das einen verlässlichen Zugang gewährt und Bezahlkunden schnelleren Zugriff auf Updates und neue Funktionen sichert.

Wo stößt der Chatbot an Grenzen?

ChatGPT nutzt für seine Antworten Datenbanken mit Milliarden an Dokumenten, die größtenteils in englischer Sprache vorliegen. Aus den darin enthaltenen Informationen und deren Neukombination setzen sich die Antworten zusammen. Das bedeutet, umso mehr Dokumente über ein Themengebiet vorliegen, desto eher ist die Künstliche Intelligenz in der Lage, eine aus Sicht der Nutzer gute Antwort zu liefern.

Datenbasis: Anfragen zu Themen aus Bremen oder Bremerhaven kann ChatGPT daher beispielsweise nur unzureichend beantworten. Denn das KI-System verfügt über viel weniger Quellen und Dokumente zu den beiden Städten als etwa zu New York.

Aktualität: Auch aktuelle Anfragen kann ChatGPT derzeit nicht beantworten. Denn das System speist sich bislang nur aus Quellen und Dokumenten, die aus der Zeit vor 2022 stammen. Über den Ukraine-Krieg weiß die Künstliche Intelligenz also noch nichts. Und Werder spielt bei ChatGPT noch immer in der Zweiten Bundesliga.

Sprache: Nicht zuletzt versteht ChatGPT Fragen und Befehle in deutscher Sprache bislang nur unzureichend. Denn solche Anfragen werden aus dem Deutschen zunächst ins Englische und wieder zurückübersetzt. Und so kann die Katze unter den Bremer Stadtmusikanten bei ChatGPT auch einmal zum "Kater" werden, weil das Wort "cat" im Englischen für beide Geschlechter gilt.

Korrektheit: ChatGPT gibt nicht immer korrekte Antworten aus. Auffällig waren vor allem in den ersten Versionen Fehler bei mathematischen Berechnungen. Die KI kann zudem auch immer wieder unwahre Behauptungen aufstellen – zum Beispiel, dass die Bremer Stadtmusikanten im Märchen tatsächlich in Bremen angekommen sind oder dass Torwartlegende Dieter Burdensky einer der besten Stürmer war, der je für Werder Bremen auf dem Platz stand.

Was wird an ChatGPT kritisiert?

Urheberrecht: Rechtlich ist die Verwendung der von ChatGPT verwendeten Inhalte umstritten. So wird kritisiert, dass die künstliche Intelligenz auf existierende Texte oder Bruchstücke dieser zurückgreift, diese Quellen aber nicht nennt.

Bremer Stadtmusikanten erstellt mit Dall-e
Hier hat der Dall-E-Konkurrent Midjourney gemalt. Was auf den ersten Blick hübsch wirkt, zeigt beim näheren Hinblick die Probleme auf, die Text- und Bild-KIs noch haben. Bild: Dall-e

Dass Schülerinnen oder Studenten die KI für Aufsätze oder Arbeiten verwenden, ohne dies zu kennzeichnen, gilt ebenfalls als Problem. Die Nutzung von ChatGPT wird daher von einigen Schulen und Hochschulen stark begrenzt. "Die Diskussionen ist an der Universität Bremen noch im Gange", sagt Sprecherin Kristina Logemann. Aktuell gelte: "Wenn ChatGPT unerlaubt in Prüfungen eingesetzt wird, handelt es sich um einen Täuschungsversuch." Gleichzeitig würden derzeit in vielen Studiengänge Lernszenarien entwickelt, die ChatGPT in die Lehre integrierten. An der Hochschule Bremen ist ChatGPT ebenfalls Thema. "Das Zentrum für Lehren und Lernen an der Hochschule Bremen wird hierzu demnächst hochschulweit Informationen bereitstellen und auch der Akademische Senat hat das Thema auf seiner Agenda", sagt Sprecherin Meike Mossig.

OpenAI selbst hat mit der Veröffentlichung von ChatGPT im Übrigen Richtlinien zur Nutzung erlassen. Darin heißt es unter anderem, dass alle Inhalte vor ihrer Veröffentlichung noch einmal überprüft, deutlich als "von einer künstlichen Intelligenz verfasst" gekennzeichnet und namentlich mit der Person verknüpft werden sollen, die sie veröffentlicht hat.

Missbrauch: Noch weitgehender reicht die Kritik, wenn es um die Anwendung von ChatGPT zur Vorbereitung krimineller Taten geht. Anleitungen zum Bombenbau, zur Folter oder zur Programmierung von Schadsoftware zählen dazu.

Datenschutz: Die Daten, die in das Dialogfenster von ChatGPT eingegeben werden, liegen auf US-amerikanischen Servern. Das heißt, für sie gilt nicht das europäisches Datenschutzrecht, sondern das US-amerikanische. Zu den gesammelten Daten, die OpenAI in seiner Datenschutzerklärung nennt, zählen beispielsweise technische Daten wie der genutzte Browser, die genutzte Hardware oder die Zeitzone des Nutzers, aber auch inhaltliche Daten aus den gestellten Anfragen und Eingaben.

Arbeitskräfte: Damit die KI problematische Inhalte, zum Beispiel Rassismus oder Gewaltdarstellungen, erkennt und nicht reproduziert, muss sie trainiert werden. Recherchen des "Time Magazine" zufolge hat OpenAI dafür ein Unternehmen aus Kenia beauftragt. Dessen Angestellte mussten Gewalt- und Missbrauchsbeschreibungen lesen und bewerten, um Trainingsdaten für ChatGPT zu generieren. Laut "Time Magazine" betrug ihr Stundenlohn dafür gerade mal zwei Dollar.

Mensch oder Maschine? Hier geht's zum Quiz:

  • Interview mit Wirtschaftsinformatikerin Doris Wessels zu ChatPGT

    Ein Interview mit Wirtschaftsinformatikerin Doris Wessels über den Umgang mit ChatPGT.

Autor

Dieses Thema im Programm: Bremen Zwei, Der Nachmittag, 14. Januar 2023, 13:20 Uhr