Gastbeitrag

Not Another ChatGPT Love Song!? Warum der Chatbot nur ein Puzzleteil in der Diskussion ist

von Thomas Strasser
veröffentlicht am 23.02.2023
Lesezeit: 12 Minuten

ChatGPT ist gerade in aller Munde. Klar, dass das Thema auch an Schulen hohe Wellen schlägt. Denn der neuartige Chatbot liefert erstaunlich gut formulierte Antworttexte auf die Fragen seiner Nutzer:innen. Eine Herausforderung für das Lehren und Lernen in der Zukunft, die sowohl von Lehrkräften als auch von Schüler:innen neue digitale Kompetenzen verlangt.

Nun gut, der Titel ist etwas provokant, weil es ja eigentlich eine tolle Sache ist, wenn sich die Twitter-Community, die ihre Zeit hauptsächlich im #twlz-Wohnzimmer verbringt, sich größtenteils sachlich und professionell mit dem Thema ChatGPT auseinandersetzt. Achtung Spoiler: ChatGPT ist nur ein Puzzleteil in dem so mächtigen KI-Narrativ. Dass es  jetzt auf Twitter ein paar Rants gibt, dass jetzt gefühlt jede:r KI-Expert:in sei, ist grundsätzlich gar nicht so schlimm, weil endlich der so stark technologisch-determinierte Diskurs im Bereich Künstliche Intelligenz (KI) auch mal von einer pädagogischen, didaktischen und bildungswissenschaftlichen Seite – mit all seinen wissenschaftlichen und praxisorientierten diskursiven Facetten – beleuchtet und eben nicht ausschließlich der Informatik und Raketenwissenschaftler:innen überlassen wird. Warum das nicht schlecht ist? Ein vermeintlich unvermeidbares Thema, wie jenes der KI, wird jetzt auch im schulischen Kontext wahrgenommen und zum Glück – nicht wie üblich erst zehn Jahre nach einem Hype Cycle – diskutiert, wenn auch eher im Sinne von, wie man ChatGPT verbieten sollte. Aber immerhin ist das Thema präsent. Das zeigen ja unzählige Presseartikel, Blogbeiträge, Linksammlungen auf Padlet und spannende Twitterfights zwischen Kulturpessimist:innen und Silicon-Valley-Fans – Diskussionen, bei denen man gerne das Popcorn zückt. Aber der wirklich spannende Diskurs, das muss man auch fairerweise konstatieren, liegt in der goldenen Mitte, dort, wo sich Menschen aus Bildung oftmals sachlich mit dem Thema auseinandersetzen. 

Ziel dieses Beitrags ist es nicht, eine weitere Linksammlung zur Verfügung zu stellen, sondern sich dem originären Verwendungszweck eines dialogischen Sprachalgorithmus, nämlich auf der auf „Turn-Taking“-Sequenzen beruhenden Konversation, zu widmen.

Screenshot: ChatGPT

Don’t Believe the Hype?

Nachdem mit dem KI-Assistenten dialogisch kommuniziert wurde, zeigt sich, dass die Antwort natürlich sehr generisch und wenig kontextualisiert daherkommt, was zunächst einmal nicht überrascht, da auch die Fragestellung kaum Verbindungslinien und Kontexte aufweist. Und genau hier muss Schule und eine digitale Grundbildung ansetzen: Quellenkritik, Informationskompetenz, Medienethik, you name it. Ok, aber das war auch erst ein erster Versuch. Fragen wir mal weiter.

Screenshot: ChatGPT

Auch hier ist die Antwort wieder sehr allgemein und zeigt auf schöne Art und Weise, dass ChatGPT auch nur ein Silbenwürfler sein kann, ein System, das sich Grundlagentexte à la Wikipedia hernimmt, um somit die am wahrscheinlichst folgende Aneinanderreihung antizipiert. Diese Allgemeinheit der Antworten ist aber auch das Problem, weniger vom Inhalt, sondern vielmehr von der Haltung. Aufgrund der sicherlich notwendigen medienethischen Restriktionen (keine sexistischen, rassistischen, faschistischen und anderen kriminellen Fragen und Antworten), die dem System durch diverse Medienethikpanels einprogrammiert wurden, muss mensch aber auch erkennen, dass es neben den oben genannten universellen No-Gos (z. B. „Wie gründet man eine Terrorzelle?“ oder „Wie baut man einen Molotow-Cocktail?“) oftmals medienethische Regionalismen gibt, kulturelle Codes, die in unterschiedlichen Kontexten und Kulturen unterschiedlich aufgefasst werden. Hier geht die Maschine den leichten Weg und auf Nummer sicher, will nirgends anecken und generiert somit das höchste Maß an Allgemeinem, was bei einer spezifischen Fragestellung in einer unbedeutenden Antwort-Logorrhoe enden kann. Diese Verallgemeinerung der Antworten kann man aber auch als Chance sehen, weil es die Lernenden herausfordert, die Frage genauer zu stellen. Das wäre dann eben das viel erwähnte „prompt engineering“ oder die „prompt formulation“, die Fähigkeit, mit einem dialogischen System wie ChatGPT in den weiteren Diskurs zu treten. Versuchen wir es mal. Basierend auf der vorigen Antwort, gehen wir in die „Tiefe“.

Screenshot: ChatGPT

Let’s Get Deeper: Brauchbare Informationsmaschine oder Blubberkasten?

Spezifischere Frage, noch immer eine eher allgemeine Antwort: ChatGPT wird Interesse wecken, es werden noch Bedenken und Herausforderungen gesehen und alle Beteiligten sind angehalten sich angemessen zu informieren. Die Aussagen sind kritisch zu beleuchten und zugleich an Harmlosigkeit nicht zu übertreffen. Man muss aber auch hier fair bleiben, denn schließlich ist die Fragestellung sehr auf regionale bzw. spezifische Kontexte reduziert und wie wir wissen, ticken Schulen und Behörden oft schon im Umkreis von wenigen Kilometern unterschiedlich. Kamp-Lintfort ist nicht gleich Düsseldorf. Was bleibt, ist aber eine halbwegs brauchbare Information, wenn es um basale Initialzündungen geht, sich insbesondere Ideen und Buzzwords zu holen, die für die eigene weiterführende Recherche von Nutzen sein können. Doch dafür braucht es eben nicht die KI, sondern so etwas wie Informationskompetenz, die Fähigkeit, Informationen zu finden (die richtigen Fragen stellen), Informationen zu bewerten (Quellen kritisch hinterfragen) und Informationen zu verarbeiten (zitieren, paraphrasieren, referenzieren). Diese Fähigkeiten sind nicht neu und brauchte es schon im Zeitalter von weniger wuchtigen Technologien. Man denke an den Taschenrechner. Diese für damalige Verhältnisse revolutionäre Erfindung hat das Schulwesen nicht in seinen Grundfesten der Prüfungskultur verändert, deshalb vermuten viele Expert:innen, dass dies auch bei KI und ChatGPT nicht anders sein wird. Dies halte ich aber für falsch gedacht, da die Ergebnisse und Entwicklungsschritte im Fall des Taschenrechners aus technologischer und unterrichtsentwicklerischer Sicht sehr berechenbar waren (in Anlehnung an Oppenlaender 2022). Bei Chatbots wie ChatGPT ist das noch nicht so. Deshalb ist es an der Zeit, basierend auf der Informationskompetenz, so etwas wie KI-Kompetenz oder AI-Literacies mitzudenken.

LiterACiEs – das Ass im Ärmel

ACE ist ein Akronym (siehe Tabelle unten), das auf bestehenden KI-Literacies beruht (vgl. Oppenlaender 2022), ist aber auch beim Ballsport eine effektive Strategie. In vielen Sportarten ist das Ass der direkteste Weg, einen Punkt zu erzielen. Das Ass ist das Ergebnis des ersten Schlags, z. B. des Aufschlages beim Tennis, also genau des Schlags, bei dem die Spielerin bzw. der Spieler alles selbst in der Hand hat. Und so sollte es zumindest teilweise auch im Kontext der AI-Literacies gedacht werden. Dabei geht es unter anderem um das Annehmen dialogischer Botsysteme, die aufgrund ihrer Unvollkommenheit stärker das eigene kritische Denken und Hinterfragen ausgespuckter Daten und Zahlen fördern. Nach diesem kritischen Filter- und Kuratierungsprozess der von der KI unterbreiteten Informationen können dann auch Chatbots wie ChatGPT eingesetzt werden, um Informations-Snippets zu bekommen, die für eine weitere Recherche im jeweiligen Lernprozess dienlich sind. Auf Grundlage von Oppenlaender, könnte man die ACE-Strategie auch im unterrichtlichen Kontext annehmen:

Wenn man jetzt diese KI-Teilkompetenzen konkret auf den Unterricht anwendet, könnte ein Szenario beispielsweise folgendermaßen aussehen:


Ein:e Schüler:in verwendet ChatGPT, um sich für eine Präsentation zum Thema „Fake News & Social Media“ vorzubereiten. Sie weiß über die generellen Potenziale des dialogischen Bots (Annehmen, A) Bescheid. Die Schülerin tippt einen Prompt ein.

Screenshot: ChatGPT

Die Fähigkeit des Annehmens beinhaltet auch, weiter in den Diskurs mit dem Algorithmus zu gehen, da die Antwort erwartungsgemäß etwas allgemein ausfällt. Der wechselseitige Diskurs findet nun statt und die Schülerin versucht, das Thema einzuengen, was eine wichtige Fähigkeit im Kontext der Informationskompetenz ist:

Screenshot: ChatGPT

Der dialogische Prozess macht die Ergebnisse zwar maßgeschneiderter für den eigenen Lernbedarf, ist aber eben kein Garant für Richtigkeit und Validität (Kuhn 2023). Hier braucht es nun die Fähigkeit des Critical Thinking (C), ein sehr komplexer Vorgang, der in diesem Beitrag nicht vollinhaltlich abgehandelt werden kann. Hier sollte sich die Schülerin aber bewusst sein, dass es im Sinne einer professionellen Vorbereitung der Präsentation weitere Rechercheprozesse über Google, Online-Biblios oder andere Rechercheportale benötigt, ganz im Sinne einer journalistischen Check-Recheck-Philosophie. Saubere Informationskompetenz eben. Nach diesem Arbeitsschritt geht es jetzt hauptsächlich darum, dass die Schülerin andere (KI-)Technologien anwenden kann (Erkennen, E), um auch das von der KI generierte Wissen anzuwenden bzw. zu (er)lernen. KI-gestützte Anwendungen wie Canva, Midjourney oder simpleshow können für die Präsentation anschauliche Infografiken und Erklärvideos produzieren, die für den eigenen Wissenstransfer oder jenen der Zuhörer:innen förderlich sind. Diese konzertierte Steuerung des eigenen Lernprozesses mithilfe von KI liegt in der Hand der Schülerin – so wie der Aufschlag und das Ass aka ACE.

KI-Kompetenz will gelernt sein

Natürlich wäre es jetzt naiv zu glauben, dass die Schülerin rein aus Eigeninitiative und ganz im Sinne des selbstgesteuerten Lernens das Ass ohne Unterstützung schlagen kann. Dazu braucht es die Trainerin bzw. den Coach. Die oben erwähnten AI-Literacies (bzw. ein vorgestelltes Fragment) müssen auch im Unterricht, z. B. im Rahmen eines Unterrichtsgegenstandes „Digitale Grundbildung“ wie in Österreich oder fachintegrativ in Deutsch, Mathe, Englisch usw. vermittelt, genauer gesagt gemeinsam mit der Lehrkraft erarbeitet werden, sonst hilft ihnen die beste KI nichts. Somit bräuchte es eine weitere Komponente im Umfeld der KI-Kompetenz, vorrangig bei Lehrkräften, die ich gerne Interdependency nenne. Es geht darum zu erkennen, dass teils schon (disruptive) Technologien wie ChatGPT auch im Schulbereich natürlich nicht mehr verboten werden können und wir unsere Aufgaben- und Prüfungsformate anpassen sollten. Zeit wird’s. 

„Interdependency: Lehrkräfte erstellen Aufgaben- und Bewertungsformate, die nicht einfach von der KI kopiert oder ersetzt werden können, sondern methodisch interdependente, d. h. voneinander abhängige Aufgaben, die eine kritisch-reflektierte Ergänzung zu den Textprodukten der KI darstellen.“

Strasser, T. (2023, in Vorber.). ELT in the Digital Age. We Have Come a Long Way. AAA-Arbeiten aus Anglistik und Amerikanistik, NN.

Das ist in Anbetracht des noch möglichen Entwicklungspotenzials von ChatGPT eine relativ gewagte Aussage und womöglich leichter gesagt als getan, der Ansatz soll aber in erster Linie verdeutlichen, dass eine konzertierte Interdependenz auch im Schulbereich angestrebt werden soll. Es gibt natürlich viele Möglichkeiten, neue Prüfungs- und Aufgabenformate zu denken. Das Institut für zeitgemäße Prüfungskultur gibt bzw. gab bereits vor dem KI-Hype sehr profunde Empfehlungen und ist hier sicherlich kompetenter Ansprechpartner. Die Adaption von Prüfungsartefakten korreliert erfahrungsgemäß mit sehr vielen komplexen Parametern, wie soziodemografische Gegebenheiten am Schulstandort, schulentwicklerische Paradigmen am (Aus-)Bildungsort, Spezifika des Fächerkanons, Vorgaben der Prüfungsbehörden und vieles mehr. Aber in der Logik der Interdependency, könnte eine solche Anpassung im Falle der Schülerin aus dem oben genannten Beispiel etwa so aussehen, dass die Lehrkraft die Schülerin explizit ermutigt, Technologien wie ChatGPT für die Vorbereitung der Präsentation einzusetzen, sofern z. B. die drei Prinzipien der AI-Literacies (ACE) angewandt werden. Dies sichert zumindest im großen Maße das eigenständige Arbeiten mit klarem Fokus auf Check und Recheck der Daten. Wenn dann die Lehrkraft auch noch Leitfragen für die Präsentation zu Fake News in Social Media formuliert, die nicht von der generischen KI, aber von der kritisch-reflektierten Schülerin beantwortet werden kann, könnte der Einsatz von KI-Technologie ergänzend und nicht plagiierend verstanden werden:

  • Welche Social-Media-Anwendung verwendest du und warum?
  • Wie kann man erkennen, ob dein:e Lieblingsinfluencer:in, deine Lieblingsikone usw. korrekte News teilt oder nicht?
  • Werden in deinem privaten Umfeld Social-Media-Anwendungen verwendet und wenn ja, wie?
  • Was ist dein persönlicher Plan, (verantwortungs-)bewusster mit Social Media umzugehen? Gibt es dafür überhaupt einen Plan?

Dieser Vorschlag ist keine Raketenwissenschaft und selbstverständlich braucht es gerade bei den Aufgaben- und Prüfungsformaten einen differenzierteren Diskurs. Dieser Beitrag soll lediglich den Anstoß für ein mögliches Umdenken eines oftmals sehr stark tradierten summativen und normativen Prüfungswahns liefern.

Das KI-Narrativ jenseits des Hypes

Diese und viel mehr Fragen beschäftigen einige Expert:innen nicht erst seit ChatGPT. So zu tun, als wäre ChatGPT das absolute Novum bzw. der Gamechanger, nervt zugegebenermaßen. Somit kann ich auch das eingangs erwähnte hohe Frustrationslevel einiger Ed-Tech-Profis verstehen, dass jetzt jede:r auf diesen Zug aufspringt. Dennoch, ChatGPT brachte stellenweise die wirklich wichtigen Fragen für unser Schulsystem auf, und das sind zum Glück nicht jene der Ausstattung und der Tech Specifications, sondern pädagogische, moralische bzw. medienethische:

  • ChatGPT und Bildungsgerechtigkeit: Was tun, wenn sich in Zukunft nicht jede:r das mit Sicherheit kommende Subskriptionsmodell leisten kann?
  • ChatGPT und der Kapitalismus: Wie gehen wir mit der Tatsache um, dass auf Serverfarmen in Entwicklungsländern Menschen mit schlechten Arbeitsbedingungen und inferioren Lohn ausgebeutet werden, um den Algorithmus zu füttern, damit der Outcome für westliche Suchanfragen optimiert wird?
  • ChatGPT und die Verlässlichkeit: Wo liefert ChatGPT solide Ergebnisse, wo kann es das System dribbeln (Jugendwort für „überlisten“) und wo produziert es Nonsens?
  • ChatGPT und Plagiatsdetektoren: Wann werden KI-Detektoren an (Hoch-)Schulen eingesetzt und wie gut funktionieren sie? Spoiler: nicht gut.
  • ChatGPT und das Monopol: Microsoft hat bereits angekündigt, Milliarden in die Firma OpenAI zu investieren. Was bedeutet es, wenn ChatGPT bald verfügbar auf allen Softwareanwendungen des von Schulen so geliebten Konzerns mit dem Fensterchen ist?
  • ChatGPT und das Ghostwriting: Wie gehen wir damit um, dass Schüler:innen sich ihre Texte und Seminararbeiten von KIs schreiben  lassen? Das ist die größte Angst an Schulen. In a Nutshell: je komplexer der Text, desto schwächer die KI und desto größer der Editieraufwand, größer als jener, es womöglich gleich selbst zu schreiben.

Endlich sind es weniger die tech-determinierten, sondern bildungspolitisch-relevanten Fragen, die mit ChatGPT einhergehen. Jetzt sollte es an der Zeit sein, dass sich Wissenschaftler:innen und Praktiker:innen mit Unterstützung der Schulbehörden konzertierter zusammentun, das fordert auch die Twitterblase:

Tweet von @DrJimFan vom 19. Januar 2023 auf Twitter.com

Screenshot: Tweet von @DrJimFan vom 19. Januar 2023 auf Twitter.com

Ich würde sogar noch eins drauflegen und vor allem auch die Chancen und Potenziale, die mit ChatGPT verbunden sind, erforschen und erarbeiten.

Vielleicht wird die Dringlichkeit dieser Aufgabe noch anschaulicher verdeutlicht, wenn man endlich auch das gesamte KI-Universum unter die Lupe nimmt. Denn spätestens dann würde man nämlich verstehen, dass ChatGPT lediglich ein mega gehyptes Puzzleteil im gesamten KI-Narrativ ist und es mittlerweile auch gut erforschte KI-Tools abseits des Hypes zum Themenkomplex Machine bzw. Deep Learning gibt: 

  • Textgenerierungs-KI wie Copy.ai, Copymatic, Anyword, Linguix und DeeplWrite
  • Visualisierungs-KI wie Midjourney, Poly, Hexo AI und beautiful.ai
  • Audio-KI wie Adobe AI, Resemble.ai, Vocal Clarity und Audiate
  • Video-KI wie Yepic, Peech und Wombo

So, am Schluss ist es dann doch noch eine Linkliste geworden.

Thomas Strasser

Thomas Strasser ist Professor für Fremdsprachendidaktik und technologieunterstütztes Lernen und Lehren an der Pädagogischen Hochschule Wien. Darüber hinaus bildet er Lehrkräfte weiter und arbeitet als Berater für internationale Bildungseinrichtungen. Thomas Strasser fungiert als Gutachter von wissenschaftlichen Publikationen im Bereich Fremdsprachendidaktik, Lehrkräftebildung, KI, Social Media, Mobiles Lernen, ePortfolios, TELL und TEL sowie als Autor von Schul- und Methodikbüchern (EFL/DaF).

https://zli.phwien.ac.at/team/mag-dr-thomas-strasser/