Gastbeitrag

Argumentieren lernen mit automatisiertem Feedback

von Dr. Thorben Jansen, Dr. Jennifer Meyer
veröffentlicht am 04.10.2022
Lesezeit: 6 Minuten

Künstliche Intelligenz (KI) hat das Potenzial, das Lehren und Lernen maßgeblich zu verbessern. In naher Zukunft werden Schüler:innen KI-generiert etwa zu jeder schriftlichen Leistung ein lernförderliches Feedback erhalten können. Daran arbeitet ein Forscher:innenteam um Dr. Thorben Jansen am Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik (IPN).

Alle, die von politischen Entscheidungen beeinflusst werden, sollten sich auch an den zugehörigen gesellschaftlichen Diskussionen beteiligen können. Das gilt auch für Schüler:innen. Sie und ihre Ideen finden jedoch oft keine Berücksichtigung, obwohl Beispiele wie Fridays for Future zeigen, dass ihre Meinungen wertvoll sind, um langfristige Perspektiven einzunehmen. Ein Grund für den Ausschluss aus der Diskussion könnte sein, dass Schüler:innen noch nicht gelernt haben, nachvollziehbar zu argumentieren – weil sie nicht genug Gelegenheiten dazu hatten. Doch der Ausgang einer Diskussion sollte allein von der Qualität der Argumente abhängen. Deshalb ist es ein zentrales, auch: schulisches Ziel, bei Kindern und Jugendlichen frühzeitig die Entwicklung argumentativer Fähigkeiten zu fördern. Damit sie in gesellschaftlichen Diskussionen sowie im ganz alltäglichen Leben, in Schule, Beruf und Freizeit ihre Vorstellungen und Meinungen finden und vertreten können. 

Zur Entwicklung argumentativer Fähigkeiten sind guter Unterricht und viel Üben notwendig. Ein effektiver Weg ist es, regelmäßig argumentative Texte zu verfassen und diese auf Basis eines Feedbacks zu überarbeiten. Ein Themenbeispiel: Sollte die Regierung Autos mit Batterien, Wasserstoff oder E-Fuels als Energieträger fördern? Die Schüler:innen sollen dabei lernen, alle drei Optionen zu berücksichtigen, Entscheidungskriterien transparent zu beschreiben und die Kriterien nachvollziehbar gegeneinander abzuwägen. Im besten Falle erhält jeder von ihnen zur Überarbeitung ein Feedback auf seinen Text, das verdeutlicht, was der Argumentation fehlt, um nachvollziehbar zu sein.

Argumentieren lernen durch Feedback der Lehrkräfte

Feedback zu erstellen verlangt Lehrkräften viel Arbeitszeit und Energie, da dafür Klassensätze von Texten gelesen und bewertet werden müssen. Ein großer Aufwand, den Lehrkräfte neben der Unterrichtsvorbereitung zusätzlich leisten. Dieses Vorgehen hat zwar die Stärke, dass dabei genau passendes Feedback entstehen kann, jedoch sind die Möglichkeiten, ganzen Klassen Feedback zu Texten und zur mehrfachen Überarbeitung zu geben, sehr limitiert. Die Folge: Schüler:innen erhalten in der Regel nur selten Feedback und haben somit wenige Anreize, ihre Argumentation immer wieder zu überarbeiten und ihre Kompetenzen weiterzuentwickeln. Bislang fehlen aber immer noch Werkzeuge, die Lehrkräfte beim Feedback geben unterstützen und sie dadurch entlasten.

Automatisiertes Feedback: Für alle eins, für jeden passend

Schüler:innen machen häufig ähnliche Fehler und benötigen demnach ähnliches Feedback. Typische Argumentationsfehler aus der oben genannten Beispielaufgabe sind, dass aus den Texten nicht klar wird, ob für Batterien oder E-Fuels argumentiert wird oder welche Argumente für die Entscheidung besonders wichtig waren. Über die Hälfte der Schüler:innen machen diese Fehler. Lehrkräfte haben sie in ihrem Schulalltag gesehen und deswegen einen Prozess entwickelt, um den Schüler:innen auf diese Fehler ein qualifiziertes Feedback zu geben. Diesen Prozess müssen sie jedoch für jeden Text erneut durchführen. Durch die Entwicklungen der künstlichen Intelligenz ergeben sich Möglichkeiten, diesen Prozess zu unterstützen. Algorithmen „lernen“ dabei aus sehr vielen Beispielen, wie Lehrkräfte Feedback geben – in unserem Fall von schriftlichen Schüler:innenargumentationen und darin enthaltenen Argumentationsfehlern sowie entsprechendem Lehrkräftefeedback. KI-Forschende sagen, die Algorithmen werden an den Handlungen der Lehrkräfte „trainiert“. Die Algorithmen erkennen innerhalb der Trainingsdaten Muster im Feedback, wenden dieses auf neue Argumentationen an und können automatisiert Feedback geben. Dieses Imitieren der Lehrkräfte gelingt den Algorithmen sehr gut. Ungefähr so gut wie einem Menschen, der auch anhand der Beispiele lernen würde, Feedback zu geben.

Die größte Schwäche der Algorithmen ist, dass sie nur so gut sein können, wie die Daten, an denen sie gelernt haben.

Nur so gut wie die Trainingsdaten

Aktuelle Algorithmen können die Trainingsdaten so gut imitieren wie ein Mensch. Das ist beeindruckend intelligent für eine Maschine, hat aber auch seine Grenzen: Automatisiertes Feedback kopiert lediglich menschliches Feedback, inklusive aller Stärken und Schwächen, etwa vorurteilsgesteuerter Tendenzen: Werden in den Trainingsdaten die Leistungen von Jungen und Mädchen nicht gleich beurteilt, wird das automatisierte Feedback diese diskriminierenden Unterschiede wiederholen. Oder: Wenn die Trainingsdaten demotivierendes Feedback für leistungsschwache Schüler:innen enthalten, wird auch das automatisierte Feedback demotivieren. Die größte Schwäche der Algorithmen ist also, dass sie nur so gut sein können, wie die Daten, an denen sie gelernt haben. Außerdem ist die Erstellung von Trainingsdaten noch sehr teuer, da sie von Personen erstellt werden, die trainiert und bezahlt werden müssen. Der Vorteil: Einmal mit guten Trainingsdaten versorgt, können viele Personen zu jeder Zeit ein gutes Feedback erhalten.

Gutes Feedback – gar nicht so einfach

Große Literaturzusammenfassungen zeigen, dass Feedback durchschnittlich positive Effekte hat, jedoch unterscheiden sich die Ergebnisse zwischen den Studien stark. Diese Unterschiede werden unter anderem von Eigenschaften des Feedbacks, der Schüler:innen r und des Kontextes ausgelöst. Ungeklärt ist, wie sich aus dieser Fülle aus Einflussfaktoren lernförderliches Feedback für eine spezifische Situation erstellen lässt. Daher ist Forschung zu der Frage nötig, was effektives Feedback für wen ist.

Wir müssen den Algorithmen lediglich häufig genug vormachen, wie dieses Feedback aussehen soll.

Mit Bildungsforschung und Technologie zu besserem Unterricht

Fortschritte im Bereich der künstlichen Intelligenz zeigen schon heute einen gangbaren Weg auf, um Schüler:innen mehr lernförderliches und motivierendes Feedback zu ermöglichen. Wir müssen den Algorithmen lediglich häufig genug vormachen, wie dieses Feedback aussehen soll. Es zeigt sich: Das klappt nicht perfekt, aber auf einem Niveau, das auch Menschen erreichen würden. Eine zentrale Herausforderung ist jedoch die Verfügbarkeit von hochqualitativen Trainingsdaten. Diese sind aber die Grundvoraussetzung für funktionierende KI-basierte Systeme. Herauszufinden, wann Feedback lernförderlich und motivierend ist, werden uns aber auch Algorithmen niemals abnehmen können. Der nächste Schritt auf dem Weg zu automatisiertem Feedback muss deshalb genau dieser sein: zu klären, was gutes Feedback ausmacht. Hier sind Bildungsforschung und Schulpraxis gefragt. Nur gemeinsam mit ihnen kann die Informatik letztlich weiter auf das Ziel zusteuern, dass jeder junge Mensch, aber auch jede Lehrkraft die bestmögliche Unterstützung erhält, die künstliche Intelligenz zu leisten vermag.

Das Projekt DARIUS

Am Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik (IPN) entwickelt ein Team um Thorben Jansen eine KI-gestützte digitale Lernumgebung im Projekt DARIUS – Digital Argumentation Instruction for Science, gefördert von der Deutsche Telekom Stiftung. Am Beispiel des Klimawandels entwickeln und evaluieren die Wissenschaftler:inneneinen Feedbackprozess für argumentative Texte und versuchen so, die Potenziale von künstlicher Intelligenz für die Schule nutzbar zu machen. 1.000 Schüler:innenschreiben hierfür Beispieltexte. Die Projektgruppe bewertet jeden Text systematisch Satz für Satz und versieht ihn mit passendem Feedback. Mit diesen Text- und Feedback-Beispielen werden Algorithmen den Feedbackprozess „erlernen“ – und im nächsten Schritt Feedback an die Schüler:innen  sowie Lehrkräfte auch für neue Texte zurückmelden können.

Mehr dazu: https://www.ipn.uni-kiel.de/de/forschung/projektliste/darius

Dr. Thorben Jansen

Dr. Thorben Jansen hat Psychologie studiert und zur Beurteilung von Schüler:innentexten promoviert. Er leitet das von der Deutsche Telekom Stiftung geförderte Projekt Digital Argumentation Instruction for Science (DARIUS) am Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik (IPN). Seine Forschungsinteressen sind die Wirkmechanismen des adaptiven Lernens und der Einsatz von künstlicher Intelligenz in der Bildung.

https://www.ipn.uni-kiel.de/de/

Dr. Jennifer Meyer

Dr. Jennifer Meyer hat Psychologie studiert und zur Vorhersage von Schulleistungen promoviert. Sie leitet am IPN das Projekt Automated Writing Assessment Using Artificial Intelligence, das die Wirkfaktoren automatisierten Feedbacks zur Förderung von Schreibfähigkeiten in der Fremdsprache Englisch untersucht. Ihre weiteren Forschungsschwerpunkte liegen in der Untersuchung und Förderung der Lernmotivation von Schülerinnen und Schülern in unterschiedlichen Lernkontexten.

https://www.ipn.uni-kiel.de/de/