Gastbeitrag
KI-bezogene Kompetenzen von Lehrkräften
von
veröffentlicht am 15.05.2024
Lesezeit: 9 Minuten
Künstliche Intelligenz (KI) hat in den letzten Jahren rasche Verbreitung in vielen gesellschaftlichen Bereichen gefunden – mit Ausnahme der Schule. Dort hat erst die niederschwellige und frei zugängliche Chatbot-Anwendung ChatGPT eine breite Diskussion ausgelöst. Dabei genossen KI-bezogene Kompetenzen von Lehrkräften nur wenig Aufmerksamkeit. Zu Unrecht, denn von ihnen wird es abhängen, welchen Stellenwert das Lernen mit und über KI in der Schule erhält.
Unter Künstliche Intelligenz lassen sich solche Informatiksysteme fassen, die Aufgaben bewältigen, für die beim Menschen eine – wie auch immer geartete – Form von Denken oder Intelligenz vorausgesetzt wird. Solche Aufgaben oder Anforderungen sind bspw. das Ziehen von Schlüssen, das Lernen aus Erfahrung, das Treffen von Entscheidungen und Vorhersagen oder das angemessene Reagieren auf Situationen (vgl. Hwang, Xie, Wah & Gašević 2020).
Mit dem Begriff der „schwachen KI“ wird ausgedrückt, dass die heute verfügbaren Systeme bisher nur einzelne Bereiche menschlicher Fähigkeiten simulieren können. Dagegen wird mit der „starken KI“ die (visionäre) Hoffnung verbunden, alle menschlichen Fähigkeiten maschinell abbilden zu können. Generative KI umfasst solche Systeme, die eigenständig zeichenbasierte Produkte erstellen können, z. B. Texte, Bilder, Videos oder Musik. Potenzielle schulische Anwendungen im Bereich der KI sind – neben der derzeit viel zitierten generativen KI – bspw.:
- Assistenzsysteme für Schüler:innen mit Einschränkungen, z. B. zur Übersetzung von Schrift in gesprochene Sprache oder zur Erkennung von Handschriften
- Interaktive Schulbücher mit Diagnosetools zur Erhebung von kognitiven Lernvoraussetzungen und adaptiver Gestaltung des Lernangebots
- Intelligente Auswertungstools, die z. B. Antworten, Tests oder schriftliche Texte von Schüler:innen automatisiert aus- und bewerten
- Intelligente tutorielle Systeme als adaptive Lernumgebungen, in denen über ein diagnostisches Tool (Lernmodell) Lernvoraussetzungen erfasst und das Vorgehen bzw. der Lernpfad (Lehrmodell) entsprechend angepasst werden
- Humanoide Roboter, die z. B. auf der Basis von Sprachverstehen und Objekterkennung mit Schüler:innen Dialoge führen
Viele dieser Anwendungen sind heute in der Schule noch nicht angekommen (vgl. Rietz & Völmicke 2020, S. 90f.). Dies hängt zum einen mit zum Teil höheren technischen und rechtlichen (DSGVO-bezogenen) Anforderungen zusammen, zum anderen aber auch mit spezifischen Kompetenzen von Lehrkräften, die für einen lernförderlichen Einsatz erforderlich sind.
Entwicklungsbedarf bei KI-Kompetenzen von Lehrkräften
Insgesamt stellt sich die Forschungslage zu KI-Kompetenzen von Lehrkräften als sehr dürftig dar (vgl. Kim, Jang, Choi, Kim, Jung, Kim & Kim 2021). Die wenigen Studien lassen allerdings – wenig überraschend – einen hohen Entwicklungsbedarf bei (angehenden) Lehrkräften erkennen. Lindner & Berges (2020) berichten in einer qualitativen Studie zu Informatiklehrkräften, die nur oberflächliche Kenntnisse zu KI besitzen und nur über sehr generische Präkonzepte verfügen, z. B. zu der Frage, wie die Leistungen bzw. Funktionen von KI-Systemen erklärt werden können. Dabei zeigen sich häufig auch Fehl- oder Misskonzepte.
In einer anderen Studie haben auch Minh Vo & Pancratz (2023) bei Lehramtsstudierenden (ohne das Fach Informatik) teilweise naive Vorstellungen über KI und eine Überschätzung der Möglichkeiten von KI-Systemen erhoben. Auch Velander, Taiye, Otero & Milrad (2023) konstatieren Miss- und Fehlkonzepte zu KI bei Lehrkräften, geringes technisches Wissen und Schwierigkeiten, die Risiken von KI auf KI-Konzepte zurückzuführen. Diese ersten Befunde zeigen, dass der KI-bezogenen Ausbildung von Lehrkräften als Voraussetzung für die unterrichtliche Nutzung und für die Schaffung von KI-bezogenen Bildungsszenarien besonderer Stellenwert zukommt.
Die intransparenten Seiten der KI
Eine Besonderheit von KI-Anwendungen, die auch Auswirkungen auf Bildungszusammenhänge hat, liegt in ihrer Intransparenz (vgl. Herzig, Sarjevski & Hielscher 2023). Analytisch lassen sich drei Arten von Intransparenz unterscheiden.
- Designbasierte Intransparenz bezieht sich auf die Frage, „to what extent […] it [is] possible to design a technical artefact so that it will communicate its ‘proper’ function […] to its potential user?“ (Kroes 2002, S. 297). Es liegt nahe, dass insbesondere Software in ihrer Struktur in der Regel nicht selbsterklärend ist und ihre Funktion an die Nutzer:innen vermittelt werden muss. Eine wichtige Rolle kommt dabei dem Interface zu, über das die Nutzenden Informationen darüber erhalten, welche Funktion die Software erfüllt und welche Interaktionen, etwa zur Dateneingabe, erforderlich sind. Das Interface-Design könnte die Lücke zwischen den in der Struktur angelegten und für die Nutzer:innen nicht offensichtlichen Funktionen schließen, wenn alle Funktionen transparent gemacht würden. Dies geschieht in vielen Fällen jedoch nicht, sodass „hinter dem Interface“ Prozesse ablaufen, die nicht offengelegt werden, z. B. das Sammeln und Auswerten von impliziten Nutzungsdaten. Solche designbasierten Intransparenzen sind vermeidbar, aber vonseiten der Produzierenden zum Teil auch gewünscht.
- Eine zweite Form von Intransparenz kann als algorithmische Intransparenz bezeichnet werden. Komplexe algorithmische Strukturen sind für die Nutzenden – auch bei offenem Quellcode – in der Regel nicht verständlich, d. h. ihre Funktionen nicht zu erschließen. Dies gilt für klassische regelbasierte Algorithmen ebenso wie für das Maschinenlernen. Während klassische Algorithmen mit spezifischen Kenntnissen in ihrer Funktion grundsätzlich erklärbar sind, liegen bei lernenden Algorithmen Intransparenzen in der Natur der Sache. Systeme, die nicht mehr auf expliziten Regeln basieren, sondern die Lösung für eine Problemstellung aus der Analyse von (Trainings-)Daten gewinnen und diese bspw. in neuronalen Netzen als Belegung von Parametern künstlicher Neuronen speichern, können in ihrem Lösungsweg – etwa zur Entscheidungsfindung – nicht mehr im Detail nachvollzogen werden. Dies drückt sich nicht zuletzt darin aus, dass die Ausgabe solcher Systeme mit Wahrscheinlichkeiten versehen ist, mit der eine Aufgabe – wie die Erkennung eines speziellen Gegenstands – richtig gelöst wird.
- Datenbezogene Intransparenz besteht als dritte Form in Bezug auf die für das Training von selbstlernenden Systemen erforderlichen Daten. In der Regel sind die Trainingsdaten nicht dokumentiert und mögliche Verzerrungen, Stereotype, Diskriminierungen und dergleichen in den Daten nicht erkennbar. Die Qualität der Ausgabe von KI-Systemen hängt aber im Wesentlichen von der Qualität der Trainingsdaten ab, sowohl in Bezug auf die Wahrscheinlichkeit, mit der eine Aufgabe fehlerfrei gelöst wird, als auch in Bezug auf mögliche Nebenwirkungen wie z. B. reproduzierte Verzerrungen.
Ein Verständnis grundlegender Funktionen von KI-Systemen und der damit verbundenen Intransparenzen sind eine wichtige Voraussetzung für eine zielführende und lernförderliche Nutzung. Die Vorstellung von einem auf einem Sprachmodell beruhenden Chatbot bspw. als Suchmaschine führt nicht nur zu einer ineffizienten Nutzung, sondern auch zu einer irreführenden Einschätzung der erhaltenen Ergebnisse. So einfach die Bedienung von generativer KI wie ChatGPT auch ist, so hoch sind die Voraussetzungen für eine kompetente Nutzung im Kontext von Lernen und Bildung. Oder anders ausgedrückt: Ein gewisses Maß an Bildung ist die Voraussetzung für die Nutzung von KI zum Lernen, fehlende Voraussetzungen führen eher zur Nutzung von KI anstelle von Lernen. Um Schüler:innen Lern- und Bildungsgelegenheiten zu ermöglichen, entsprechende Kompetenzen zu erwerben, sind aufseiten der Lehrkräfte spezifische KI-bezogene Fähigkeiten erforderlich, die eine Sensibilisierung für Intransparenzen und ihre Folgen beinhalten, aber darüber hinaus noch weitere Kompetenzen umfassen.
KI in der Ausbildung von Lehrkräften
In bildungspolitischen Papieren wird auf breiter Linie eine Integration von KI in die Lehrkräftebildung propagiert (z. B. UNESCO 2019; EU 2023; KMK 2021; Deutscher Ethikrat 2023). Dabei wird vielfach auf bestehende Kompetenzraster Bezug genommen, die um KI-bezogene Kompetenzen ergänzt werden. Diese beziehen sich insbesondere auf technische, ethische, pädagogische und datenbezogene Aspekte (vgl. z. B. Lameras & Arnab 2022). Celik (2023) hat bspw. das bekannte TPACK-Modell als Grundlage herangezogen und die einzelnen Wissensdimensionen um die Nutzung, den Einsatz und die Beurteilung von KI zu einem Intelligent-TPACK-Modell erweitert. In einem anderen Ansatz werden auf der Basis des europäischen Kompetenzrahmens für Lehrkräfte DigCompEdu neue Kompetenzen für die ethische Nutzung von KI und Daten formuliert, die Lehrkräften helfen, „das Potenzial von KI-Anwendungen und Datennutzung in der Bildung zu begreifen und sie für die möglichen Risiken zu sensibilisieren, damit sie in der Lage sind, sich positiv, kritisch und ethisch mit KI-Systemen auseinanderzusetzen und deren Potenzial vollständig auszuschöpfen“ (EU 2022, S. 11). Ähnlich wie in der bisherigen Diskussion um Medienbildung gilt auch hier, dass Lehrkräfte neben medienpädagogischen KI-bezogenen Kompetenzen auch über eigene grundlegende KI-bezogene Kompetenzen verfügen müssen. Dazu sei es nicht erforderlich, dass Lehrkräfte die Funktionsweise von KI-Systemen „vollständig verstehen, sondern vielmehr grundlegende Mechanismen und die Grenzen von KI-Systemen kennen und wissen [müssen]“ (EU 2022, S. 12). Dazu zählen:
- Fundierte Kenntnisse über Künstliche Intelligenz (schwach, stark, regelbasiert, datengetrieben, generativ, Anwendungsbereiche, …)
- Verständnis grundlegender Funktionen von KI-Systemen (maschinelles Lernen, neuronale Netze, automatisierte Empfehlungs- und Entscheidungssysteme, …)
- Einschätzen der gesamtgesellschaftlichen Bedeutung von KI (menschliche vs. maschinelle Intelligenz, Selbstbestimmung und Autonomie, algorithmische Verzerrungen, Datensouveränität, …)
Um eine möglichst hohe Akzeptanz und Einsicht in die Bedeutsamkeit KI-bezogener Kompetenzen zu erzielen, können diese unmittelbar auf die professionsbezogenen Aufgaben von Lehrkräften bezogen werden. Solche typischen Anforderungsbereiche bzw. Handlungsfelder sind Unterrichten, Erziehen, Beraten, Beurteilen und Innovieren. Geht man von diesen aus, lassen sich mit Blick auf KI einzelne Kompetenzbereiche für Lehrkräfte formulieren (siehe Abbildung).
Im Bereich Unterrichten geht es um die Fähigkeit, KI-Anwendungen zur Unterstützung von Lehr- und Lernprozessen einzusetzen und die eigenen didaktischen Handlungs- und Gestaltungsmuster entsprechend weiterzuentwickeln und anzupassen. Mit Blick auf das Erziehen geht es um Kompetenzen, für Schüler:innen Lern- und Bildungsgelegenheiten zu schaffen, die ihnen ein grundlegendes Verständnis von KI(-Anwendungen) ermöglichen sowie eine Einschätzung ihrer gesellschaftlichen Relevanz und Folgen. In den Bereichen Beurteilen und Beraten sind vor allem Fähigkeiten gefragt, KI zur Analyse und Beurteilung von Lernprozessen zu nutzen und datenbasiertes Feedback an Schüler:innen zu geben. Dies schließt auch den rechtssicheren und verantwortlichen Umgang mit Daten ein. Im Handlungsfeld Innovieren sind insbesondere Kompetenzen relevant, die Bedeutung von KI im Rahmen von Schulentwicklungsprozessen einschätzen zu können und auf den Ebenen der Personal- und Organisations- sowie Infrastrukturentwicklung verantwortlich und reflektiert zu nutzen.
Facetten KI-bezogener Handlungsbereiche und Kompetenzen von Lehrkräften
KI-spezifische Entwicklungen fordern Auseinandersetzung
Die – ohne Anspruch auf Vollständigkeit – formulierten KI-bezogenen Anforderungen an Lehrkräfte zeigen, dass KI in allen Bereichen professioneller Tätigkeiten von Lehrkräften eine Rolle spielt. Die Hinweise auf KI-spezifische Intransparenzen machen deutlich, dass eine fundierte Auseinandersetzung mit technischen, sozialen und ethischen Aspekten Künstlicher Intelligenz die Grundlage für die didaktische, erzieherische und schulentwicklungsbezogene Arbeit mit und über KI in der Schule ist. Allerdings sind die KI-bezogenen Kompetenzen trotz ihrer Spezifik nicht isoliert zu betrachten, sondern in Verbindung mit medienpädagogischen respektive digitalisierungsbezogenen Kompetenzen. Auch wenn die genannten Systeme, z. B. zur Analyse von Schüler:innenleistungen, noch kein schulischer Alltag sind, sollte die Lehrkräftebildung sie frühzeitig in die Ausbildung integrieren, um nicht nur reaktiv, sondern auch gestaltend Wirkung zu entfalten.
Literatur
Celik, I. (2023): Towards Intelligent-TPACK: An empirical study on teachers’ professional knowledge to ethically integrate artificial intelligence (AI)-based tools into education. In: Computers in Human Behavior 138, Artikel 107468. https://doi.org/10.1016/j.chb.2022.107468
Deutscher Ethikrat (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
EU (Europäische Kommission, Generaldirektion Bildung, Jugend, Sport und Kultur) (2023): Proposal for a Council Recommendation on the key enabling factors for successful digital education and training. Veröffentlichungen der Europäischen Union, COM/2023/205. https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=COM:2023:205:FIN
EU (Europäische Kommission, Generaldirektion Bildung, Jugend, Sport und Kultur) (2022): Ethische Leitlinien für Lehrkräfte über die Nutzung von KI und Daten für Lehr- und Lernzwecke. Amt für Veröffentlichungen der Europäischen Union. https://data.europa.eu/doi/10.2766/494
Herzig, B., Sarjevski, E. & Hielscher, D. (2022): Algorithmische Entscheidungssysteme und digitale Souveränität. In: Medien + Erziehung. Zeitschrift für Medienpädagogik 66/6, S. 95-106
Hwang, G.-J., Xie, H., Wah, B. W. & Gašević, D. (2020): Vision, challenges, roles and research issues of Artificial Intelligence in Education. In: Computers and Education: Artificial Intelligence 1, S. 1-5. https://doi.org/10.1016/j.caeai.2020.100001
Kim, S., Jang, Y., Choi, S., Kim, W., Jung, H., Kim, S. & Kim, H. (2021): Analyzing Teacher Competency with TPACK for K‐12 AI Education. In: KI – Künstliche Intelligenz 35, S. 139-151. https://doi.org/10.1007/s13218-021-00731-9
KMK (Kultusministerkonferenz) (2021): Lehren und Lernen in der digitalen Welt: Die ergänzende Empfehlung zur Strategie „Bildung in der digitalen Welt“. https://www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/2021/2021_12_09-Lehren-und-Lernen-Digi.pdf
Kroes, P. (2002): Design methodology and the nature of technical artefacts. In: Design Studies 23, S. 287-302
Lameras, P. & Arnab, S. (2022): Power to the Teachers: An Exploratory Review on Artificial Intelligence in Education. In: Information 13/1,. https://doi.org/10.3390/info13010014
Lindner, A. & Berges, M. (2020): Can you explain AI to me? Teachers’ pre-concepts about Artificial Intelligence. In: Institute of Electrical and Electronics Engineers (IEEE) (Hrsg.), 2020 IEEE Frontiers in Education Conference (FIE), Uppsala. https://doi.org/10.1109/FIE44824.2020.9274136
Minh Vo, G. M. & Pancratz, N. (2023): Vorstellungen von Lehramtsstudierenden zu künstlicher Intelligenz. In: L. Hellmig & M. Hennecke (Hrsg.), INFOS 2023 – Informatikunterricht zwischen Aktualität und Zeitlosigkeit (S. 73-82). Bonn: Gesellschaft für Informatik e. V. https://doi.org/10.18420/infos2023-005
Rietz, C. & Völmicke, E. (2020): Künstliche Intelligenz und das deutsche Schulsystem. Warum es das Wissen um die Algorithmen braucht. In: A. T. von Hattburg & M. Schäfer (Hrsg.), Digitalpakt – was nun? Ideen und Konzepte für zukunftsorientiertes Lernen (S. 89-96). Wiesbaden: Springer
UNESCO (Hrsg.) (2019): Beijing Consensus on Artificial Intelligence and Education. UNESDOC Digital Library. https://unesdoc.unesco.org/ark:/48223/pf0000368303
Velander, J., Taiye, M. A., Otero, N. & Milrad, M. (2023): Artificial Intelligence in K-12 Education: eliciting and reflecting on Swedish teachers’ understanding of AI and its implications for teaching & learning. In: Education and Information Technologies 29, S. 4085-4105. https://doi.org/10.1007/s10639-023-11990-4