Gastbeitrag
Spaltet KI unsere Gesellschaft? Chancen und Risiken aus inklusionstheoretischer Perspektive
von
veröffentlicht am 05.11.2025
Lesezeit: 9 Minuten
Künstliche Intelligenz eröffnet neue Möglichkeiten für eine inklusivere Bildung, kann jedoch zugleich bestehende digitale und soziale Ungleichheiten vertiefen. Der sogenannte AI Divide verweist auf die wachsende Kluft zwischen jenen, die von KI-Anwendungen profitieren, und jenen, die von deren Nutzung ausgeschlossen bleiben – mit weitreichenden Folgen für Bildungsgerechtigkeit und Teilhabe.
Künstliche Intelligenz (KI; Artificial Intelligence, AI) bezeichnet Computersysteme, die menschenähnliche kognitive Aufgaben wie maschinelles Lernen, Sprachverarbeitung oder prädiktive Analysen ausführen (Crawford 2021). Large Language Models (LLMs) sind großskalige Sprachmodelle zur Verarbeitung und Generierung natürlicher Sprache (Kasneci et al. 2023). Mit ihrer raschen Verbreitung steigen Erwartungen an den Einsatz in inklusiver Bildung (z. B. OECD 2024), zugleich warnen Studien vor der Reproduktion beziehungsweise Verstärkung sozialer Ungleichheiten (z. B. Al-Zahrani 2024; Chemnad & Othman 2024; Dieterle, Dede & Walker 2022; Eder & Sjøvaag 2024; Mgala 2024). Damit rücken Fragen der digitalen Spaltung – der Digital Divide beziehungsweise Digital Gap – ins Zentrum der Diskussion: Wer profitiert von KI, und wer bleibt zurück?
Digitale Spaltung im Zeitalter von KI: Der emergierende „AI Divide”
Digitale Spaltung oder Digital Divide bezeichnet die Kluft zwischen Personen mit und ohne Zugang, Kompetenzen und Verwertungschancen digitaler Technologien (van Dijk 2020; Verständig, Klein & Iske 2016) und ist eng mit sozialer Ungleichheit verflochten.
Was ist der Digital Divide?
Nach van Dijk (2020) beschreibt die digitale Kluft nicht nur Unterschiede beim Zugang zu Geräten, sondern gliedert sich in vier Ebenen:
- Motivationale Zugänge:
Sind Menschen überhaupt bereit, digitale Medien zu nutzen (erkennen sie z. B. den Nutzen oder haben ggf. Angst davor)? - Physischer Zugang:
Sind Geräte und Zugänge verfügbar? - Kompetenzen:
Habe die Menschen die Fähigkeiten, digitale Medien sachgerecht und kritisch zu bedienen? - Nutzung:
Werden digitale Technologien in Alltag, Bildung, Arbeit und Gesellschaft tatsächlich verwendet?
Diese Ebenen bestimmen gemeinsam die Chancen auf gesellschaftliche Teilhabe.
Mit dem Aufkommen leistungsfähiger KI-Technologien zeichnet sich nun eine neue Dimension der digitalen Spaltung, der AI Divide ab (Carter, Liu & Cantrell 2020). Darunter versteht man Ungleichheiten, die speziell aus der Verbreitung von KI resultieren und als Teilbereich digitaler Ungleichheit gelten. Wang, Boerman, Kroon, Möller und de Vreese (2025) warnen, dass ein KI-bedingter Graben langfristig sozioökonomische Probleme verschärfen und die gesellschaftliche Nachhaltigkeit gefährden könnte.
Was ist der AI Divide?
Der Begriff AI Divide bezeichnet soziale Ungleichheiten im Umgang mit Künstlicher Intelligenz. Aufbauend auf dem Modell des Digital Divide unterscheiden Carter er al. (2020) drei Ebenen:
- Zugangsebene (first-level-divide): Wer hat überhaupt Zugang zu KI-Technologien (z. B. Verfügbarkeit von Tools, Geräten, Infrastruktur)?
- Kompetenzebene (second-level-divide): Wer verfügt über Wissen und Fähigkeiten, um KI sinnvoll zu nutzen?
- Ergebnisebene (third-level-divide): Wer profitiert von der Nutzung von KI, und wer bleibt zurück?
Diese Kluft kann sich sowohl auf individueller Ebene (z. B. Lernende, Lehrkräfte), als auch auf institutioneller (z. B. Schulen, Universitäten) oder gesellschaftlicher Ebene (z. B. Länder) zeigen. Besonders bedeutsam sind neben reinem Zugang auch Einstellungen, Überzeugungen und Haltungen gegenüber KI, die die Nutzungschancen prägen.
Der AI Divide ist keine bloße Fortschreibung des klassischen Digital Divide, sondern eine komplexe doppelte Spaltung (Autenrieth, Schluchter & Schulz 2025; Hendawy 2024).
Einerseits setzt sich die digitale Spaltung fort: Zugang zu Infrastruktur, Endgeräten und Software bleibt ungleich verteilt, ebenso Kompetenzen zur Nutzung und die daraus resultierenden Chancen für Bildung und Teilhabe (Carter, Liu & Cantrell 2020). Andererseits entstehen systeminterne Ungleichheiten: KI-Modelle werden auf Daten trainiert, die Verzerrungen (Biases) enthalten oder bestimmte Gruppen unterrepräsentieren. So reproduzieren und verstärken sie Diskriminierungen. Zudem liegt Entwicklung und Kontrolle von KI bei privilegierten Akteuren. Es droht ein Lock-in ihrer Werte, während marginalisierte Perspektiven ausgeschlossen bleiben (Autenrieth, Schluchter & Schulz 2025).
Dieterle, Dede und Walker (2022) beschreiben den AI Divide als Zusammenspiel mehrerer Ebenen (siehe Abbildung 1): Mangelnde Repräsentativität erzeugt algorithmische Verzerrungen, die Fehlinterpretationen, Stigmatisierungen und Ungleichheiten verstärken. Zugleich bleiben Ressourcen und digitale Kompetenzen ungleich verteilt. Es entsteht ein sich selbst verstärkender Kreislauf. Zugleich betonen die Autor:innen, dass diese Dimensionen auch in einem positiven Zyklus wirken können: Diversität, Zugänglichkeit, inklusive Algorithmen und reflektierte Deutungen können Bildungsgerechtigkeit, Inklusion und Teilhabe fördern.
Zyklische Effekte des Einsatzes von KI in der Bildung (nach Dieterle, Dede & Walker 2022, übersetzt und angepasst in Schulz 2025)
Ob daraus Ausschluss oder Teilhabe erwächst, ist eine Frage der Gestaltung. Die folgenden ausgewählten Potenziale markieren Ansatzpunkte zur Verringerung der digitalen Spaltung.
Potenziale von KI für inklusive Bildung
Trotz dieser Risiken bietet KI erhebliche Chancen, Bildung inklusiver zu gestalten und digitale wie soziale Disparitäten zu verringern. Sie könnte den Informationszugang verbessern, Lernen personalisieren und digitale Inklusion fördern (Božić 2023). KI-Anwendungen könnten heterogene Lernbedürfnisse besser berücksichtigen und Unterstützung individueller zuschneiden als herkömmliche Angebote. Ein zentrales Versprechen liegt damit in der Personalisierung des Lernens. KI-gestützte Lernplattformen können große Datenmengen über Lernende analysieren und darauf basierend adaptive Lernpfade anbieten. So lassen sich Lerninhalte an Tempo, Vorkenntnisse und Bedürfnisse einzelner Schüler:innen anpassen.
Zudem kann KI dazu beitragen, Barrierefreiheit zu verbessern. KI-basierte Assistenztechnologien eröffnen neue Bildungszugänge. Sprachassistenz, Gestenerkennung und automatische Untertitelung ermöglichen Lernenden mit motorischen, Seh- oder Hörbeeinträchtigungen die Nutzung digitaler Bildungsangebote (Schulz & Schmid-Meier 2024). Beispiele sind Spracherkennungssysteme (Sprache zu Text) oder Text-to-Speech-Generatoren (Text zu Sprache). KI kann auch sprachliche und kulturelle Hürden abbauen. Automatische Übersetzungen, mehrsprachige Chatbots oder Sprachlern-Apps erleichtern Lernenden mit anderen Erstsprachen den Zugang zum Bildungsprozess (Heiden 2024).
Nicht zuletzt eröffnet KI auch indirekte Chancen zur Förderung von Inklusion, indem sie Ungleichheiten jenseits des Klassenzimmers adressiert. So könnten KI-Systeme gegebenenfalls durch vorausschauende Analysen im Schulmanagement helfen, Ressourcen gerechter zu verteilen, oder durch Früherkennung (zum Beispiel von Lernproblemen) gezielte Fördermaßnahmen auslösen. Diese mittelbaren Effekte verdeutlichen, dass KI – eingebettet in umfassendere Inklusionsstrategien – ein Katalysator für positive Veränderungen sein könnte. Wichtig ist dabei stets, dass KI-Anwendungen bewusst auf Inklusionsziele ausgerichtet und entsprechend gestaltet werden. Doch dieselben Mechanismen erzeugen unter ungünstigen Rahmenbedingungen neue Ausschlüsse.
Herausforderungen: Risiken und Grenzen
Den genannten Potenzialen stehen erhebliche Herausforderungen gegenüber. Ohne bewusste Steuerung könnte KI Ungleichheiten im Bildungsbereich nicht nur reproduzieren, sondern verschärfen. Ein erster Problemkomplex betrifft die ungleiche Verteilung von Zugang und Kompetenzen. Hochentwickelte KI-Systeme erfordern teure Infrastruktur und Fachpersonal. Wohlhabende Schulen oder Länder des globalen Nordens können KI leichter implementieren als ressourcenschwache Schulen oder Regionen (Božić 2023; Carter, Liu & Cantrell 2020). Es droht eine Schere zwischen digital fortgeschrittenen und ressourcenschwachen Bildungssettings. Zudem erfordert der effektive KI-Einsatz digitale Kompetenzen bei Lehrkräften und Lernenden. Nicht alle besitzen die nötigen Fähigkeiten, KI-Tools sinnvoll zu nutzen oder kritisch zu hinterfragen. Dieser Skill Gap könnte die digitale Spaltung vertiefen. Nötig sind Investitionen in Aus- und Weiterbildung, um AI Literacy breit zu fördern.
»Ohne bewusste Steuerung könnte KI Ungleichheiten im Bildungsbereich nicht nur reproduzieren, sondern verschärfen.«
Ein weiteres zentrales Risiko sind inhärente Verzerrungen und Diskriminierungen durch KI-Systeme. KI übernimmt die Biases ihrer Trainingsdaten: Sind marginalisierte Gruppen unterrepräsentiert oder Vorurteile enthalten, kann sie diskriminierende Entscheidungen „lernen“. Es bedarf daher erheblicher Anstrengungen, KI-Systeme fair und transparent zu gestalten – von diverseren Trainingsdaten bis zu Audit-Verfahren, die Verteilungseffekte prüfen (Božić 2023).
Ein zentraler Einwand gegen Technikeuphorie in der Bildung ist der Vorwurf des Technosolutionismus (Morozov 2013). Damit ist die Haltung gemeint, komplexe soziale Probleme ließen sich rein technologisch lösen. Im Kontext inklusiver Bildung hieße das, KI-Systeme könnten automatisch Inklusion umsetzen, ohne beispielsweise an Unterrichtsprinzipien, Haltung und Schulentwicklung zu arbeiten. Morozov (2013) kritisiert, dass ein solcher Solutionismus strukturelle Ursachen von Ungleichheit ausblendet und kontraproduktiv sei.
Technosolutionismus
Technosolutionismus bezeichnet die Vorstellung, komplexe Probleme primär technologisch lösen zu können. Dabei werden soziale, politische und kulturelle Dimensionen oft ausgeblendet.
Autenrieth, Schluchter und Schulz (2025) wenden sich gegen technologischen Solutionismus und gegen Technoableismus, der die Belange von Menschen mit Behinderungen auf technische Hilfsmittel reduziert. Sie betonen, die Entwicklung und der Einsatz von KI müssten kritisch hinterfragt und mit inklusionsorientierten Bildungsprozessen verzahnt werden. Die Vorstellung, KI könne als „Heilsversprechen” sämtliche Behinderungen überwinden, stellt eine besonders subtile Form der Diskriminierung dar – sie wird als Technoableismus bezeichnet (Kent, Ellis, Latter & Peaty 2017).
Technoableismus
Technoableismus meint die Vorstellung, Technologien könnten Behinderungen „überwinden“ oder „reparieren“. Damit wird Behinderung oft als Defizit gefasst, statt als gesellschaftlich-kulturelle Konstruktion im Sinne der Disability Studies.
KI in der inklusiven Bildung entfaltet ihren Nutzen nicht automatisch, sondern bedarf einer bewussten didaktischen Integration, klarer Nutzer:innenschulung und begleitender Reflexion (Bulathwela, Pérez-Ortiz, Holloway, Cukurova & Shawe-Taylor 2024; Schmid-Meier & Schulz 2025).
AI for Inclusion oder AI Divide – Gestaltung entscheidet über Teilhabe
KI im Bildungsbereich bewegt sich zwischen verheißungsvollen Perspektiven und spaltungsgefährdenden Effekten für die Bildungsgerechtigkeit. Welche Seite dominiert, entscheidet die jeweilige Gestaltung. Einerseits kann KI inklusivere Lernumgebungen schaffen, indem sie Unterstützung personalisiert, Zugänge erweitert und Benachteiligungen abbaut. Andererseits droht ohne Maßnahmen ein wachsender AI Divide, der soziale Ungleichheiten zementiert. Ob KI zur Chance oder zum Risiko für inklusive Bildung wird, hängt somit maßgeblich von unserem Umgang mit ihr ab. Für eine zukunftsfähige, gerechte Bildung im KI-Zeitalter sind ganzheitliche Strategien nötig. Technische Lösungen müssen in pädagogische Konzepte eingebettet sein, die Diversität wertschätzen und alle Lernenden mitnehmen. Es gilt, Inklusion als Leitprinzip bei der Entwicklung und Implementierung von KI-Systemen zu verankern (Autenrieth, Schluchter & Schulz 2025). Bildungsprozesse sollten Lernende befähigen, KI kritisch zu hinterfragen und aktiv mitzugestalten – im Sinne transformativer Bildung, die nicht nur Anpassung, sondern Mitbestimmung fördert (Autenrieth, Schluchter & Schulz 2025; Mezirow 1997).
»Ob KI zur Chance oder zum Risiko für inklusive Bildung wird, hängt somit maßgeblich von unserem Umgang mit ihr ab.«
Auch politisch-institutionell sind flankierende Maßnahmen nötig. Ethische Leitlinien und Regulierungen müssen sicherstellen, dass KI Bildungsgerechtigkeit fördert statt sie zu unterlaufen. Transparenz, Rechenschaftspflicht und Datenschutz müssen verbindlich verankert sein, besonders bei sensiblen Lerndaten. Gleichzeitig sind Investitionen notwendig, um infrastrukturelle und personelle Voraussetzungen an allen Bildungseinrichtungen zu schaffen, sonst bleibt der Zugang ungleich.
Zusammengefasst bietet KI große Chancen für inklusivere Bildung, wenn ihre Einführung kritisch-reflexiv erfolgt und soziale Dimensionen nicht Technikdeterminismus geopfert werden. Die Herausforderung besteht darin, die digitale Spaltung nicht weiter wachsen zu lassen, sondern KI gezielt einzusetzen, um Bildungsungleichheiten abzubauen. Gelingt dies, so kann KI im Sinne „AI for Inclusion” zu einem wertvollen Werkzeug für mehr Teilhabe und Bildungsgerechtigkeit werden. Bildungspolitik, Wissenschaft und Praxis müssen diesen Pfad weitsichtig und verantwortungsvoll gestalten, damit KI Teil der Lösung und nicht des Problems wird.
Literatur
Al-Zahrani, A. M. (2024): Unveiling the shadows: Beyond the hype of AI in education. In: Heliyon 10/9, e30696. https://doi.org/10.1016/j.heliyon.2024.e30696
Autenrieth, D., Schluchter, J.-R. & Schulz, L. (2025): AI is all you need? Künstliche Intelligenz, gesellschaftliche Teilhabe und Perspektiven transformativer Bildung auf die Herausforderungen eines AI Divide. https://www.inklusion-online.net/index.php/inklusion-online/article/view/xxx
Božić, V. (2023): Artifical Intelligence as the Reason and the Solution of Digital Divide. In: Language Education and Technology 3/2. https://langedutech.com/letjournal/index.php/let/article/view/53
Bulathwela, S., Pérez-Ortiz, M., Holloway, C., Cukurova, M. & Shawe-Taylor, J. (2024): Artificial Intelligence Alone Will Not Democratise Education: On Educational Inequality, Techno-Solutionism and Inclusive Tools. In: Sustainability 16/2, 781. https://doi.org/10.3390/su16020781
Carter, L., Liu, D. & Cantrell, C. (2020): Exploring the intersection of the digital divide and artificial intelligence: A hermeneutic literature review. In: AIS Transactions on Human-Computer Interaction 12/4, S. 253-275
Chemnad, K. & Othman, A. (2024): Digital accessibility in the era of artificial intelligence-Bibliometric analysis and systematic review. PubMed. https://pubmed.ncbi.nlm.nih.gov/38435800
Crawford, K. (2021). The Atlas of AI. Yale University Press. https://doi.org/10.2307/j.ctv1ghv45t
Dieterle, E., Dede, C. & Walker, M. (2022): The cyclical ethical effects of using artificial intelligence in education. In: AI & Society 39/2, S. 633-643 https://doi.org/10.1007/s00146-022-01497-w
van Dijk, J. (2020): The Digital Divide. Cambridge, UK: Polity Press
Eder, M. & Sjøvaag, H. (2024): Frontiers. Artificial intelligence and the dawn of an algorithmic divide. https://doi.org/10.3389/fcomm.2024.1453251
Heiden, A. (2024): Mehrsprachigkeit und Künstliche Intelligenz: Chancen und Herausforderungen in der Lehrer*innenbildung. In: k:ON – Kölner Online Journal für Lehrer*innenbildung 8/8, S. 312-327. https://doi.org/10.18716/ojs/kON/2024.19
Hendawy, M. (2024): The intensified digital divide: Comprehending GenAI. https://policyreview.info/articles/news/intensified-digital-divide-comprehending-genai/1772
Kasneci, E., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E., Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., Stadler, M., Weller, J., Kuhn, J. & Kasneci, G. (2023): ChatGPT for good? On opportunities and challenges of large language models for education. In: Learning and Individual Differences 103, 102274. https://doi.org/10.1016/j.lindif.2023.102274
Kent, M., Ellis, K., Latter, N. & Peaty, G. (2017). The Case for Captioned Lectures in Australian Higher Education. In: TechTrends 62. https://doi.org/10.1007/s11528-017-0225-x
Mezirow, J. (1997): Transformative Learning: Theory to Practice. In: New Directions for Adult and Continuing Education 74, S. 5-12. https://doi.org/10.1002/ace.7401
Mgala, M. (2024): A Critical Analysis of Artificial Intelligence Tools in Education: A Blessing or a Curse? In: Multidisciplinary Journal of Technical University of Mombasa 3/2, S. 1-18. https://doi.org/10.48039/mjtum.v3i2.78
Morozov, E. (2013): To Save Everything, Click Here: The Folly of Technological Solutionism. PublicAffairs
OECD (2024): The potential impact of Artificial Intelligence on equity and inclusion in education (OECD Artificial Intelligence Papers, Bd. 23). https://doi.org/10.1787/15df715b-en
Schmid-Meier, C. & Schulz, L. (2025): Exploring the Inclusive Potential of AI Chatbots: Engagement and Barriers in Foreign Language Training. In: M. Antona & C. Stephanidis, (Hrsg.), Universal Access in Human-Computer Interaction. HCII 2025 (Lecture Notes in Computer Science vol. 15780). Springer: Cham. https://doi.org/10.1007/978-3-031-93848-1_25
Schulz, L. & Schmid-Meier, C. (2024): Assistive Technologien und Künstliche Intelligenz: Ein KI-Kompetenzmodell zum Einsatz im Klassenzimmer. In: #schuleverantworten 4/1. https://doi.org/10.53349/schuleverantworten.2024.i1.a397
Verständig, D., Klein, A. & Iske, S. (2016): Zero-Level Digital Divide. Neues Netz und neue Ungleichheiten. In: Siegen:Sozial 21/1, S. 50-55
Wang, C., Boerman, S. C., Kroon, A. C., Möller, J. & de Vreese, C. H. (2025): The artificial intelligence divide: Who is the most vulnerable? In: New Media & Society 27/7, S. 3867–3889. https://doi.org/10.1177/14614448241232345