Digital

KI in der Schule: Verbieten oder nutzen?

Wie deutsche Schulen mit ChatGPT & Co umgehen

Von Markus Bauer 8 Min. Lesezeit Aktualisiert: 07.05.2026
KI in der Schule: Verbieten oder nutzen?

Rund 68 Prozent der deutschen Schülerinnen und Schüler zwischen 14 und 19 Jahren haben laut einer aktuellen Bitkom-Erhebung bereits mindestens einmal einen KI-Chatbot für schulische Aufgaben genutzt — und die meisten davon ohne ausdrückliche Erlaubnis ihrer Lehrkräfte. Die Frage, ob künstliche Intelligenz im Klassenzimmer verboten oder aktiv eingebunden werden soll, hat sich damit längst von einer theoretischen Debatte zu einem handfesten Praxisproblem entwickelt.

Das Dilemma: Technologie, die nicht wartet

ChatGPT, das Sprachmodell des US-amerikanischen Unternehmens OpenAI, hat seit seinem öffentlichen Start eine Geschwindigkeit der Verbreitung erreicht, mit der keine Bildungsbehörde der Welt mithalten konnte. Innerhalb weniger Monate war das Tool in deutschen Schulen allgegenwärtig — nicht weil Schulleitungen es eingeführt hatten, sondern weil Schülerinnen und Schüler es schlicht mitbrachten. Auf ihren Smartphones, in Browsertabs, heimlich in Prüfungsphasen.

Dabei ist ein KI-Chatbot, vereinfacht erklärt, ein Computerprogramm, das auf Basis riesiger Textmengen trainiert wurde und in der Lage ist, menschlich klingende Antworten auf nahezu jede Frage zu formulieren. Es „versteht" keine Inhalte im menschlichen Sinne, sondern errechnet statistische Wahrscheinlichkeiten, welches Wort als nächstes sinnvoll erscheint. Das klingt nüchtern — doch das Ergebnis ist ein Werkzeug, das Hausarbeiten schreibt, Matheaufgaben löst, Gedichtanalysen formuliert und Referate strukturiert, oft auf einem Niveau, das Lehrkräfte zunächst nicht als maschinell erzeugt erkennen.

Die Kultusministerkonferenz (KMK) reagierte mit Orientierungsrahmen statt verbindlichen Regeln. Die Bundesländer entwickelten eigene Strategien — mit dem Ergebnis, dass in Deutschland heute ein Flickenteppich aus Verboten, Duldungen und ersten Pilotprojekten existiert. Bayern etwa erlaubt KI-Tools in bestimmten Unterrichtskontexten unter Aufsicht, während andere Bundesländer noch auf Einzelschulebene entscheiden lassen. Eine bundeseinheitliche Linie fehlt bis heute.

Kerndaten: 68 % der deutschen Schüler zwischen 14 und 19 Jahren haben laut Bitkom bereits KI-Chatbots für schulische Zwecke genutzt. Weltweit setzen laut Gartner derzeit mehr als 47 % der Bildungseinrichtungen in westlichen Industriestaaten KI-gestützte Tools zumindest in Pilotprojekten ein. Statista zufolge wird der globale Markt für KI im Bildungsbereich auf über 20 Milliarden US-Dollar geschätzt. In Deutschland haben nach einer IDC-Analyse weniger als 12 % der Schulen bislang verbindliche Richtlinien zum Umgang mit generativer KI erlassen.

Was Schulen konkret tun — und was sie lassen

Die Reaktionen deutscher Schulen lassen sich grob in drei Kategorien einteilen: vollständiges Verbot, geduldete Grauzone und aktive Integration. Alle drei Ansätze haben Verfechter — und alle drei haben messbare Schwächen.

Das Verbot ist die einfachste Antwort, aber kaum durchsetzbar. Wer kontrolliert, ob ein 16-Jähriger sein Aufsatzthema nicht doch heimlich in ChatGPT eingegeben hat? KI-Detektionstools wie Turnitin oder GPTZero versprechen, maschinell erstellte Texte zu erkennen, liefern jedoch eine beunruhigend hohe Fehlerquote — sowohl falsch-positive als auch falsch-negative Ergebnisse. Lehrkräfte berichten, dass sie zunehmend daran scheitern, KI-generierte Texte zuverlässig zu identifizieren. Das Verbot schafft so eine Situation, in der ehrliche Schülerinnen und Schüler benachteiligt werden könnten, während versierte Nutzer das System unterlaufen.

Die Grauzone ist die am weitesten verbreitete Realität. Lehrer wissen, dass Schüler KI nutzen, aber es gibt keine klaren Regeln, wann das legitim ist und wann es als Täuschungsversuch gilt. Das erzeugt Unsicherheit auf beiden Seiten. Kann ich KI nutzen, um meinen Aufsatz zu überarbeiten? Um eine Gliederung zu erstellen? Um mir schwierige Begriffe erklären zu lassen? Solche Fragen bleiben oft ungeklärt.

Aktive Integration wiederum setzt voraus, dass Lehrkräfte selbst ausreichend mit den Tools vertraut sind — eine Voraussetzung, die flächendeckend nicht erfüllt ist. Laut Bitkom fühlt sich weniger als ein Viertel der deutschen Lehrerinnen und Lehrer ausreichend vorbereitet, um KI kompetent in den Unterricht einzubinden. Für weiterführende Erfahrungsberichte aus dem Schulalltag lohnt sich der Blick auf KI im Unterricht: Erste Erfahrungen aus deutschen Schulen, wo Lehrkräfte von konkreten Unterrichtsszenarien berichten.

Pilotprojekte: Was bisher funktioniert

Einige Schulen haben den Sprung gewagt und berichten von ersten Erkenntnissen. In Hamburg experimentieren mehrere Gymnasien damit, KI als „Schreibassistenten" offen im Deutschunterricht einzusetzen — aber mit einer klaren Regel: Der Entstehungsprozess muss dokumentiert werden. Schülerinnen und Schüler legen dar, welche Teile sie selbst verfasst haben und wie sie KI-Vorschläge bewertet, verändert oder verworfen haben. Das verschiebt den Fokus von der Fehlerlosigkeit des Endprodukts hin zur Reflexionsfähigkeit — eine pädagogisch durchaus sinnvolle Verschiebung.

In Baden-Württemberg wird in einem Pilotprogramm erprobt, wie KI-Tutoren schwächeren Schülerinnen und Schülern individuelle Förderung bieten können — auf einem Niveau, das kein Lehrer mit 30 Kindern im Klassenraum leisten könnte. Erste Rückmeldungen sind positiv, aber die Datenschutzfragen sind noch nicht vollständig gelöst: Welche Daten fließen zu welchen Servern? Wer hat Zugriff auf das Lernverhalten eines Kindes?

Diese Frage ist nicht trivial. Gartner warnt in seiner aktuellen Analyse des Bildungstechnologiemarkts ausdrücklich davor, KI-Tools einzusetzen, ohne zuvor transparente Datenschutzrichtlinien zu etablieren. Gerade bei minderjährigen Nutzern gelten in Europa besonders strenge DSGVO-Anforderungen, die viele kommerzielle KI-Anbieter noch nicht vollständig erfüllen.

Die Anbieter und ihre Angebote im Vergleich

Der Markt für KI-Tools im Bildungsbereich wächst rasant. Neben den allgemeinen Sprachmodellen gibt es zunehmend spezialisierte Angebote für Schulen. Ein Überblick:

schule, verbieten, nutzen
Bildmaterial: ZenNews24 Mediathek

Anbieter Produkt Kernfunktion für Schulen Datenschutz (DSGVO) Kosten
OpenAI ChatGPT (inkl. Edu-Version) Textgenerierung, Erklärungen, Aufgabenunterstützung Eingeschränkt; EU-Server-Option in Prüfung Freemium; kostenpflichtige Schullizenz
Google Gemini for Education Integration in Google Workspace, Aufsatzhilfe, Recherche Über Google Workspace for Education geregelt Ab kostenlosen Basistarifen für Schulen
Microsoft Copilot for Education (Azure-basiert) Office-Integration, Schreibhilfe, Feedback-Funktion DSGVO-konformes EU-Datenhosting möglich Über Microsoft 365 Education lizenziert
Fobizz (dt. Anbieter) KI-Tools für Lehrkräfte Unterrichtsplanung, Differenzierung, DSGVO-konformes Interface Explizit DSGVO-konform, Server in Deutschland Kostenpflichtig, Schullizenzen verfügbar
Khanmigo (Khan Academy) KI-Tutor Individuelles Lernen, Sokrates-Methode (Fragen statt Antworten) US-basiert; DSGVO-Konformität eingeschränkt Teils kostenlos, Lizenz für Schulen

Was die Tabelle deutlich macht: Der einzige in der Auflistung explizit DSGVO-konforme und in Deutschland gehostete Anbieter ist Fobizz — ein Nischenanbieter, der weniger mediale Aufmerksamkeit erhält als die großen amerikanischen Konzerne, aber in Datenschutzdiskussionen häufig als Referenz genannt wird. IDC prognostiziert, dass europäische und insbesondere deutsche Anbieter in den nächsten Jahren Marktanteile gewinnen werden, gerade weil das Datenschutzargument in Bildungseinrichtungen zunehmend gewichtet wird.

Das pädagogische Kernproblem

Hinter der technologischen Debatte verbirgt sich eine grundsätzlichere Frage: Was soll Schule eigentlich leisten? Wenn ein KI-System innerhalb von Sekunden einen korrekten Aufsatz über Goethes Faust generieren kann, wozu braucht ein Schüler dann noch das handwerkliche Schreiben? Die Antwort darauf ist nicht simpel — und sie fällt je nach pädagogischer Überzeugung unterschiedlich aus.

Eine Position lautet: Das Schreiben selbst ist der Lernprozess. Wer nicht selbst formuliert, strukturiert, überarbeitet und scheitert, hat keine kognitive Auseinandersetzung mit dem Stoff. KI umgeht diesen Prozess und verhindert damit echtes Lernen. Diese Position hat empirische Grundlage: Kognitionswissenschaftler betonen seit Jahrzehnten, dass das Abrufen und Formulieren von Wissen ein zentraler Teil der Gedächtnisbildung ist — ein Vorgang, den KI-Nutzung kurzschließt.

Die Gegenposition lautet: Kompetenz im Umgang mit KI ist selbst eine Schlüsselqualifikation des 21. Jahrhunderts. Wer heute nicht lernt, Prompts (also Eingaben an ein KI-System) präzise zu formulieren, Ergebnisse kritisch zu bewerten und KI-Output sinnvoll zu integrieren, wird auf dem Arbeitsmarkt benachteiligt sein. Diese Sicht hat ebenfalls Substanz: Berufsbilder verändern sich, und die Fähigkeit, mit KI-Werkzeugen produktiv umzugehen, gilt laut Gartner als eine der meistgefragten Kompetenzen in Stellenausschreibungen technologieaffiner Branchen.

Beide Positionen schließen sich nicht zwingend aus — aber sie verlangen unterschiedliche Unterrichtskonzepte. Und genau daran mangelt es: an konkreten, praxistauglichen Konzepten, die Lehrkräfte ohne monatelange Fortbildung umsetzen können.

Betrug, Kontrolle und die Grenzen der Detektion

Ein Thema, das in der Schuldebatte stärker in den Vordergrund rückt, ist die gezielte Nutzung von KI zur Täuschung — also das klassische „Abschreiben", digital transformiert. Das Phänomen ist nicht auf Schulen beschränkt: Auch im Gaming-Bereich etwa verändert KI die Regeln des Betrugs fundamental, wie der Artikel über KI-Cheating im Gaming und den Kampf der Anti-Cheat-Systeme zeigt. Die Parallelität ist strukturell: In beiden Fällen nutzen Akteure KI, um Systeme auszuhebeln, die auf menschlicher Leistung basieren.

Im Schulkontext ist die Lage besonders heikel, weil KI-Detektionstools rechtlich riskant sind. Mehrere Fälle in den USA haben gezeigt, dass Schülerinnen und Schüler fälschlicherweise des KI-Betrugs bezichtigt wurden, obwohl sie ihre Texte selbst verfasst hatten. Detektoren arbeiten mit Wahrscheinlichkeitswerten, nicht mit Gewissheit — und das reicht für Sanktionen in einem Rechtsstaat nicht aus. Bildungsrechtler warnen daher ausdrücklich davor, solche Tools als alleinige Grundlage für disziplinarische Maßnahmen zu verwenden.

Parallel dazu ist das breitere Thema KI-gestützte Cyberkriminalität und automatisiertes Phishing relevant, denn dieselben Sprachmodelle, die Hausarbeiten schreiben, können auch täuschend echte Phishing-Mails verfassen. Medienkompetenzvermittlung in Schulen muss daher weit über den Umgang mit Chatbots hinausgehen.

Was jetzt gebraucht wird

Bildungsforscherinnen und -forscher, Lehrerverbände und Digitalexperten sind sich in einem Punkt einig: Die Zeit der unkoordinierten Einzelreaktionen muss enden. Was Deutschland braucht, ist ein kohärenter nationaler Rahmen — einer, der nicht verbietet, was ohnehin nicht verbietbar ist, aber klare ethische und pädagogische Leitlinien setzt.

Konkret diskutiert werden: verpflichtende KI-Kompetenz in der Lehrerausbildung, bundesweite Datenschutzstandards für Schul-KI-Tools, transparente Kennzeichnungspflichten für KI-unterstützte Schülerarbeiten sowie Lehrpläne, die kritisches Denken gegenüber KI-Output als eigenständiges Lernziel verankern. Die Schweiz und die Niederlande haben hier bereits Schritte unternommen — beide Länder haben Empfehlungsrahmen veröffentlicht, die ohne Verbote auskommen und stattdessen auf Begleitung und Reflexion setzen.

Interessant ist dabei auch der gesellschaftliche Kontext: Während die Bildungsdebatte geführt wird, laufen im Hintergrund massive wirtschaftliche und strategische Interessen. Dass KI-Entwicklung nicht nur eine pädagogische, sondern auch eine geopolitische Dimension hat, zeigen Debatten wie jene um Musks Pläne zur Nutzung von OpenAI-Gewinnen — ein Beispiel dafür, wie weit die Interessen der großen Technologieakteure von Bildungszielen entfernt sein können.

Die Frage, ob KI in der Schule verboten oder genutzt werden soll, ist längst beantwortet — nicht durch Beschlüsse, sondern durch die Praxis. Sie wird genutzt. Die eigentliche Frage ist, ob Schulen diesen Prozess gestalten oder ihm hinterherlaufen. Derzeit ist es überwiegend Letzteres.

Und für den weiteren technologischen Kontext sei angemerkt: Digitale Infrastruktur ist die Grundlage jeder sinnvollen KI-Nutzung in Schulen. Entwicklungen wie Vodafones Übernahme von Three verändern die Telekommunikationslandschaft und damit mittelbar auch die Konnektivitätsbasis für digitale Bildungsangebote in Deutschland und Europa.

Mehr zum Thema

Weiterführende Informationen: BSI Bundesamt fuer Sicherheit

Wie findest du das?
M
Markus Bauer
Technologie & Digitales

Markus Bauer verfolgt die Entwicklungen in Tech, KI und Digitalpolitik. Er analysiert, wie neue Technologien Gesellschaft und Wirtschaft verändern — von Datenschutz bis Plattformregulierung.

Themen: KI Künstliche Intelligenz Mobilität ChatGPT Außenpolitik Umwelt Bundesliga USA CDU Bilanz Bayern Kosten Bundesregierung Ukraine Koalition SPD Druck Milliarden Rekord Boom Prozent Russland Trump Champions League