„Wir müssen uns darauf gefasst machen, dass KI das Bildungswesen völlig umkrempelt.“
Foto: Benedikt Sauerborn: © privat
Um alle 120.000 Lehrkräfte in Baden-Württemberg fit im Umgang mit KI zu machen, hat das Ländle an seinem Zentrum für Schulqualität und Lehrerbildung (ZSL) eine eigene organisatorische Einheit eingerichtet. Seit Oktober 2024 laufen die Fäden zur schulischen Nutzung und den Einsatzmöglichkeiten von Künstlicher Intelligenz im KI-Zentrum Schule in Heilbronn zusammen. Im Interview erzählt Geschäftsführer Benedikt Sauerborn, was das KI-Zentrum für Lehrkräfte tut und welche Fähigkeit von ChatGPT ihn besonders beeindruckt.
Was ist die Aufgabe des KI-Zentrum Schule?
Benedikt Sauerborn:. Das KI-Zentrum soll dafür sorgen, dass künstliche Intelligenz leichter in die Schulen kommt, indem die Handlungsempfehlungen der Kultusministerkonferenz zum Umgang mit künstlicher Intelligenz in schulischen Bildungsprozessen systematisch umgesetzt werden. Dabei geht es uns auch darum, dass ein kritischer Umgang mit den Möglichkeiten, aber auch Risiken von künstlicher Intelligenz diskutiert wird. Uns ist es wichtig, Technologien tatsächlich zum Wohle der Schülerinnen und Schüler einzusetzen. Das erfordert, diese im Rahmen des Unterrichts zu integrieren und für einen wirksamen Umgang mit ihnen zu sorgen. Die Idee des KI-Zentrums ist, dass wir hier alle nötigen Kompetenzen aus dem schulischen Bereich, der Wissenschaft und der Wirtschaft bündeln, um das Thema „KI für die Schule“ effizienter zu bearbeiten und aufzubereiten, um Lehrkräfte fortzubilden, Schulen zu unterstützen, neueste Entwicklungen frühzeitig zu identifizieren und für Schülerinnen und Schüler rechtskonform nutzbar zu machen.
Konkret heißt das, wir unterstützen Schulen bei der Einführung von KI, indem wir Einschätzungen geben und Material erstellen, so dass sie selbst nicht alle möglichen Details im Blick behalten müssen. Dabei hat das KI-Zentrum Schule nicht die Aufgabe, Software selbst zu entwickeln bzw. Infrastruktur oder Betriebsmodelle für den Betrieb von Applikationen Dritter bereitzustellen.
Es gibt außerdem bei KI auch regulatorisch viel zu beachten: Datenschutz, Urheberrecht, den AI-Act, der bald kommt und dessen Umsetzung noch nicht völlig klar ist. Außerdem bearbeiten wir die Frage, wie KI wirksam eingesetzt werden kann, mit der Wissenschaft. Hier spielt auch unser Partnerinstitut, das Institut für Bildungsanalysen Baden-Württemberg (IBBW) eine große Rolle. Das heißt, wir arbeiten unter der Hypothese, dass KI einerseits große Chancen beinhaltet, aber zugleich auch mit erheblichen Risiken behaftet sein könnte. Wir bekommen Hinweise für beides, aber es bleibt vorerst eine Hypothese. Wir haben den Anspruch, auch empirisch darlegen zu können, wie es funktioniert und unter welchen Bedingungen KI in der Schule gewinnbringend eingesetzt werden kann.
Worum geht es bei dieser wissenschaftlichen Evaluation?
Ein konkretes Beispiel: Sie wissen vielleicht, dass man KI als Lerntutor verwenden kann. Die Lehrkraft prepromptet den Chat, indem sie der KI zum Beispiel sagt: „Du bist ein Tutor für Geschichte und führst jetzt ein sokratisches Gespräch mit dem Schüler oder der Schülerin“. Unsere Hypothese ist erstens, dass das auch mit Inkrafttreten der KI-Verordnung möglich ist. Das Sprachmodell baut ja Wissen über den Schüler oder die Schülerin auf. Wir müssen also klären: Findet dabei eine Profilbildung statt? Entspricht diese dann bereits den Kriterien für Hochrisiko-KI im AI-Act? Wenn ja, dann gelten für den Einsatz, für Anbieter und Betreiber besondere Vorgaben und Pflichten. Wir gehen aktuell davon aus, dass das bei der Nutzung von Chatbots nicht so ist, dafür brauchen wir aber rechtliche Klarheit – genauso wie bei einer Menge anderer Fragen beispielsweise aus dem Bereich des Schulrechts oder in Bezug auf Chancengerechtigkeit, die sich jetzt erst nach und nach durch den praktischen Einsatz stellen werden.
Die zweite Ebene ist: Wir wissen, dass Sprachmodelle keinen Bezug zur Wirklichkeit haben, sondern statistisch gefüttert sind – sie geben immer die wahrscheinlichste Antwort. Wenn diese nicht mit der Wirklichkeit übereinstimmt, nennen wir das Halluzinieren. In einigen Bereichen ist die KI sehr gut, in anderen aber nicht. Unser Anspruch an Lernmaterial ist aber, dass es erstens fehlerfrei ist und zweitens zu den individuellen Lernvoraussetzungen der Schülerinnen und Schüler passt. Das heißt konkret: Eine KI muss gutes Unterrichtsmaterial ausgeben, das zum jeweiligen Lernstand passt und den nächsten Lernschritt für die jeweiligen Individuen definieren kann. Wir müssen also für ganz viele Bereiche überprüfen, ob die Large-Language-Modelle (LLM) dafür geeignet sind, etwa für ein sokratisches Gespräch. Und ob die Antworten auch sprachlich altersgerecht sind.
An einem fiktiven Beispiel aufgezeigt könnte das heißen, dass ein KI-Chatbot bei Fragen zum Thema „Demokratiebildung“ für Klasse 9 in Gemeinschaftskunde konstant richtige Antworten liefert, aber bei einer Interaktion zum Thema „Institutionenlehre für die Bundesrepublik Deutschland“ in Klasse 12, bei der es um das Zusammenspiel sehr vieler spezifischer Elemente des Deutschen Verfassungswesens geht, nicht so gute Ergebnisse bringt, sondern viele Halluzinationen auftreten. Um das handhabbar zu machen, könnte eine Art Leistungskennzahl ermittelt werden, um festzustellen, in welchen Bereichen die jeweilige KI-Anwendung, das jeweilige KI-Modell eingesetzt werden kann.
An dem obigen Beispiel sieht man, dass das sehr kleinteilig und vor dem Hintergrund der Entwicklungen hoch dynamisch sein kann. Deshalb bräuchten wir in all diesen Bereichen wissenschaftlich gesicherte, empirische Belege, wie gut Sprachmodelle sind und welche Entwicklungen sie nehmen. Und dafür wiederum bräuchten wir ein Verfahren, das automatisiert ablaufen kann. In einem gesicherten, wissenschaftlichen Verfahren müssen möglichst viele denkbare Anwendungsszenarien durchgetestet werden und nach einiger Zeit haben wir das Ergebnis. Eine Leistungskennzahl, die sagt: In Gemeinschaftskunde Klasse 9, Einheit: Demokratiebildung ist die Fehlerwahrscheinlichkeit des LLM mit entsprechenden Prompts 0,1 Prozent, bei Gemeinschaftskunde in Klasse 12, Einheit „Institutionen der deutschen Demokratie“ bei 9 Prozent. Dann wüssten wir, was welches Sprachmodell in welchem Bereich leisten kann. So müsste es eigentlich laufen, aber das lässt sich nicht sofort realisieren – es braucht eben offen zugängliche Kriterien für den Einsatz von LLMs in der schulischen Bildung, aber dann auch die Möglichkeit, geeignete LLMs wirklich an Schulen auszurollen. Gemeinsam mit unseren Partnern aus der Wissenschaft wollen wir zumindest anfangen und überlegen, wie das funktionieren könnte und ein gemeinsames Verständnis in der Community erzeugen.
Für schulische Anwendungen wünschen wir uns aber auch, noch mehr als nur den Einsatz von Large-Language-Modellen anzuschauen. KI bietet das Potenzial für adaptive Lerntechnologien, die viele im Moment gar nicht so auf dem Schirm haben, zum Beispiel Intelligente Tutorielle Systeme, die sich dem Lernfortschritt der Schülerinnen und Schüler anpassen und immer ein passendes Lern- und Vertiefungsangebot machen können. KI bietet daher das Potenzial, in Verbindung mit didaktisch durchdachten Modellen das individuelle Lernen in den Basiskompetenzen Lesen, Schreiben und Rechnen zu befördern. Solche Systeme brauchen wir.
Wie können Lehrkräfte noch darauf hinwirken, dass eine KI wie ChatGPT nicht halluziniert?
Durch Preprompting kann man das gut einfangen. Es reicht nicht zu sagen: „Du bist ein Lerntutor und mach bitte das und das“. Man muss sehr viel mehr Kontext mitliefern. Bei einem Standard-Tutor kommen wir auf ungefähr sechs DIN A4 Seiten Preprompts. Da werden Bildungspläne mitgeliefert und Fakten und Anweisungen. Auf diese Weise kann man eine KI auch dazu bringen zu sagen: „Ich weiß es nicht, frag jemand anderen.“ Wir arbeiten daran, solche Preprompts den Lehrkräften zur Verfügung zu stellen.
Haben Sie persönlich vorausgesehen, dass KI für Schulen so ein großes Thema wird?
Nein, das habe ich erst mit der Bereitstellung von Chat-GPT für die Öffentlichkeit erfasst. Die GPT-Modelle ziehen Schlüsse, was ihr Gegenüber von ihnen will. In der menschlichen Kommunikation stellen wir uns auf Gesprächspartner ein, indem wir auf implizites Wissen zurückgreifen und kleinste Signale emotional erfassen. Die GPT-Modelle können das richtig gut imitieren, damit hatte ich nicht gerechnet. Und sie werden immer besser. Wir müssen uns darauf gefasst machen, dass KI das Bildungswesen völlig umkrempelt.
„Wir müssen uns darauf gefasst machen, dass KI das Bildungswesen völlig umkrempelt.“
Foto: Benedikt Sauerborn: © privat
Um alle 120.000 Lehrkräfte in Baden-Württemberg fit im Umgang mit KI zu machen, hat das Ländle an seinem Zentrum für Schulqualität und Lehrerbildung (ZSL) eine eigene organisatorische Einheit eingerichtet. Seit Oktober 2024 laufen die Fäden zur schulischen Nutzung und den Einsatzmöglichkeiten von Künstlicher Intelligenz im KI-Zentrum Schule in Heilbronn zusammen. Im Interview erzählt Geschäftsführer Benedikt Sauerborn, was das KI-Zentrum für Lehrkräfte tut und welche Fähigkeit von ChatGPT ihn besonders beeindruckt.
Was ist die Aufgabe des KI-Zentrum Schule?
Benedikt Sauerborn:. Das KI-Zentrum soll dafür sorgen, dass künstliche Intelligenz leichter in die Schulen kommt, indem die Handlungsempfehlungen der Kultusministerkonferenz zum Umgang mit künstlicher Intelligenz in schulischen Bildungsprozessen systematisch umgesetzt werden. Dabei geht es uns auch darum, dass ein kritischer Umgang mit den Möglichkeiten, aber auch Risiken von künstlicher Intelligenz diskutiert wird. Uns ist es wichtig, Technologien tatsächlich zum Wohle der Schülerinnen und Schüler einzusetzen. Das erfordert, diese im Rahmen des Unterrichts zu integrieren und für einen wirksamen Umgang mit ihnen zu sorgen. Die Idee des KI-Zentrums ist, dass wir hier alle nötigen Kompetenzen aus dem schulischen Bereich, der Wissenschaft und der Wirtschaft bündeln, um das Thema „KI für die Schule“ effizienter zu bearbeiten und aufzubereiten, um Lehrkräfte fortzubilden, Schulen zu unterstützen, neueste Entwicklungen frühzeitig zu identifizieren und für Schülerinnen und Schüler rechtskonform nutzbar zu machen.
Konkret heißt das, wir unterstützen Schulen bei der Einführung von KI, indem wir Einschätzungen geben und Material erstellen, so dass sie selbst nicht alle möglichen Details im Blick behalten müssen. Dabei hat das KI-Zentrum Schule nicht die Aufgabe, Software selbst zu entwickeln bzw. Infrastruktur oder Betriebsmodelle für den Betrieb von Applikationen Dritter bereitzustellen.
Es gibt außerdem bei KI auch regulatorisch viel zu beachten: Datenschutz, Urheberrecht, den AI-Act, der bald kommt und dessen Umsetzung noch nicht völlig klar ist. Außerdem bearbeiten wir die Frage, wie KI wirksam eingesetzt werden kann, mit der Wissenschaft. Hier spielt auch unser Partnerinstitut, das Institut für Bildungsanalysen Baden-Württemberg (IBBW) eine große Rolle. Das heißt, wir arbeiten unter der Hypothese, dass KI einerseits große Chancen beinhaltet, aber zugleich auch mit erheblichen Risiken behaftet sein könnte. Wir bekommen Hinweise für beides, aber es bleibt vorerst eine Hypothese. Wir haben den Anspruch, auch empirisch darlegen zu können, wie es funktioniert und unter welchen Bedingungen KI in der Schule gewinnbringend eingesetzt werden kann.
Worum geht es bei dieser wissenschaftlichen Evaluation?
Ein konkretes Beispiel: Sie wissen vielleicht, dass man KI als Lerntutor verwenden kann. Die Lehrkraft prepromptet den Chat, indem sie der KI zum Beispiel sagt: „Du bist ein Tutor für Geschichte und führst jetzt ein sokratisches Gespräch mit dem Schüler oder der Schülerin“. Unsere Hypothese ist erstens, dass das auch mit Inkrafttreten der KI-Verordnung möglich ist. Das Sprachmodell baut ja Wissen über den Schüler oder die Schülerin auf. Wir müssen also klären: Findet dabei eine Profilbildung statt? Entspricht diese dann bereits den Kriterien für Hochrisiko-KI im AI-Act? Wenn ja, dann gelten für den Einsatz, für Anbieter und Betreiber besondere Vorgaben und Pflichten. Wir gehen aktuell davon aus, dass das bei der Nutzung von Chatbots nicht so ist, dafür brauchen wir aber rechtliche Klarheit – genauso wie bei einer Menge anderer Fragen beispielsweise aus dem Bereich des Schulrechts oder in Bezug auf Chancengerechtigkeit, die sich jetzt erst nach und nach durch den praktischen Einsatz stellen werden.
Die zweite Ebene ist: Wir wissen, dass Sprachmodelle keinen Bezug zur Wirklichkeit haben, sondern statistisch gefüttert sind – sie geben immer die wahrscheinlichste Antwort. Wenn diese nicht mit der Wirklichkeit übereinstimmt, nennen wir das Halluzinieren. In einigen Bereichen ist die KI sehr gut, in anderen aber nicht. Unser Anspruch an Lernmaterial ist aber, dass es erstens fehlerfrei ist und zweitens zu den individuellen Lernvoraussetzungen der Schülerinnen und Schüler passt. Das heißt konkret: Eine KI muss gutes Unterrichtsmaterial ausgeben, das zum jeweiligen Lernstand passt und den nächsten Lernschritt für die jeweiligen Individuen definieren kann. Wir müssen also für ganz viele Bereiche überprüfen, ob die Large-Language-Modelle (LLM) dafür geeignet sind, etwa für ein sokratisches Gespräch. Und ob die Antworten auch sprachlich altersgerecht sind.
An einem fiktiven Beispiel aufgezeigt könnte das heißen, dass ein KI-Chatbot bei Fragen zum Thema „Demokratiebildung“ für Klasse 9 in Gemeinschaftskunde konstant richtige Antworten liefert, aber bei einer Interaktion zum Thema „Institutionenlehre für die Bundesrepublik Deutschland“ in Klasse 12, bei der es um das Zusammenspiel sehr vieler spezifischer Elemente des Deutschen Verfassungswesens geht, nicht so gute Ergebnisse bringt, sondern viele Halluzinationen auftreten. Um das handhabbar zu machen, könnte eine Art Leistungskennzahl ermittelt werden, um festzustellen, in welchen Bereichen die jeweilige KI-Anwendung, das jeweilige KI-Modell eingesetzt werden kann.
An dem obigen Beispiel sieht man, dass das sehr kleinteilig und vor dem Hintergrund der Entwicklungen hoch dynamisch sein kann. Deshalb bräuchten wir in all diesen Bereichen wissenschaftlich gesicherte, empirische Belege, wie gut Sprachmodelle sind und welche Entwicklungen sie nehmen. Und dafür wiederum bräuchten wir ein Verfahren, das automatisiert ablaufen kann. In einem gesicherten, wissenschaftlichen Verfahren müssen möglichst viele denkbare Anwendungsszenarien durchgetestet werden und nach einiger Zeit haben wir das Ergebnis. Eine Leistungskennzahl, die sagt: In Gemeinschaftskunde Klasse 9, Einheit: Demokratiebildung ist die Fehlerwahrscheinlichkeit des LLM mit entsprechenden Prompts 0,1 Prozent, bei Gemeinschaftskunde in Klasse 12, Einheit „Institutionen der deutschen Demokratie“ bei 9 Prozent. Dann wüssten wir, was welches Sprachmodell in welchem Bereich leisten kann. So müsste es eigentlich laufen, aber das lässt sich nicht sofort realisieren – es braucht eben offen zugängliche Kriterien für den Einsatz von LLMs in der schulischen Bildung, aber dann auch die Möglichkeit, geeignete LLMs wirklich an Schulen auszurollen. Gemeinsam mit unseren Partnern aus der Wissenschaft wollen wir zumindest anfangen und überlegen, wie das funktionieren könnte und ein gemeinsames Verständnis in der Community erzeugen.
Für schulische Anwendungen wünschen wir uns aber auch, noch mehr als nur den Einsatz von Large-Language-Modellen anzuschauen. KI bietet das Potenzial für adaptive Lerntechnologien, die viele im Moment gar nicht so auf dem Schirm haben, zum Beispiel Intelligente Tutorielle Systeme, die sich dem Lernfortschritt der Schülerinnen und Schüler anpassen und immer ein passendes Lern- und Vertiefungsangebot machen können. KI bietet daher das Potenzial, in Verbindung mit didaktisch durchdachten Modellen das individuelle Lernen in den Basiskompetenzen Lesen, Schreiben und Rechnen zu befördern. Solche Systeme brauchen wir.
Wie können Lehrkräfte noch darauf hinwirken, dass eine KI wie ChatGPT nicht halluziniert?
Durch Preprompting kann man das gut einfangen. Es reicht nicht zu sagen: „Du bist ein Lerntutor und mach bitte das und das“. Man muss sehr viel mehr Kontext mitliefern. Bei einem Standard-Tutor kommen wir auf ungefähr sechs DIN A4 Seiten Preprompts. Da werden Bildungspläne mitgeliefert und Fakten und Anweisungen. Auf diese Weise kann man eine KI auch dazu bringen zu sagen: „Ich weiß es nicht, frag jemand anderen.“ Wir arbeiten daran, solche Preprompts den Lehrkräften zur Verfügung zu stellen.
Haben Sie persönlich vorausgesehen, dass KI für Schulen so ein großes Thema wird?
Nein, das habe ich erst mit der Bereitstellung von Chat-GPT für die Öffentlichkeit erfasst. Die GPT-Modelle ziehen Schlüsse, was ihr Gegenüber von ihnen will. In der menschlichen Kommunikation stellen wir uns auf Gesprächspartner ein, indem wir auf implizites Wissen zurückgreifen und kleinste Signale emotional erfassen. Die GPT-Modelle können das richtig gut imitieren, damit hatte ich nicht gerechnet. Und sie werden immer besser. Wir müssen uns darauf gefasst machen, dass KI das Bildungswesen völlig umkrempelt.