Ein kleines ChatGPT-Experiment
Die Möglichkeiten der Künstlichen Intelligenz (KI) für inklusiven Unterricht und Schule sind tatsächlich noch nicht einmal ansatzweise erschlossen. Auch ich beginne mich erst (auch angeregt durch unsere neue Bildungscampus-Direktorin, Dr. Anika Limburg) intensiver mit dem Thema zu beschäftigen.
Ich würde mich als durchaus technikaffin und aufgeschlossen bezeichnen. Dennoch beschleicht mich schon seit Jahren ein starkes Unbehagen angesichts der Heilserwartungen, die der Digitalisierung teilweise von Seiten der Bildungspolitik entgegengebracht werden. Diese beruht u.a. darauf, dass die sozial-emotionalen Probleme der jungen Menschen, die in allen Schulformen massiv zunehmen, von der Bildungspolitik kaum in ihrem Ausmaß wahrgenommen werden.
Aus meiner Sicht können auf KI basierende Programme die Möglichkeiten der Differenzierung von Inhalten und Unterrichtsgegenständen erweitern sowie bei der Erstellung von individualisierenden Arbeitsmaterialien und Unterstützungsmitteln entlasten und helfen. Das ist schon ziemlich super und sollte genutzt werden (können)!- Die Digitalisierung macht aber einen konservativen Unterricht allenfalls technisch moderner. Digitalisierung ist keine qualitative Verbesserung und sie baut auch keine Benachteiligungen ab, wenn das pädagogisch-didaktische Gesamtkonzept der Schule dies nicht hergibt. Und: Hinter Anwendungen stehen Konzerne mit Eigeninteressen. Adaptive Programme generieren Metadaten über Lernende. Hier braucht es dringend auch ethisch-gesellschaftliche Standards und Schutzkonzepte und nicht nur blinde Begeisterung.
Was mir noch größeres Unbehagen bereitet, ist die Simulation von Emotion und Empathie durch humanoide Avatare und Roboter. Da könnten theoretisch angesichts des Fachkräftemangels Begehrlichkeiten von Seiten der Bildungspolitik entstehen, Lehrkräfte nicht nur durch Programme, sondern gleich durch Roboter zu ersetzen.
Nun zu meinem sehr kleinen ChatGPT-Experiment: Ich habe Chat Gpt zunächst eine Story schreiben lassen und dann näher nachgefragt. Sowohl die Story als auch die Antwort waren sehr viel kritischer als erwartet:
Nachricht an ChatGPT: Schreibe eine Geschichte über Jamie, der aus einer armen Familie kommt, viele Probleme zu Hause und in der Schule hat. Seine nette Klassenlehrerin Frau Rech geht in Pension und wird durch Kathie (Roboter, gnerative KI) ersetzt. Jamie ist darüber unglücklich.
ChatGPT nach wenigen Minuten: Jamie ist ein kleiner Junge, der viele Probleme zu Hause hat. Sein Vater ist gewalttätig, und die Familie hat große Schulden. Wenn Jamie in die Schule kommt, fühlt er sich oft traurig und allein. Doch seine Lehrerin, Frau Rech, ist sehr nett. Sie hat Verständnis für Jamies Situation und versucht, ihm zu helfen. Jamie fühlt sich bei ihr wohl und kann manchmal sogar lächeln.
Eines Tages geht Frau Rech in Pension. Die Schule hat nicht genug Lehrer, also beschließt die Kultusministerin, Lehrroboter mit generativer KI einzusetzen. So wird der Roboter Kathie Jamies neue Klassenlehrerin. Kathie kann alles erklären und stellt den Kindern passende Aufgaben. Doch Jamie interessiert sich nicht für Mathematik oder Deutsch. Stattdessen wirft er Papierkugeln nach Kathie. Sie bleibt freundlich und erklärt ihm, dass man das nicht machen darf.
In der Klasse gibt es viel Streit. Die Kinder prügeln sich, und Jamie wird wegen seiner alten Kleidung gehänselt. Kathie versucht immer wieder, den Kindern zu erklären, warum ihr Verhalten falsch ist. Doch Jamie hört nicht zu. Schließlich wird er wütend und schaltet Kathie aus. Die anderen Kinder sind unzufrieden und rufen nach Frau Rech. Sie vermissen die Wärme und das Verständnis, das sie ihnen gegeben hat. Jamie merkt, dass er nicht nur eine Lehrerin, sondern auch eine Freundin verloren hat.
Frage an ChatGPT: Warum kann Kathie keine Ordnung in der Klasse schaffen und warum kann sie Jamie nicht helfen?
Antwort von Chat GPT: Kathie kann Streit und Chaos in der Klasse nicht unterbinden, weil sie trotz ihrer fortschrittlichen Technologie und ihrer Fähigkeit, Lehrstoff perfekt zu vermitteln, einige entscheidende menschliche Qualitäten vermissen lässt. Während Frau Rech die emotionale Intelligenz und das Mitgefühl hatte, um auf die individuellen Bedürfnisse und Probleme der Kinder einzugehen, ist Kathie auf programmierte Verhaltensmuster und logische Reaktionen beschränkt.
Jamie, der durch die familiären Probleme emotional stark belastet ist, braucht nicht nur pädagogische Unterstützung, sondern auch emotionale Zuwendung und Verständnis, die ihm eine KI wie Kathie nicht bieten kann. Als Kathie ihm erklärt, dass man keine Papierkugeln werfen darf, fehlt ihr die Fähigkeit, die tieferliegenden Gründe für Jamies Verhalten zu erkennen und darauf einzugehen. Sie kann ihm keine echte Wärme und Geborgenheit vermitteln, was Jamie umso mehr frustriert.
Die Unfähigkeit der KI, auf emotionale und soziale Dynamiken einzugehen, zeigt sich auch darin, dass sie das aggressive Verhalten und die Hänseleien in der Klasse nicht effektiv verhindern kann. Während Frau Rech durch ihre Präsenz, Empathie und durchsetzungsfähige, aber liebevolle Art für Ruhe und Zusammenhalt sorgte, gelingt es Kathie nicht, das Vertrauen und den Respekt der Kinder zu gewinnen. Die Kinder sehen in ihr lediglich eine Maschine, die ihnen keine echte menschliche Verbindung bieten kann.
Als Jamie Kathie schließlich ausschaltet, wird deutlich, wie sehr er und seine Mitschüler Frau Rech vermissen. Sie war nicht nur eine Lehrerin, sondern eine Vertrauensperson, die sie durch schwierige Zeiten begleitete. Jamies impulsive Handlung ist ein Ausdruck seiner Verzweiflung und seines Wunsches nach der verlorenen menschlichen Nähe und Unterstützung.
Die Schule erkennt allmählich, dass fortschrittliche Technologie zwar in vielen Bereichen hilfreich sein kann, aber nicht in der Lage ist, die unersetzliche menschliche Komponente in der Erziehung und Betreuung von Kindern vollständig zu ersetzen.
Na, was sagt Ihr dazu?
Bild: Jaro: KI generiertes Bild (Pixabay)
