Seit einigen Monaten geht ein Gespenst um: Künstliche Intelligenz (KI), welche die Hausaufgaben der Kinder erledigen könnte. «Sprach-KI wird in der Arbeitswelt ein relevantes Werkzeug werden. Also sollte man in der Schule lernen, kritisch damit umzugehen», sind Fachleute wie Didaktikdozent Philippe Wampfler überzeugt.
Ein Beispiel aus der Anwendung von ChatGPT in der Schule: Ein
Junge hat «sexy» ins Bildgenerierungsprogramm eingegeben. Die
10jährige Nea fragt: «Warum kommen da nur Bilder von Frauen?» Der Klassenlehrer Nils Landolt erklärt: «Weil es im Internet vor allem diese Art Bilder gibt mit dem
Stichwort.» – «Warum denn?», fragt Nea. Landolt zögert. Er versucht zu
erklären, dass online ein einseitiger männlicher Blick auf Frauen
besonders präsent ist. Eine andere Lernbegleiterin mischt sich ein:
«Wenn wir hier herumfragen würden, würde jeder ‹sexy› für sich selbst
anders definieren. Aber die KI lernt das eben aus dem Internet.» Eine Lernsituation wie aus dem Bilderbuch. Das Thema sexistische Verzerrung in der KI ist angekommen.
Landolt
glaubt daran, dass der spielerische Umgang mit der neuen Technik die
beste Vorbereitung für Kinder ist. Sein Leitspruch ist: «Wollen wir in
der Schule mittelmässige Roboter produzieren oder tolle Menschen?»
Eine Kinderbuch mit künstlicher Intelligenz schreibenDerweil probiert die zehnjährige Nea das Delegieren an die KI aus. Mit mässigem Erfolg. Nea
will, dass ihr die KI dabei hilft, ein Kinderbuch zu schreiben. Es soll
um einen Strassenhund gehen. Chat-GPT soll ihn beschreiben. Nea gibt ins Feld ein: «Buddy ist bäsch und zotlig.» Chat-GPT:
«Es tut mir leid, aber ich kann Ihnen ohne weitere Informationen leider
nicht sagen, wer Buddy ist oder wie er aussieht. Es wäre hilfreich,
wenn Sie mir mehr Informationen über Buddy geben könnten, damit ich
Ihnen besser helfen kann.»
Nea: «Buddy ist ein hund b kurze zotige.» Chat-GPT:
«Oh, ich verstehe. Es tut mir leid, dass ich Ihnen nicht besser helfen
konnte. Wenn Sie mir mehr Informationen über Buddy geben, werde ich mein
Bestes tun, um Ihnen zu helfen.»
«Buddy ist ein Hund mit kurzen zottligen Haaren, die braun sind», gibt Nea mithilfe der Lernbegleiterin ein. Chat-GPT
antwortet umgehend: «Danke für die weiteren Informationen über Buddy.
Es hört sich so an, als ob er ein netter Hund sein könnte mit seinen
kurzen, zotteligen Haaren, die braun sind. Könnten Sie mir noch mehr
über Buddy erzählen, wie zum Beispiel, wie er ist oder was er gerne
macht? Ich würde gerne mehr über ihn erfahren.» Nea lacht und seufzt: «Ich glaub, ich schreib selber.»
Künstliche Intelligenz füttern ist schwierig
Auch die Illustrationsfähigkeiten der KI haben Nea enttäuscht. Der
künstlichen Intelligenz Anleitungen zu geben, die genau das erwünschte
Ergebnis bringen, ist eine Kunst für sich. Es braucht viel Wissen um den
Kontext, aus dem die KI kommt, um die richtigen Schlagworte zu finden. Für
Kinder einfacher klappt es mit der urheberrechtlich bedenklichen Google-Bildersuche. Dort findet Nea
Bilder von Hunden. Als sie ein Bild sucht, das das Gefährt des bösen
Hundefängers zeigt, kommt dann auch Google an seine Grenzen. Da bittet
Nea ihren Mitschüler Gabriel, der neben ihr ins Zeichnen versunken am
Tisch sitzt, um Hilfe und fragt, ob er den Hundefänger für sie zeichnen
könne.
Eine
beruhigende Einsicht: Nea lässt sich keine Ideen aufdrängen. Sie hat
ihre eigene Geschichte im Kopf. Wenn ihr der Computer andere Dinge
vorschlägt, dann findet sie Wege, sich zu wehren. Die Zeichnung ihres
Schulfreundes ist nicht so perfekt wie jene aus dem Computer: Aber sie
entspricht dem, was er und Nea ausdrücken wollen.
Allen Unkenrufen zum Trotz: Ob KI wie ChatGPT eine Gefahr für die Schule wird oder nicht, ist in erster Linie auch eine Frage, was wir den Kindern für Aufgaben stellen, wie wir Fragen formulieren. Im umfangreichen Artikel der NZZ, aus dem diese Beispiele zitiert sind, zeigt diesbezüglich Wege auf. Doch das ist keineswegs neu. Vor ein paar Jahren haben findige Schüler angefangen,Wikipedia-Artikel als eigene Vorträge abzugeben...