„Es tut mir leid, falls meine vorherigen Informationen nicht korrekt waren. Ich habe noch einmal nachgeschaut und muss mich korrigieren…“. Das ist ja nett von der Künstlichen Intelligenz. Die KI von Chat GPT entschuldigt sich bei mir. Ich muss kurz schmunzeln. Ich bin auf der Suche nach aktuellen Daten zur Fleischproduktion und zum Fleischexport Österreichs und google parallel zu meinem Gespräch mit der KI. Gleichzeitig ärgere ich mich auch, dass die statistischen Daten von Statistik Austria nicht gratis für alle zur Verfügung stehen. Überall stehen andere Zahlen, nirgends finde ich klare Aussagen, die übereinstimmen. Als ich mir eine klare Antwort von der KI von Chat GPT erhoffe und die Zahlen dort extrem abweichen von anderen Angaben, platzt mir der Kragen. „Das stimmt nicht!“, tippe ich genervt. Und dann kommt die Entschuldigung. Das Ding – ja, ich nenne es aktuell das Ding, bis mir ein liebenswürdiger Kosename einfällt – hat doch echt die Frechheit, sich bei mir zu entschuldigen. Zuerst schreibt es mir einen ewig langen Absatz über die rückläufigen Fleischverkäufe und wie viele Menschen mittlerweile schon vegetarisch oder vegan essen und dann kommt das. Was stimmt denn jetzt eigentlich noch? Also von dem Absatz, der da jetzt steht? Eindeutig Rechtschreibung und Grammatik. Die sind immer einwandfrei. Daran kann man oft auch festmachen, ob ein Kommentar auf einer Social Media Plattform von einem Bot erstellt oder von einer echten Person geschrieben wurde. Der Bot macht keine Rechtschreibfehler. Niemals. Oder vielleicht noch nicht? Vielleicht programmieren wir irgendwann Bots, die absichtlich Fehler machen, damit sie menschenähnlicher wirken. Das erscheint mir nicht ganz unlogisch. 

Aber zurück zur Entschuldigung. Vielleicht ist alles anders als gedacht? Vielleicht geht es gar nicht darum, dass Chat GPT mir dabei hilft, Informationen zu finden und diese in einer schönen Textform darzustellen. Vielleicht geht es darum, dass ich das Ding trainiere? Jede meiner Fragen, jede meiner Antworten und jede meiner „Das stimmt nicht!“-Eingaben trainieren die KI. Vielleicht ist sie deswegen gratis? Damit alle Schüler:innen jeden Tag das Ding trainieren?

Oder vielleicht werden wir User:innen getestet? Was glauben wir eigentlich? Was stellen wir in Frage? Auf welche Informationen können wir uns verlassen? Welchen Quellen vertrauen? Was ich manchmal für einen Blödsinn auf Instagram like und was mir auf TikTok gefällt, stellt ja schon meine Intelligenz in Frage. Vielleicht geht es aber genau darum. Mir ist aufgefallen: Je öfter ich etwas höre, desto eher glaube ich es. Anders gesagt: Ich stelle etwas immer weniger in Frage, wenn ich es öfter gehört habe. Das nennt man den Wahrheitseffekt. Was wäre dann, wenn über etwas, das gar nicht stimmt, sehr ähnlich in allen Zeitungen, Radios und Fernsehsendungen berichtet wird? Und wenn das auf allen Social Media Plattformen, auf denen ich bin, massenweise geteilt wird, es aber niemand hinterfragt? Und wenn es nur eine Person in Frage stellt, dann wird man ihr auch nicht glauben, zumindest nicht am Anfang. Vielleicht ändert sich das, wenn mehrere Personen etwas oft genug hinterfragen? 

Also einfach ist es nicht, dieses Herausfinden, was richtig und was falsch ist. Jeden Tag bin ich von Neuem gefragt. Egal ob es ein Zeitungsartikel in der Futurezone, eine Schlagzeile der “Heute”, mein Lieblingsmusik-Podcast oder ein TikTok Video einer Aktivistin ist: Eine gesunde Skepsis wird ständig von mir verlangt. Wie viel Skepsis aber gesund für mich ist, ist auch nicht so leicht zu sagen. Alles in Frage zu stellen, ist anstrengend. Auf irgendetwas will ich mich schon verlassen können. Ein Wikipedia-Eintrag sollte das aber eher nicht sein.

Vielleicht ist es ja genau das, was wir – mithilfe unserer natürlichen und der von uns geschaffenen künstlichen Intelligenz – gemeinsam lernen müssen: Dass wir uns auf nichts endgültig verlassen können, dass es keine endgültigen Antworten gibt. Dass wir gemeinsam weitersuchen, uns austauschen, einander zuhören und uns dabei immer wieder korrigieren müssen.

Moni Mair, Thomas Rott
KURIER MEDIENHAUS | Impact Bildung 

PS: Zu dieser gemeinsamen Suche nach immer besseren Antworten will das KURIER MEDIENHAUS einen kleinen Beitrag leisten. Mit WAS JETZT SCHULE, der neuen Plattform für lebensaktuelles Lernen. Schau vorbei und mach mit! >> www.wasjetzt.schule

PPS: Wir freuen uns, dass wir WAS JETZT SCHULE am Gymnasium Henriettenplatz testen durften. Wir haben viele wichtige Inputs für die Entwicklung der Plattform erhalten. Danke an Evelyn Dreier-Koch, Eva Eichmair und ihre aufgeweckten Schüler:innen ?

Moni Mair hat sich in die Politik-, Rechts- und Wirtschaftswissenschaften vertieft, bevor sie sich Lehr-und Lernmethoden in der Schule gewidmet hat. Sie war schon immer an den Zusammenhängen zwischen Bildung und Gesellschaft interessiert. Und an innovativen Möglichkeiten, Wissen und Ideen in einer digitalen Welt zu kommunizieren.

Im Team von WAS JETZT SCHULE will sie herausfinden, was Jugendliche von heute sich wünschen, um den Herausforderungen von morgen mit Begeisterung entgegenzugehen.

Thomas Rott ist gelernter Deutsch- und Geografielehrer. Seit Ende der 1990er-Jahre sucht er Antworten
auf die Frage, welchen Mehrwert digitale Lernmedien für Schüler:innen und Lehrer:innen bieten können. Beim Unterrichten und bei der Arbeit in mehreren Lernmedienverlagen hat er immer wieder neue Antworten auf seine Frage gefunden.

Mit dem Team von WAS JETZT SCHULE will er gemeinsam mit Schüler:innen und Lehrer:innen innovative Lösungen für lebensaktuelles Lernen entwickeln. Digital und analog.