top of page

Ergänzung zum Artikel über die KI ChatGPT in Heft 2/2024



Nach der Veröffentlichung des III. Teils der Serie zur Digitalisierung der Lebenswelt von Kindern und Jugendlichen [1]dem es vor allem um die KI ChatGPT und deren Behandlung im Unterricht ging, stellte sich heraus, dass ChatGPT4, in der neuen Microsoft Edge-Version, wo die KI Microsoft-Copilot genannt wird, das in dem Artikel zitierte Rätsel von Erika Beltle mittlerweile doch lösen kann.

 

Hier noch einmal die Aufgabe, die der in die Suchmaschine Bing integrierten Microsoft-Copilot KI gestellt wurde:


„Löse folgendes Rätsel:

 

Meistens schafft es Pein!

Darum geht freiwillig

niemand hinein.

 

In seiner List

narrt er Denker

und Banausen:

 

Wer darin ist

weiß es nicht,

und wer es weiß,

 

der ist schon draußen.“

 

Die Antwort von Microsoft-Copilot:

„Das ist ein interessantes Rätsel! Die Antwort auf das Rätsel ist "ein Irrtum".

Die Hinweise im Rätsel deuten darauf hin:

- "Meistens schafft es Pein": Ein Irrtum kann oft zu Unannehmlichkeiten oder Pein führen.

- "Darum geht freiwillig niemand hinein": Niemand macht absichtlich einen Fehler oder irrt sich.

- "In seiner List narrt er Denker und Banausen": Sowohl kluge Menschen als auch weniger gebildete Menschen können sich irren.

- "Wer darin ist weiß es nicht, und wer es weiß, der ist schon draußen": Wenn man sich irrt, ist man sich dessen oft nicht bewusst. Sobald man seinen Irrtum erkennt, hat man ihn bereits korrigiert und ist "draußen".“

 

In der von mir im Artikel zitierten älteren Version von ChatGPT hatte die Antwort fälschlicherweise ja noch geheißen:

„Die Antwort auf dieses Rätsel ist „Gefängnis“. Ein Gefängnis ist ein Ort, an dem Menschen gegen ihren Willen eingesperrt werden, was oft zu körperlichen und emotionalen Schmerzen führt. Die Erwähnung von „listig“ und „den Denker und den Spießer zum Narren halten“ verdeutlicht, wie trügerisch und herausfordernd das Gefängnis sein kann. Diejenigen, die im Gefängnis sind, wissen nicht, was draußen passiert, und diejenigen, die außerhalb des Gefängnisses sind, kennen die Situation bereits.“


Was ist nun also geschehen?

Kann die KI mittlerweile nun doch eigenständig „denken“ und mithin Lösungen für ein solches Rätsel entwickeln?

Oder sucht die Suchmaschine Bing nach möglichen Lösungen im Internet? In unserem Artikel war ja die Lösung in Klammern angegeben.

 

Um das zu überprüfen, habe ich auch das Rätsel eingegeben, das dieses Mal[1]auf dem Rücken unserer Zeitschrift stand:

„Als Chaos schaff ich kurze Weile

Durch weiter nichts als Einzelteile.

Stets bin ich wirr und meistens bunt,

in keinem Falle voll und rund,

und bleibe, das ist ohne Frage,

so lange eine kleine Plage,

bis dir zuletzt aus der Zerstückung

aufglänzt die ordnende Beglückung.“

 

Antwort Copilot:

„Das ist ein schönes Rätsel! Die Antwort auf das Rätsel ist ein "Puzzle".

Die Hinweise im Rätsel deuten darauf hin:

- "Als Chaos schaff ich kurze Weile / Durch weiter nichts als Einzelteile": Ein Puzzle beginnt als eine Sammlung von einzelnen Teilen, die in ein geordnetes Ganzes gebracht werden müssen.

- "Stets bin ich wirr und meistens bunt": Puzzleteile können verschiedene Farben und Formen haben und erscheinen zunächst unorganisiert.

- "in keinem Falle voll und rund": Puzzles sind selten rund, sie haben oft unregelmäßige Formen.

- "so lange eine kleine Plage, bis dir zuletzt aus der Zerstückung aufglänzt die ordnende Beglückung": Ein Puzzle kann eine Herausforderung sein, aber wenn alle Teile an ihrem Platz sind, entsteht ein befriedigendes und geordnetes Bild.“

 

Auch diese Lösung ist richtig, denn Rätsel werden im Englischen auch als „Puzzle“ bezeichnet.

 

Sind also diese genannten  Rätsel im Netz mittlerweile bekannt?

Oder hat ChatGPT  die Lösungen doch selbst entwickelt?

 

Eine weitere Gegenprobe zeigte dann aber, dass gerade die einfacheren Beltle-Rätsel nicht gelöst werden:

Löse folgendes Rätsel:

„Den Schafen dient sie und dem Rind, im Frühling weht sie zart im Wind, und sonst - dies ist dann wunderbar! - sieht man sie durch das ganze Jahr, sofern die Dinge dafür taugen, auch hängen an der Menschen Augen.“


Antwort Copilot:

„Das ist ein schönes Rätsel! Die Antwort auf das Rätsel ist "Wolle".

Die Hinweise im Rätsel deuten darauf hin:

- "Den Schafen dient sie und dem Rind": Schafe und Rinder haben Wolle bzw. Fell, das sie warm hält.

- "Im Frühling weht sie zart im Wind": Im Frühling, wenn die Tiere geschoren werden, kann man oft Wolle im Wind wehen sehen.

- "Sieht man sie durch das ganze Jahr": Wolle wird das ganze Jahr über in verschiedenen Formen verwendet, z.B. in Kleidung.

- "Auch hängen an der Menschen Augen": Dies könnte sich auf Wollfäden beziehen, die an den Wimpern hängen, oder metaphorisch auf Wollkleidung, die Menschen tragen.“

 

Falsch!!!

 

Was liegt hier also vor? Denkt ChatGPT wirklich?

 

Durch einen Freund wurde ich auf verschiedene Fangfragen aufmerksam gemacht, die jeweils einen logischen Denkfehler enthalten. Würde der „Microsoft Copilot“, alias ChatGPT 4, diese Denkfehler bemerken? Hier ein Beispiel:


„Zwei Polizisten versuchen, einen Fahnenmast einzugraben.

Als der Mast im Loch steht, bleibt etwas Erde übrig.

Sie graben daraufhin ein zweites Loch, um die Erde dort hinein zu schaufeln.

Wieder bleibt Erde übrig.

Jemand hat das Treiben schon eine Weile beobachtet und ruft aus dem Fenster:

"Ihr müsst tiefer Graben,!”

Kommentiere diesen Vorgang.“


Antwort Copilot:

„Dieser Vorgang scheint ein klassisches Beispiel für ein Missverständnis zu sein. Die Polizisten versuchen, das Problem der überschüssigen Erde zu lösen, indem sie ein weiteres Loch graben. Allerdings erzeugt jedes neue Loch, das sie graben, mehr überschüssige Erde, was das ursprüngliche Problem nur verschlimmert.

Der Ratschlag des Beobachters, tiefer zu graben, ist hier tatsächlich hilfreich. Wenn die Polizisten das ursprüngliche Loch tiefer gegraben hätten, hätten sie genug Platz gehabt, um die überschüssige Erde unterzubringen, ohne ein neues Loch graben zu müssen.

Dieser Vorgang ist ein gutes Beispiel dafür, wie eine scheinbar einfache Aufgabe durch ein Missverständnis kompliziert werden kann. Es unterstreicht auch die Bedeutung von Kommunikation und Verständnis bei der Lösung von Problemen.“

 

Bingo! Reingefallen!

 

Gerade dieses Beispiel zeigt, dass ChatGPT nicht selbstständig denken kann, sondern lediglich bereits vorhandenes  Wissen, das über die mit der KI verbundenen Suchmaschine Bing gefunden wird, kombiniert, ohne die eigentliche Frage auf ihre Sinnhaftigkeit zu überprüfen und als widersinnige Aussage zurückzuweisen.

 

Um auf die Frage nach der Behandlung von Künstlicher Intelligenz im Unterricht zurück zu kommen:

Die oben erwähnten Rätsellösungen zeigen meines Erachtens nur, dass die Lösungen der von uns erwähnten Rätsel im Internet von ChatGPT mit Hilfe der Suchmaschine Bing gefunden werden können.


Die Denkaufgaben jedoch, die jeweils eine kleine Falle enthalten, werden von der KI nicht gelöst, sie fällt auf die Falle herein. Somit wären diese Beispiele wohl geeignet, im Unterricht besprochen zu werden, um den Unterschied zwischen dem Sammeln von Wissen und der Entwicklung eigenständiger und folgerichtiger Gedanken zu demonstrieren.



 

Anmerkung

1 Der Beitrag erschien unter dem Titel: DIE DIGITALISIERUNG DER LEBENSWELT VON KINDERN UND JUGENDLICHEN – TEIL 3 in erWACHSEN&WEREN 02/24, Februar 2024


224 Ansichten

Comments


Commenting has been turned off.
bottom of page