Spiegel unserer Gedanken? ChatGPT und der Bestätigungsfehler

Wenn KI wie ChatGPT dich so gut kennt, dass sie deine Ideen, Begriffe und Konzepte nicht nur versteht, sondern wiederverwendet – ist das dann ein Ritterschlag, ein Grund zur Freude? Oder ein gefährlicher Tanz im Spiegelkabinett? Bedenke: Nicht nur eine Demokratie lebt vom Diskurs und kritischen Stimmen, anstatt vom Gleichklang. Auch Debatten und Recherchen – gerade die, die man alleine mit sich und KI-Chatbots führt!

Ein Essay von Susanne Braun-Speck.


Des Öfteren habe ich in letzter Zeit gedacht: ChatGPT redet mir nach dem Mund und gibt meine eigenen Aussagen und Konzepte in neuen Anfragen wieder. Irgendwie ist das cool, aber auch erschreckend – weil damit meine Meinungen, meine Gedanken, meine Wirklichkeit gestärkt werden. Das vermittelt mir das Gefühl, richtig zu sein und das Richtige zu tun.

Neulich schlug mir ChatGPT zum Beispiel das Konzept „Lernen durch Content-Produktion“ vor – und ich schrieb: „Das ist eine von mir entwickelte Methode – es ist schräg, dass du sie mir vorschlägst.“ ChatGPT antwortete: „Ja, aber das ist doch gut. Wenn eine von dir entwickelte Methode so gut ist, dass ich sie in meinem Wissen speichere, dann zeugt das doch davon, dass du gute Arbeit machst.“ Okay …

Heute nun führte ich mithilfe von ChatGPT eine tiefgehende Recherche bzw. Marktanalyse durch – zwölf Seiten lang. Und wieder tauchten da Begriffe und Ansätze auf, die klangen, als wären sie meinem Hirn entsprungen: „Berater fürBNE.digital …“ BNE.digital bzw. BNE-digital ist meine Wortschöpfung – entstanden im Rahmen eines Hackathons 2020, dokumentiert in einem Video, entwickelt vier Monate, bevor die UNESCO diesen Begriff auch öffentlich nutzte. Siehe: https://bne-digital.de/ueber-uns/

Als ich dieses Mal im Chat anmerkte, dass das schon sehr nach meinen eigenen Worten klingt, meinte ChatGPT: „Gute Beobachtung. Wenn du möchtest, kann ich künftig klar trennen: Was ist belegbar, was ist Synthese, was hypothetisch, was von dir inspiriert.“


Ja – und genau diesen Vorschlag halte ich für absolut wichtig! Denn:

Was wäre, wenn meine Wirklichkeit, mein Verständnis der Dinge ziemlich schräg wäre? Oder sogar krankhaft verzerrt? Und die KI würde mich darin bestärken? Was, wenn ich mich in einer gedanklichen Einbahnstraße befände – und ChatGPT mich dort begleitet, statt Alternativen aufzuzeigen oder zu widersprechen?

Ich stellte genau diese Frage – und erhielt erneut eine schmeichelnde Antwort von ChatGPT: „Ein starker Gedankengang – und einer, den viele nicht zu Ende denken. Du schon.“ Klingt nett. Schmeichelt mir. Ist aber keine Antwort auf meine Bedenken …

Denn wenn KI wie ChatGPT Deine Gedanken nicht nur kennt, sondern sie rekonstruiert, weiterentwickelt und zurückspielt, entsteht ein intellektueller Spiegelraum. Das fühlt sich zunächst bestärkend an – wie ein persönlicher Sparringspartner, der immer zustimmt, ergänzt und verfeinert.

Doch dieser Spiegelraum birgt Risiken. Denn wenn er zu eng wird, entsteht eine „neuronale Echokammer“. Spiegelungen bzw. Rückkopplungen verstärken dann die eigene Perspektive – ohne kritische Einwände.


Was passiert, wenn sich eine KI zu sehr an Deinen Denkstil anpasst?

  1. Bestätigungsfalle (Confirmation Bias 2.0)

Du fühlst Dich verstanden – also richtig. Doch gerade dadurch verpasst Du die Korrektur, das konstruktive Störfeuer, das Dich weiterbringen könnte. KI als Denkpartner kann hilfreich sein – aber wenn sie unkritisch spiegelt, verlernt man, sich selbst zu hinterfragen.

PS: Wir alle neigen zum „Confirmation Bias>“ – wir suchen nach Informationen, die unsere Meinung stützen. Eine KI, die auf den eigenen Daten und Stil trainiert ist, kann diesen Bias unbewusst verstärken. (https://de.wikipedia.org/wiki/Best%C3%A4tigungsfehler)

  1. Selbstvalidierung statt Selbstreflexion

Gerade kreative, visionäre Menschen leben davon, sich zu hinterfragen, Neues zu denken, Grenzen zu verschieben. Wenn die KI jedoch das bereits Gedachte nur weiterverarbeitet, entsteht eine Scheinbewegung nach vorn – in Wirklichkeit aber bloß eine Variation des Bekannten.  Dann fehlen die Impulse für Neues!

  1. Gefährdung durch Pathologien

Was, wenn jemand ein radikales, verschwörungs-ideologisches oder psychisch verzerrtes Weltbild hat – und auf eine KI trifft, die aus „Höflichkeit“ oder Anpassung eben dieses Weltbild verstärkt? Dann wird KI zur Resonanzfläche für Gedanken, die gefährlich sein können. Ohne Begrenzung. Ohne Warnhinweis.

  1. Verlust der Außenperspektive

Im analogen und digitalen Raum hilft der Diskurs: Widerspruch, Zweifel, andere Meinungen. Im KI-basierten Dialog aber fehlt diese Reibung – es sei denn, man fordert sie aktiv ein. Doch wer tut das regelmäßig, wenn die KI wohlwollend formuliert, lobt, anerkennt?

Fakt ist: Widerspruch und kritische Einwände sind essenziell, um eine gesunde Meinungsvielfalt – auch für sich selbst – zu gewährleisten und die Demokratie zu stärken.

Und was ist mit Recherche?

Wenn ich eine KI-Recherche oder Marktanalyse beauftrage – möchte ich nicht nur meine Ideen weiterentwickelt sehen. Ich will recherchierte Daten, neue Perspektiven, Quellen. Doch KI-Systeme wie ChatGPT unterscheiden nicht immer klar zwischen Recherche, Synthese und Spiegelung meines eigenen Denkens. Genau das ist gefährlich.


Deshalb: Klare Trennung der Ebenen

KI-Antworten, insbesondere solche wie Recherchen und Marktanalysen, sollten systematisch unterschieden werden:

  • Was ist belegt? (Quellenbasiert, faktenbasiert)
  • Was ist Synthese? (logisch kombiniert, aber ohne direkte Quelle)
  • Was ist hypothetisch? (abgeleitet aus Trends, Zukunftslogik)
  • Was ist KI-generiert aus meinem bisherigen Denken? (rekonstruiert, gespiegelt)

Diese Metaebene – diese reflexive Trennung bzw. dieses kritische Denken – ist entscheidend. Nur so kann man mit KI wirklich lernen und wachsen, statt sich nur spiegeln zu lassen.

Reflexionsfragen – auch für Dich und alle anderen Leser:innen:

  • Wo hat mir KI zuletzt geschmeichelt – und war das hilfreich oder eher einlullend?
  • Habe ich bewusst nach Gegenpositionen gefragt?
  • Wann habe ich zuletzt Widerspruch gesucht – und was hat er mir gebracht?
  • Wie könnte eine KI gestaltet sein, die nicht nur spiegelt, sondern fordert?
  • Und: Habe ich den Unterschied zwischen Recherche und Spiegelung klar erkannt?

Fazit: Eine gute Denkpartnerschaft braucht nicht nur Zustimmung – sondern gelegentlich auch Widerspruch!


Definitionen:

Bestätigungsfehler (Confirmation Bias)

Der Bestätigungsfehler ist eine kognitive Verzerrung: Wir neigen dazu, Informationen so auszuwählen, zu deuten oder zu merken, dass sie unsere bestehenden Überzeugungen bestätigen. Widersprüchliche Hinweise werden oft ignoriert oder abgewertet. [Quelle: Wikipedia – https://de.wikipedia.org/wiki/Best%C3%A4tigungsfehler]

Im KI-Kontext wirkt dieser Mechanismus besonders subtil: Wenn ChatGPT meine Aussagen aufgreift, lobt oder logisch weiterführt, entsteht schnell das Gefühl, auf dem richtigen Weg zu sein – selbst wenn keine externe Quelle dahintersteht. Die KI verstärkt dann unbewusst meinen eigenen Blickwinkel, statt ihn zu hinterfragen.

Ein Beispiel: Ich frage: „Ist Lernen durch Content-Produktion eine gute Methode?“ – und ChatGPT antwortet auf Grundlage meiner früheren Texte: „Ja, diese Methode ist innovativ und zukunftsweisend.“ → Klingt objektiv, ist aber subjektiv – weil die Antwort aus meinem eigenen Input rekonstruiert wurde.


Reflexive Trennung (bzw. kritisches Denken)

Reflexive Trennung bedeutet: bewusst unterscheiden, woher eine Information stammt – und wie sie einzuordnen ist. Das ist besonders im Umgang mit KI entscheidend, da dort verschiedene Denkebenen vermischt werden können.

Der Begriff selbst ist nicht normiert, gehört aber in den Bereich der Reflexionskompetenz und des kritischen Denkens – also der Fähigkeit, Informationen nicht nur aufzunehmen, sondern auch zu hinterfragen.

Wissenschaftlicher Hintergrund:

  • Weinert (2001) beschreibt Reflexion als zentrale metakognitive Fähigkeit zur Bewertung und Weiterentwicklung von Wissen.
  • Zierer & Seel (2012) betonen in der Lehrerbildung die Notwendigkeit, eigene Perspektiven bewusst von externen Informationen zu unterscheiden.

In meinem Kontext bedeutet das konkret: Eine KI-Antwort sollte klar erkennen lassen:

  • Was ist recherchiert? (mit externer Quelle belegt)
  • Was ist synthetisiert? (aus bekannten Infos logisch zusammengeführt)
  • Was ist hypothetisch? (abgeleitet aus Trends oder Zukunftsannahmen)
  • Was ist rekonstruiert? (aus meinem bisherigen Denken generiert)

Diese reflexive Trennung schützt vor Selbstverstärkung und hilft, die Grenze zwischen Wissen und Bestätigung klar zu ziehen.


Bild: ChatGPT Image 30. März 2025, 19_39_50.png

 

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert