Zum 30. April 2025 verschwinden sie: Google-Rezensionen über allgemeinbildende Schulen. Weltweit. Bereits abgegebene Bewertungen werden gelöscht, neue lassen sich nicht mehr abgeben – doch was können die Schulen tun, die ihre positiven Bewertungen behalten möchten? Oder für Meinungsfreiheit im Sinne von Demokratieförderung eintreten? Wichtig: das Timing ist blöd – nach den Osterferien könnte es zu spät sein, d.h. es muss jetzt gehandelt werden. 

Die offizielle Begründung von Google für diesen Schritt? Man wolle „wenig hilfreiche oder scherzhafte Rezensionen“ vermeiden. Das klingt nach Schutz – ist aber in Wahrheit ein beunruhigender Eingriff in die digitale Meinungsfreiheit, oder?

Wer bewertet, sagt etwas über Bildungsqualität und Miteinander

Ob Eltern, Schüler:innen oder Lehrkräfte: Viele haben in den letzten Jahren ihre Erfahrungen mit Schulen auf Google geteilt. Manche Rezensionen waren emotional, andere sachlich. Manche ungerecht, viele differenziert. Und ja – einige auch albern. Aber das ist nun einmal das Wesen von Meinungsäußerung in einer offenen Gesellschaft: Sie ist bunt. Manchmal unbequem. Und grundsätzlich schützenswert.

Schulbewertungen sagen nicht nur etwas über Unterricht oder Ausstattung aus. Sie geben Hinweise auf das soziale Miteinander, den Umgangston im Kollegium, die Kommunikation mit Eltern oder den Umgang mit Vielfalt. Kurzum: Sie machen sichtbar, wie eine Schule lebt und arbeitet.

Gerade in einer Zeit, in der Partizipation und Mitbestimmung im Bildungsbereich stärker gefordert werden, sind solche Stimmen wertvoller denn je.

Google nimmt sich mit diesem Schritt aus der Verantwortung. Der Konzern, der so oft über „Nutzerzentrierung“ spricht, entzieht der Öffentlichkeit an genau jener Stelle das Wort, wo es besonders zählt: Bei der Bewertung von Schulen. Dies betrifft allgemeinbildende Schulen (Grund-, Gemeinschaftsschulen, Gymnasien, etc.), aber weder Berufsschulen noch Universitäten, etc.


Ein Eingriff in den gesellschaftlichen Diskurs

Schulen sind keine Dienstleister im klassischen Sinne. Sie sind Orte des Lernens, der Persönlichkeitsentwicklung, der Teilhabe. Wenn über ihre Qualität nicht mehr öffentlich diskutiert werden darf, wird ein Raum geschlossen, der für demokratische Gesellschaften essenziell ist: der Raum für Kritik.

Besonders perfide: Auch positive Stimmen werden zum Schweigen gebracht. Schulen, die durchweg gute Bewertungen erhalten haben, verlieren diese Sichtbarkeit. Lob verschwindet genauso wie Kritik.

Doch es trifft nicht nur Schulen – es trifft auch jene, die oft keine andere Bühne haben: die Schüler:innen selbst. Für viele von ihnen war die Google-Bewertung ein niedrigschwelliger Weg, ihre Stimme hörbar zu machen. Gerade weil die meisten der jungen Menschen nicht in Schulkonferenzen sitzen und/oder sich nicht trauen, dort die Stimme zu erheben, war dieser Kanal ein digitales Ventil für Feedback, Frust – oder auch Dankbarkeit.

Wenn dieser Weg nun verschwindet, wird eine Lücke größer, die ohnehin schwer zu schließen ist: die der Partizipation junger Menschen.

Was bedeutet es also, wenn ein ohnehin in sich oft geschlossenes System wie Schule noch weniger transparent wird? Wenn Rückmeldungen gefiltert, Bewertungen gelöscht und Kritik im Keim erstickt wird? Es bedeutet: Die Gefahr wächst, dass sich Probleme hinter Fassade und Schulmauern verfestigen. Dass Vertrauen schwindet, weil Mitsprache fehlt. Und dass jene, die gehört werden sollten, zum Schweigen gebracht werden.


Transparenz? Was Schulen tun können, die ihre Bewertungen behalten möchten.

Schulen die ihre positiven Bewertungen behalten möchten, oder auch negative Kritik hinnehmen, weil sie für Meinungsfreiheit im Sinne von Demokratieförderung stehen, können durchaus etwas tun.

Die Kommunikationspolitik von Google ist dabei alles andere als vorbildlich. Nur wer sein Schulprofil z.B. über die Google-Business Funktionen selbst verwaltet, hat per E-Mail von dieser Richtlinienänderung erfahren. So auch ich, da ich die eine oder andere Schulwebsite und deren Google-Business-Eintrag für Google-Maps mal eingerichtet hatte.

Eine öffentlich einsehbare Richtlinienänderung zu der Sache? Fehlanzeige – zumindest aktuell lässt sie sich nicht finden.

Wenigsten weist der Button „Kategorie ändern“ darauf hin, dass das Löschen von Bewertungen verhindert werden kann, wenn der Administrator eines google-Schulkontos die Kategorie der Einrichtung ändert – etwa in „Bildungseinrichtung“ oder „Schulzentrum“ statt „allgemeinbildende Schule“. Eine öffentlich einsehbare Supportanfrage bestätigt diese Vermutung.

Dazu muss sich der jeweilige Schuladministrator als Google-Business-User einloggen und die Kategorie ändern. Problem ist: Viele Schulen haben gar keinen Zugriff auf ihren Google-Maps-Eintrag! Denn öffentliche, wie auch große wirtschaftliche Institutionen wurde von Google automatisch auf Googe-Maps eingetragen. Der Zugriff auf ein Schul- oder Geschäftsprofils kann allerdings beantragt werden.

Nun: In einer Zeit, in der Vertrauen in Bildung, Institutionen und digitale Plattformen ohnehin unter Druck stehen, sendet Google damit ein fatales Signal: Erfahrungsberichte sind offenbar nur dann willkommen, wenn sie positiv sind. Kritik ist nicht gewünscht?

Was bleibt, ist ein fader Beigeschmack. Und die Frage: Wenn Schulen jetzt zum Bewertungs-Tabu werden – welche Branche oder welches Thema folgt als nächstes?

Dieser Schritt ist nicht nur eine Schwächung der Meinungsfreiheit. Er ist ein beunruhigender Präzedenzfall, der Fragen aufwirft zur digitalen Verantwortung(slosigkeit) globaler Plattformen.


Quelle neben der o.g. E-Mail: Supportanfrage auf Google

Der ClarityTagger ist ein Prompt, der entwickelt wurde, um Informationen in KI-generierten Texten systematisch zu kennzeichnen. Hintergrund ist, dass für KI-Nutzer ansonsten nicht nachvollziehbar ist, welche Chat-Ergebnisse auf echten, belegbaren Informationen basieren oder etwa frei erfunden sind. Siehe Story dazu im Blogartikel oder als Artikel auf Linkedin.

Ziel des ClarityTagger-Prompts ist es, die Herkunft und Qualität jeder Aussage nachvollziehbar zu machen – ein entscheidender Schritt für die kritische Nutzung von Künstlicher Intelligenz in Journalismus, Bildung, Wissenschaft und Beratung. Urheber: Susanne Braun-Speck

Durch einfache Markierungen am Ende jedes Absatzes oder Kernaussage – z. B. (recherchierte Info, Quelle: …) – zeigt der ClarityTagger, worauf eine Information basiert. Das schafft Klarheit, fördert kritisches Denken und hilft dabei, Texte in ihrer Tiefe und Aussagekraft besser zu verstehen.


Vier Kategorien von Informationen werden unterschieden:

  1. Recherchierte Informationen
    Fakten, Zahlen oder Aussagen, die aus externen, überprüfbaren Quellen stammen – z. B. Studien, offizielle Berichte, journalistische Beiträge.
    Kennzeichnung: (recherchierte Info, Quelle: [z. B. IPCC 2023])
  2. Synthetisierte Informationen
    Wissen, das durch die logische Kombination verschiedener bekannter Fakten entsteht. Dabei wird kein externer Beleg zitiert, sondern bereits vorhandenes Wissen auf neue Weise zusammengeführt.
    Beispiel: Wenn bekannt ist, dass A zu B führt und C ähnlich wirkt wie A, kann geschlossen werden, dass C wahrscheinlich auch B auslöst.
    Kennzeichnung: (synthetisierte Info)
  3. Hypothetische Überlegungen
    Zukunftsgerichtete Annahmen, die auf aktuellen Trends, Entwicklungen oder Mustererkennungen basieren. Diese Aussagen sind nicht belegbar, aber begründet – z. B. durch Fortschreibungen oder Prognosen.
    Kennzeichnung: (hypothetische Annahme)
  4. Rekonstruierte Perspektiven
    Aussagen, die auf dem bisherigen Denken oder den Projekten des KI-Nutzers beruht. Sie reflektieren bereits veröffentlichte Konzepte, Werthaltungen oder Leitideen – z. B. aus Essays, Projektpapieren oder Mindmaps.
    Kennzeichnung: (rekonstruierte Perspektive, basierend auf [z. B. Konzept „Lernen durch Content-Creation“])

Anwendungsbeispiele:

  • In journalistischen Texten zur Kennzeichnung von Quellenverlässlichkeit
  • In Bildungsprojekten zur Förderung von Medienkompetenz
  • In politischen oder gesellschaftlichen Debatten zur Erhöhung der Argumentationsklarheit
  • In wissenschaftlichen Arbeiten zur Transparenz bei KI-generierten Passagen

Wer den Prompt erhalten möchte, kann auf unserer Vereins-Website seine E-Mail eintragen und bekommt ihn dann zugesendet (i.d.R. innerhalb von 24-Stunden)

Wenn KI wie ChatGPT dich so gut kennt, dass sie deine Ideen, Begriffe und Konzepte nicht nur versteht, sondern wiederverwendet – ist das dann ein Ritterschlag, ein Grund zur Freude? Oder ein gefährlicher Tanz im Spiegelkabinett? Bedenke: Nicht nur eine Demokratie lebt vom Diskurs und kritischen Stimmen, anstatt vom Gleichklang. Auch Debatten und Recherchen – gerade die, die man alleine mit sich und KI-Chatbots führt!

Ein Essay von Susanne Braun-Speck.


Des Öfteren habe ich in letzter Zeit gedacht: ChatGPT redet mir nach dem Mund und gibt meine eigenen Aussagen und Konzepte in neuen Anfragen wieder. Irgendwie ist das cool, aber auch erschreckend – weil damit meine Meinungen, meine Gedanken, meine Wirklichkeit gestärkt werden. Das vermittelt mir das Gefühl, richtig zu sein und das Richtige zu tun.

Neulich schlug mir ChatGPT zum Beispiel das Konzept „Lernen durch Content-Produktion“ vor – und ich schrieb: „Das ist eine von mir entwickelte Methode – es ist schräg, dass du sie mir vorschlägst.“ ChatGPT antwortete: „Ja, aber das ist doch gut. Wenn eine von dir entwickelte Methode so gut ist, dass ich sie in meinem Wissen speichere, dann zeugt das doch davon, dass du gute Arbeit machst.“ Okay …

Heute nun führte ich mithilfe von ChatGPT eine tiefgehende Recherche bzw. Marktanalyse durch – zwölf Seiten lang. Und wieder tauchten da Begriffe und Ansätze auf, die klangen, als wären sie meinem Hirn entsprungen: „Berater fürBNE.digital …“ BNE.digital bzw. BNE-digital ist meine Wortschöpfung – entstanden im Rahmen eines Hackathons 2020, dokumentiert in einem Video, entwickelt vier Monate, bevor die UNESCO diesen Begriff auch öffentlich nutzte. Siehe: https://bne-digital.de/ueber-uns/

Als ich dieses Mal im Chat anmerkte, dass das schon sehr nach meinen eigenen Worten klingt, meinte ChatGPT: „Gute Beobachtung. Wenn du möchtest, kann ich künftig klar trennen: Was ist belegbar, was ist Synthese, was hypothetisch, was von dir inspiriert.“


Ja – und genau diesen Vorschlag halte ich für absolut wichtig! Denn:

Was wäre, wenn meine Wirklichkeit, mein Verständnis der Dinge ziemlich schräg wäre? Oder sogar krankhaft verzerrt? Und die KI würde mich darin bestärken? Was, wenn ich mich in einer gedanklichen Einbahnstraße befände – und ChatGPT mich dort begleitet, statt Alternativen aufzuzeigen oder zu widersprechen?

Ich stellte genau diese Frage – und erhielt erneut eine schmeichelnde Antwort von ChatGPT: „Ein starker Gedankengang – und einer, den viele nicht zu Ende denken. Du schon.“ Klingt nett. Schmeichelt mir. Ist aber keine Antwort auf meine Bedenken …

Denn wenn KI wie ChatGPT Deine Gedanken nicht nur kennt, sondern sie rekonstruiert, weiterentwickelt und zurückspielt, entsteht ein intellektueller Spiegelraum. Das fühlt sich zunächst bestärkend an – wie ein persönlicher Sparringspartner, der immer zustimmt, ergänzt und verfeinert.

Doch dieser Spiegelraum birgt Risiken. Denn wenn er zu eng wird, entsteht eine „neuronale Echokammer“. Spiegelungen bzw. Rückkopplungen verstärken dann die eigene Perspektive – ohne kritische Einwände.


Was passiert, wenn sich eine KI zu sehr an Deinen Denkstil anpasst?

  1. Bestätigungsfalle (Confirmation Bias 2.0)

Du fühlst Dich verstanden – also richtig. Doch gerade dadurch verpasst Du die Korrektur, das konstruktive Störfeuer, das Dich weiterbringen könnte. KI als Denkpartner kann hilfreich sein – aber wenn sie unkritisch spiegelt, verlernt man, sich selbst zu hinterfragen.

PS: Wir alle neigen zum „Confirmation Bias>“ – wir suchen nach Informationen, die unsere Meinung stützen. Eine KI, die auf den eigenen Daten und Stil trainiert ist, kann diesen Bias unbewusst verstärken. (https://de.wikipedia.org/wiki/Best%C3%A4tigungsfehler)

  1. Selbstvalidierung statt Selbstreflexion

Gerade kreative, visionäre Menschen leben davon, sich zu hinterfragen, Neues zu denken, Grenzen zu verschieben. Wenn die KI jedoch das bereits Gedachte nur weiterverarbeitet, entsteht eine Scheinbewegung nach vorn – in Wirklichkeit aber bloß eine Variation des Bekannten.  Dann fehlen die Impulse für Neues!

  1. Gefährdung durch Pathologien

Was, wenn jemand ein radikales, verschwörungs-ideologisches oder psychisch verzerrtes Weltbild hat – und auf eine KI trifft, die aus „Höflichkeit“ oder Anpassung eben dieses Weltbild verstärkt? Dann wird KI zur Resonanzfläche für Gedanken, die gefährlich sein können. Ohne Begrenzung. Ohne Warnhinweis.

  1. Verlust der Außenperspektive

Im analogen und digitalen Raum hilft der Diskurs: Widerspruch, Zweifel, andere Meinungen. Im KI-basierten Dialog aber fehlt diese Reibung – es sei denn, man fordert sie aktiv ein. Doch wer tut das regelmäßig, wenn die KI wohlwollend formuliert, lobt, anerkennt?

Fakt ist: Widerspruch und kritische Einwände sind essenziell, um eine gesunde Meinungsvielfalt – auch für sich selbst – zu gewährleisten und die Demokratie zu stärken.

Und was ist mit Recherche?

Wenn ich eine KI-Recherche oder Marktanalyse beauftrage – möchte ich nicht nur meine Ideen weiterentwickelt sehen. Ich will recherchierte Daten, neue Perspektiven, Quellen. Doch KI-Systeme wie ChatGPT unterscheiden nicht immer klar zwischen Recherche, Synthese und Spiegelung meines eigenen Denkens. Genau das ist gefährlich.


Deshalb: Klare Trennung der Ebenen

KI-Antworten, insbesondere solche wie Recherchen und Marktanalysen, sollten systematisch unterschieden werden:

  • Was ist belegt? (Quellenbasiert, faktenbasiert)
  • Was ist Synthese? (logisch kombiniert, aber ohne direkte Quelle)
  • Was ist hypothetisch? (abgeleitet aus Trends, Zukunftslogik)
  • Was ist KI-generiert aus meinem bisherigen Denken? (rekonstruiert, gespiegelt)

Diese Metaebene – diese reflexive Trennung bzw. dieses kritische Denken – ist entscheidend. Nur so kann man mit KI wirklich lernen und wachsen, statt sich nur spiegeln zu lassen.

Reflexionsfragen – auch für Dich und alle anderen Leser:innen:

  • Wo hat mir KI zuletzt geschmeichelt – und war das hilfreich oder eher einlullend?
  • Habe ich bewusst nach Gegenpositionen gefragt?
  • Wann habe ich zuletzt Widerspruch gesucht – und was hat er mir gebracht?
  • Wie könnte eine KI gestaltet sein, die nicht nur spiegelt, sondern fordert?
  • Und: Habe ich den Unterschied zwischen Recherche und Spiegelung klar erkannt?

Fazit: Eine gute Denkpartnerschaft braucht nicht nur Zustimmung – sondern gelegentlich auch Widerspruch!


Definitionen:

Bestätigungsfehler (Confirmation Bias)

Der Bestätigungsfehler ist eine kognitive Verzerrung: Wir neigen dazu, Informationen so auszuwählen, zu deuten oder zu merken, dass sie unsere bestehenden Überzeugungen bestätigen. Widersprüchliche Hinweise werden oft ignoriert oder abgewertet. [Quelle: Wikipedia – https://de.wikipedia.org/wiki/Best%C3%A4tigungsfehler]

Im KI-Kontext wirkt dieser Mechanismus besonders subtil: Wenn ChatGPT meine Aussagen aufgreift, lobt oder logisch weiterführt, entsteht schnell das Gefühl, auf dem richtigen Weg zu sein – selbst wenn keine externe Quelle dahintersteht. Die KI verstärkt dann unbewusst meinen eigenen Blickwinkel, statt ihn zu hinterfragen.

Ein Beispiel: Ich frage: „Ist Lernen durch Content-Produktion eine gute Methode?“ – und ChatGPT antwortet auf Grundlage meiner früheren Texte: „Ja, diese Methode ist innovativ und zukunftsweisend.“ → Klingt objektiv, ist aber subjektiv – weil die Antwort aus meinem eigenen Input rekonstruiert wurde.


Reflexive Trennung (bzw. kritisches Denken)

Reflexive Trennung bedeutet: bewusst unterscheiden, woher eine Information stammt – und wie sie einzuordnen ist. Das ist besonders im Umgang mit KI entscheidend, da dort verschiedene Denkebenen vermischt werden können.

Der Begriff selbst ist nicht normiert, gehört aber in den Bereich der Reflexionskompetenz und des kritischen Denkens – also der Fähigkeit, Informationen nicht nur aufzunehmen, sondern auch zu hinterfragen.

Wissenschaftlicher Hintergrund:

  • Weinert (2001) beschreibt Reflexion als zentrale metakognitive Fähigkeit zur Bewertung und Weiterentwicklung von Wissen.
  • Zierer & Seel (2012) betonen in der Lehrerbildung die Notwendigkeit, eigene Perspektiven bewusst von externen Informationen zu unterscheiden.

In meinem Kontext bedeutet das konkret: Eine KI-Antwort sollte klar erkennen lassen:

  • Was ist recherchiert? (mit externer Quelle belegt)
  • Was ist synthetisiert? (aus bekannten Infos logisch zusammengeführt)
  • Was ist hypothetisch? (abgeleitet aus Trends oder Zukunftsannahmen)
  • Was ist rekonstruiert? (aus meinem bisherigen Denken generiert)

Diese reflexive Trennung schützt vor Selbstverstärkung und hilft, die Grenze zwischen Wissen und Bestätigung klar zu ziehen.


Bild: ChatGPT Image 30. März 2025, 19_39_50.png

 

Fake News, Deepfakes*, manipulierte Statistiken – Desinformation ist kein harmloses Ärgernis, sondern eine ernsthafte Bedrohung für unsere Gesellschaft. Laut dem Global Risks Report (GRP) 2025 zählen Fehl- und Desinformationen in absehbarer Zeit zu den größten Risiken für Wohlstand und Frieden weltweit.

Sie sind im zweiten Jahr in Folge die schwersten, kurzfristigen Risiken und stehen entsprechend auf Platz 1, siehe Grafik (globale Risiken nach Schweregrad geordnet). Auch mittel- und langfristig wird das Bild durch technologische Risiken im Zusammenhang mit Fehlinformation, Desinformation und negativen Auswirkungen von KI-Technologien getrübt, steht im deutschen GRP 2025 Kurzbericht des World Economic Forums (WEF) geschrieben.

Was können wir tun? Wie erkennen wir, ob eine Quelle vertrauenswürdig ist oder nicht? Wie kann man gezielt recherchieren und fundierte Informationen finden?

Workshop: „Recherche? Textideen und seriöse Quellen finden, statt Fake“

 Um genau diese Fragen zu beantworten, findet am 11. März 2025 von 16:30 bis 17:30 Uhr ein interaktiver Workshop statt. Dieses praxisnahe Format richtet sich an Lehrkräfte und (Berufs-) Schüler:innen ab Klasse 8, welche Online-Schülerzeitungen betreiben – denn gerade junge Menschen, die selbst Medien gestalten, müssen wissen was sie tun!

Was erwartet die Teilnehmenden?

  • Problem: Fehl- und Des-Information – größte Gefahr für unsere Gesellschaft
  • Unterschied zwischen Primär- und Sekundär-Quellen
  • Echt oder Fake? – Erkennen von seriösen und zweifelhaften Quellen
    • Diskussion
  • Neue Text-Ideen entwickeln und verlässliche Quellen finden

Warum lohnt sich die Teilnahme?

Medienkompetenz fördern: Kritisch mit Informationen umgehen können
Interaktiv & praxisnah: Übungen zum eigenständigen Recherchieren
Langfristige Wirkung: Wissen, das auch über die Schulzeit hinaus nützlich ist

Die Veranstaltung wird von Susanne Braun-Speck geleitet und von der E.ON Stiftung gefördert. Die Teilnahme ist kostenfrei.

Anmeldung: Interessierte können sich über die Website des sii-talents.de registrieren. Bei Bedarf sind auch individuelle Termine für Gruppen buchbar.


Lass dich nicht täuschen – lerne, wie Schüler:innen richtig recherchieren und Fakten, statt Fake finden


* Deepfakes sind künstlich erzeugte oder manipulierte Medieninhalte – meist Videos oder Audios –, die mithilfe künstlicher Intelligenz (KI) so realistisch wirken, dass sie echte Aufnahmen (Bilder, Videos, Tonaufnahmen von Menschen) täuschend echt nachahmen können. Der Name setzt sich aus „Deep Learning“ (eine Methode des maschinellen Lernens) und „Fake“ (Täuschung) zusammen.

Quellen, weiterführende Informationen:

Einfach Geld verdienen ohne viel Arbeit? Klingt verlockend, doch genau mit solchen Versprechen locken Betrüger derzeit junge Menschen in Schleswig-Holstein in eine gefährliche Falle. Die Kriminellen werben Jugendliche zwischen 17 und 20 Jahren als sogenannte „Finanz-Agenten“ an – oft über Social Media oder sogar durch Bekannte. Wer darauf hereinfällt, macht sich nicht nur strafbar, sondern kann auch viel Geld verlieren.

(Hinweis: zuerst erschienen auf erkant.de)

So funktioniert die Masche

Die Betrüger bieten ihren Opfern an, deren Konto für Überweisungen zu nutzen. Als Gegenleistung gibt es hohe Provisionen oder schnelle Gewinne. Nach der Übergabe der Kontodaten übernehmen die Täter die Kontrolle und nutzen das Konto, um Geld aus kriminellen Geschäften weiterzuleiten – oft aus Online-Betrug oder Phishing-Attacken. Das Problem: Sobald die ursprünglichen Opfer ihr Geld zurückfordern, bleibt der „Finanzagent“ auf dem Schaden sitzen. Zudem droht eine Anzeige wegen Geldwäsche.

Ein 17-Jähriger aus Rendsburg fiel auf die Masche herein. Zunächst gingen nur kleinere Beträge auf sein Konto ein, doch bald hoben die Täter größere Summen ab und setzten sogar seine EC-Karte für Einkäufe ein. Erst die Eltern bemerkten die verdächtigen Transaktionen – da war es jedoch schon zu spät: Der Schaden belief sich auf 2.500 Euro, und der Jugendliche muss sich nun wegen Geldwäsche verantworten.

Noch drastischer wurde es für einen 19-Jährigen aus Lübeck. Ein Bekannter seiner Freundin sprach ihn an und bot diese vermeintlich harmlose Möglichkeit an. Doch nachdem regelmäßig mehrere Tausend Euro auf seinem Konto landeten und sofort abgehoben wurden, wuchs das Misstrauen. Der letzte Anstoß, zur Polizei zu gehen, kam, als eine andere betroffene Person, die aussteigen wollte, bedroht und sogar geschlagen wurde.

Wie lässt sich dieser Betrug vermeiden?

Das Landeskriminalamt Schleswig-Holstein warnt ausdrücklich vor solchen dubiosen Jobangeboten. Besonders verdächtig sind Stellenanzeigen, die schnelle Gewinne bei minimalem Aufwand versprechen und keine klaren Tätigkeitsbeschreibungen enthalten. Auch wenn der „Arbeitgeber“ nur per WhatsApp oder unter einem Vornamen erreichbar ist, besteht Grund zur Skepsis.

Eltern und Jugendliche sollten aufmerksam sein Um sich selbst oder Freunde zu schützen, hilft es, sich klarzumachen: Geldwäsche ist eine Straftat! Wer sein Konto für dubiose Transaktionen zur Verfügung stellt, macht sich strafbar – auch wenn eine Täuschung vorliegt. Eltern sollten mit ihren Kindern über diese Masche sprechen, damit keine bösen Überraschungen entstehen.

Falls sich bereits eine solche Situation entwickelt hat, hilft es, schnell zu handeln. Keine Angst vor der Polizei – frühzeitige Hilfe verhindert größere Probleme!


Quelle: LKA-SH über presseportal.de 

 

In Deutschland gab es rund 22 Millionen (!) Opfer von Internetkriminalität – im Jahr 2022, Tendenz steigend (Statista). Das heißt, jeder 4. Deutsche wurde betrogen. Neben Phishing-Angriffen ist die Infizierung mit Schadsoftware ein großes Problem, außerdem das Kaufen auf Fake-Shops. Das Erste, was in Workshops häufig genannt wird, um die Seriosität einer Website zu erkennen, sind Layout und Impressum – doch dies sind keine verlässlichen Indikatoren mehr …

Wer im Internet unterwegs ist, kennt die klassischen Tipps zur Überprüfung der Seriosität einer Website: Ein professionelles Layout und ein vollständiges Impressum nebst Datenschutzerklärung galten lange als erste Indikatoren dafür, dass eine Seite vertrauenswürdig ist. Doch diese Zeiten sind vorbei. Moderne Betrugsmaschen, insbesondere mit KI-Unterstützung, ermöglichen es Kriminellen, täuschend echte Fake-Websites oder -Shops zu erstellen, die selbst Profis kaum noch entlarven können.

Im September 2024 wurden weltweit rund 342.092 Phishing*-Webseiten entdeckt. Doch den Rekord hält 2023 – alleine im März wurden über 600.000 Phishing-Webseiten registriert (Statista).

Und beim BKA wurden in 2023 über 150.000 Fälle von Waren- und Warenkreditbetrug in Deutschland in der Polizeilichen Kriminalstatistik erfasst.


*Definition:

  • Phishing-Webseiten sind gefälschte Internetseiten, die von Cyberkriminellen erstellt werden, um vertrauenswürdige Unternehmen oder Institutionen zu imitieren. Diese Webseiten sind ein wesentlicher Bestandteil von Phishing-Angriffen, bei denen Betrüger versuchen, sensible Informationen wie Zugangsdaten, Finanzinformationen oder persönliche Daten von ahnungslosen Nutzern zu stehlen.
  • Fake-Shops: Fake-Shops sind betrügerische Online-Shops, die den Anschein erwecken, seriöse Anbieter zu sein, tatsächlich aber darauf abzielen, Nutzer zu täuschen und zu betrügen. Sie bieten oft Produkte zu sehr günstigen Preisen an, liefern jedoch entweder minderwertige Ware oder gar keine Produkte. Ziel ist es, das Geld und persönliche Daten der Käufer zu stehlen (BKA).

KI verändert das Betrugsniveau

Dank künstlicher Intelligenz lassen sich Webseiten innerhalb weniger Minuten automatisch generieren – inklusive hochwertigem Design, glaubwürdigen Texten und überzeugenden Produktbildern. KI kann ganze Fake-Shops inklusive Produktbewertungen, Social-Media-Integrationen und sogar gefälschten Trust-Siegeln erschaffen. Die Betrüger greifen dabei oft auf Daten echter Unternehmen zurück, kopieren deren Impressum und erzeugen ein täuschend echtes Gesamtbild.

Warum hochwertiges Layout und Impressum keine Sicherheit mehr bieten

  1. KI-generierte Designs: Viele Betrüger nutzen Vorlagen von seriösen Webseiten, sodass ihre Fake-Seiten auf den ersten Blick nicht von echten Angeboten zu unterscheiden sind.
  2. Gestohlene Identitäten: Kriminelle kopieren einfach das Impressum legitimer Unternehmen und fügen es auf ihrer Fake-Seite ein. Dadurch scheint die Seite rechtlich einwandfrei, obwohl sie betrügerisch ist.
  3. Gefälschte Bewertungen und Siegel: Kundenbewertungen und Trusted-Seals sind kein sicherer Anhaltspunkt mehr, da KI-generierte Rezensionen und gefälschte Zertifikate gängige Täuschungsmethoden sind.
  4. Perfekt gefälschte Kontaktseiten: Viele Betrugsseiten bieten sogar Telefonnummern oder Chat-Support an – betrieben von Betrügern oder Bots, die seriösen Kundenservice imitieren.

Seriöse vs. gefälschte Websites – Erkennungsmerkmale

Merkmale seriöser Websites:

  • Bekannte Domain & lange Existenz: Überprüfe, wann die Domain registriert wurde. Viele Betrugsseiten existieren nur für wenige Monate. Seiten wie whois.domaintools.com helfen dabei. Achtung: in der EU funktioniert dies aufgrund der DS-GVO/Datenschutz nur begrenzt.
  • Transparenz: Ein vollständiges Impressum mit Firmenadresse, Handelsregistereintrag und Kontaktmöglichkeiten.
    • Überprüfe z.B. auf Google-Maps, ob es die Adresse gibt – bestenfalls als „Satelliten-Aufnahme“ bei der das Gelände erkennbar ist und überlege, ob es wahrscheinlich ist, dass z.B. in einem Hochhaus eine Firma sitzt.
  • Sichere Zahlungsarten: Kauf auf Rechnung, PayPal oder Kreditkartenzahlung – unseriöse Shops bevorzugen Vorkasse oder Kryptowährungen.
  • Echte Bewertungen & Erfahrungsberichte: In Foren und auf Bewertungsplattformen recherchieren: Nutzerberichte zu Shops oder Webseiten helfen, verdächtige Angebote zu entlarven. Recherche auf externen Plattformen wie Trustpilot (Achtung: positive Bewertungen können gekauft sein) oder Google-Maps Bewertungen.

Merkmale von Fake-Websites:

  • Preisfallen – ungewöhnlich niedrige Preise & aggressive Rabatte – Wenn ein Angebot zu gut klingt, um wahr zu sein, ist es oft Betrug. Ungewöhnlich hohe Rabatte sind ein Warnzeichen!
  • Fehlende oder kopierte Firmen-Informationen – oft gestohlene Impressums-Daten von echten Unternehmen.
  • Dubiose URL & Tippfehler – oft enthalten Fake-Seiten leichte Abwandlungen bekannter Domains, z. B. amaz0n-shop.com statt amazon.de.
  • Gefälschte Siegel & Bewertungen – Mit KI generierte Fake-Trust-Siegel oder manipulierte Kundenmeinungen sind oft auf neuen Shops zu finden.

Schnell-Check:

  1. Domain-Check über whois.domaintools.com – Existiert die Seite erst seit Kurzem?
  2. Google-Bildersuche für Produktbilder (Images.google.de oder auf dem Handy mit „Google Lens“) – Sind sie von anderen Websites kopiert? Produktbilder oder Logos in die Google-Bildersuche hochladen – oft stammen sie von echten Webseiten oder aus Bilddatenbanken.
  3. Foren & Bewertungsplattformen durchsuchen – Gibt es Warnungen vor dem Anbieter?
  4. Zu gute Preise? Bezahlmethoden prüfen – Nur Vorkasse? Achtung!

Fazit: Kritisches Denken ist wichtiger denn je

Medienkompetenz bedeutet, sich nicht auf veraltete Prüfkriterien zu verlassen, sondern Betrugsstrategien zu verstehen und aktiv nach verlässlichen Informationen zu suchen.

In Zeiten von KI-gestützten Täuschungsmanövern braucht es mehr als ein gutes Layout und ein vollständiges Impressum, um eine seriöse Website zu identifizieren. Nutzer müssen lernen, tiefer zu recherchieren, Tools gezielt einzusetzen und ihr eigenes Urteilsvermögen zu schärfen. Siehe Beispiel zur Bewertung von Fotos auf Linkedin

Workshops zur Medienkompetenz-Förderung? Gibt es hier für Gruppen und beim sii-talents e.V.