Egal, wo man hinsieht: überall steckt KI drin. Nothing plant ein KI-Betriebssystem für seine Handys, Chrome backt KI gleich in den Browser ein und OpenAI produziert den ersten KI-Film.
Das Internet ist voll damit. Über 50 Prozent davon bestehen aus sogenanntem AI Slop
, schreibt unter anderem Futurism. Ich vermute mittlerweile hinter jeder Ecke KI, nicht erst, seitdem ich selbst auf Tiere auf Trampolinen hereingefallen bin.
Und dann sah ich diesen Blogpost: Die Wikipedia Foundation beklagt acht Prozent weniger menschliche Seitenbesuche über die vergangenen Monate. Marshall Miller, Autor des Beitrags, sieht den Grund bei KI. Sie habe verändert, wie Menschen nach Informationen suchen (und bekommen), vor allem durch KI-generierte Zusammenfassungen, die nicht mehr zum Klicken verleiten.
Ich weiß, wie ich mich verhalte, aber ich frage mich: Recherchieren und denken wir durch KI wirklich weniger selbst?
Recherchieren und denken wir wirklich weniger selbst?
Ich erinnere mich noch an eine Zeit, als Wikipedia nicht als sichere Quelle galt. In der Schule hieß es dann immer: Wikipedia als Quelle zählt nicht. Auch heute checke ich immer noch die Fußnoten einer entsprechenden Wikipedia-Seite (natürlich nicht, wenn ich beispielsweise die Schauspielerliste des neuesten Star Wars-Film anschaue).
Bei meiner Überprüfung zum Thema habe ich keine direkte Aussage zur Recherche in Verbindung mit KI gefunden. Stattdessen bin ich auf drei Studien gestoßen, die Künstliche Intelligenz mit kritischem Denken in Verbindung bringen.
Das ist quasi die Vorstufe, die uns erst zur Recherche bewegt. Ihr kennt den Spruch mit der gesunden Portion Skepsis. Erwähnt sei auch: Die Erkenntnisse aus den Studien sind begrenzt. Das liegt zum einen daran, dass das Thema relativ betracht neu ist. Zum anderen verweise ich auch auf eine Studie mit einem niedrigen Probandenkreis.
Eine schweizerische Studie vom 10. September 2025, erschienen beim MDPI, hat den Effekt des »Cognitive Offloading« untersucht. Kurz gesagt, handelt es sich dabei um das Auslagern von Denkprozessen an Technologie.
- Die Untersuchung fand mit 666 Probandinnen und Probanden unterschiedlichen Alters und Bildungsstands statt.
- Häufige Nutzung von KI-Tools verstärkt kognitives Auslagern.
- Jüngere Teilnehmer nutzten KI häufiger und erzielten niedrigere Werte im kritischen Denken als ältere.
- Menschen mit höherer Bildung zeigten besseres kritisches Denken, egal, wie oft sie KI nutzten.
Zwei weitere Studien im Blickpunkt
Ins selbe Horn bläst eine Studie von Microsoft und der Carnegie Mellon Universität in Pittsburgh. Hier wurden 319 Wissensarbeiter (Personen, die ihr Einkommen durch die Nutzung, Anwendung und Erzeugung von Wissen erzielen) befragt, wie sie GenKI bei ihrer Arbeit nutzen.
Was ist GenKI?
GenKI (oder GenAI) ist die Abkürzung für generative KI. Das ist eine Form von Künstlicher Intelligenz, die selbstständig neue Inhalte erstellt, etwa Texte, Bilder, Musik oder Code, basierend auf Mustern, die sie aus Trainingsdaten gelernt hat. Sie »generiert« also etwas Neues.
- Die Ergebnisse zeigen: Je mehr Vertrauen Nutzer in GenKI haben, desto weniger kritisch denken sie.
- Im Umkehrschluss führt höheres Selbstvertrauen in einem Fachgebiet zu mehr kritischem Denken.
- GenKI verändert außerdem die Art des kritischen Denkens: Anstatt zu hinterfragen, werden Informationen überprüft und Antworten verknüpft.
Eine dritte Studie des MIT (zu lesen über arxiv) vom Sommer dieses Jahres kommt zum Schluss: Die Verwendung von ChatGPT (und anderen LLMs) könnte zu einem kognitiven Verfall führen.
Die MIT-Studie hat untersucht, wie sich die Nutzung von LLMs wie ChatGPT auf das Lernen und Denken beim Schreiben von Essays auswirkt. Dazu wurden 54 Teilnehmerinnen und Teilnehmer in drei Gruppen eingeteilt:
- LLM-Gruppe, die ChatGPT nutzte
- Suchmaschinen-Gruppe, die händisch recherchierte
- Brain-only-Gruppe, die ausschließlich ohne Hilfsmittel auskam.
Danach wurden die Gruppen getauscht, um die Effekte zu vergleichen. Mithilfe von EEG-Messungen, Sprach- und Inhaltsanalysen sowie Interviews wurde das Denken, die Sprachleistung und das Gefühl von Eigenverantwortung untersucht. Die Ergebnisse:
- Die LLM-Gruppe zeigte die geringste Gehirnaktivität und somit schwächste kognitive Beteiligung.
- Die Brain-only-Gruppe war kognitiv am aktivsten, die Suchmaschinen-Gruppe lag dazwischen.
- Teilnehmerinnen und Teilnehmer, die von der LLM- in die Brain-only-Gruppe wechselten, zeigten weiterhin verringerte geistige Aktivität.
- Umgekehrt aktivierten Probandinnen und Probanden wieder visuelle und präfrontale Bereiche.
- Die LLM-Nutzerinnen und -Nutzer erinnerten sich schlechter an ihre eigenen Texte und befanden, dass es sich weniger um »ihre« Texte handelte.
Die MIT-Studie kam zu dem Schluss: Die Nutzung von LLMs kann das Lernen und die kognitive Aktivierung langfristig schwächen, obwohl sie kurzfristig Vorteile bietet. Die Studie warnt vor einem Rückgang von Lern- und Denkfähigkeiten durch zu starke KI-Abhängigkeit im Bildungsbereich.
44:19
»Künstliche Intelligenz ist die neue Elektrizität« - Wir busten mit einem Experten 5 Mythen zu KI
Drei Studien mit ähnlichem Ergebnis
Die Nutzung von KI und GenKI kann auf Dauer unser kognitives Denken schwächen, so die Richtung der Ergebnisse der drei Studien. Das Auslagern des Denkprozesses schadet potenziell dem kritischen Denken, was uns erst zum Recherchieren verleitet.
Darüber hinaus hat auch die Recherche mit KI Nachteile. Die Antworten von Gemini oder ChatGPT sind nicht zuverlässig, weswegen man ihnen nicht blind vertrauen sollte. Das liegt unter anderem an zwei Tatsachen.
- ChatGPT und Co. besuchen Webseiten nicht, schreibt t3n (Bezahlinhalt). Selbst wenn ihr der KI einen Link gebt, sind ihre Antworten nicht verlässlich.
- Bereits eine kleine Menge falscher Daten kann die Antworten von KIs maßgeblich beeinflussen, sagt Anthropic. Dadurch, dass Künstliche Intelligenz Ergebnisse als wahr präsentiert, tappt man ihr leicht in die Falle.
War Recherche früher anders?
Ich erzähle euch keine Märchen, wenn ich sage, dass Menschen früher zur Recherche in die Bibliothek gegangen sind (und es heute teilweise auch noch tun). Das erfordert deutlich mehr geistige (und körperliche) Arbeit, als eine KI zu fragen oder eine Suchmaschine zu bedienen.
Wenn ich zehn oder mehr Jahre zurückdenke, dann hat schon ein wenig Skill dazu gehört, um in Google (oder einer anderen Suchmaschine) ordentliche Ergebnisse abseits der berüchtigten ersten Seite zu finden – und das kostete Zeit.
Mittlerweile sind Google-Ergebnisse allerdings deutlich schlechter geworden, fand eine Studie der Universitäten Leipzig und Weimar heraus. Trotz Alternativen scheinen Menschen gemäß Wikipedia-Blogeintrag mehr auf die KI-Zusammenfassungen zu vertrauen, anstatt ihre Recherche zu vertiefen.
Kurzum: Man musste früher mehr Hirnschmalz in die Recherche stecken, wurde aber auch mit hilfreichen Informationen versorgt. Heute erscheint es mir so, dass man nicht weniger Arbeit beim Recherchieren aufbringen muss und sich zwischen Werbeseiten und KI-Texten die Rosinen herauspicken muss.
Social Media spielt für Jüngere eine Rolle
Im oben verlinkten Blogpost von Wikipedia ist die Rede davon, dass jüngere Generationen soziale Plattformen zur Informationsbeschaffung nutzen.
Das bringt eigene Gefahren mit sich.
Laut der Berliner Landeszentrale für politische Bildung beeinflussen maßgeblich vier Faktoren das, was wir auf Instagram und Co. sehen.
- Algorithmen: Programmierte Regeln entscheiden, was in Feeds gespült wird. Wer sich gerne süße Katzenvideos anschaut, bekommt mehr davon und zusätzlich Inhalte mit anderen niedlichen Tieren. Das macht soziale Medien zur Recherche suboptimal.
- Filterblasen: Durch Algorithmen entstehen Filterblasen, in denen wir nur das angezeigt bekommen, was wir mögen. Das Problem: Dadurch werden andere Sichtweisen ausgeblendet, wodurch unsere Blickwinkel verengt.
- Politische Meinungsbildung: Gerade in der politischen Meinungsbildung werden Meinungen dadurch spitz und stark vereinfacht. Außerdem unterstützt das Desinformation, sagt Dr. Georg Materna im oben verlinkten Artikel.
- FOMO (Fear Of Missing Out): Am Ende unterstützt das auch FOMO, was in den Suchtfaktor mit hineinspielt, so DW.
Dadurch können die sozialen Medien zu Echokammern werden. Im Gespräch mit der SRH Fernhochschule beschreibt Prof. Dr. Falk Tennert, Professor für Wirtschaftspsychologie, Echokammern wie folgt:
Echokammern entstehen, wenn Mediennutzer Inhalte sozialer Medien entsprechend der eigenen Präferenz filtern und ihre Informationsumwelt durch Algorithmen so personalisieren, dass sie sich überwiegend nur noch den Themen und Positionen zuwenden, die sie selbst vertreten und sich hierüber mit anderen austauschen.
Was hat das explizit mit der Recherche zu tun?
Sich zu informieren, bedeutet auch, andere Blickwinkel einzunehmen. Das Max-Planck-Institut schreibt in einem Artikel, dass es Nutzerinnen und Nutzern in den sozialen Medien »massiv an Transparenz mangelt«. Es ginge hauptsächlich um Aufmerksamkeit. Bildungsforscher Philipp Lorenz-Spreen sagt dazu:
Menschen sind soziale Wesen und umgeben sich gern mit anderen, die ähnliche Ansichten teilen. [...] Auf diese Weise befriedigen Plattformen ihr kommerzielles Bedürfnis, Nutzerinnen und Nutzer so lange wie möglich zu binden, und fördern gleichzeitig die Bildung sozialer Echokammern.
Gerade in solchen Räumen sind Menschen anfälliger für Propaganda, Hatespeech und Falschinformationen, weil ihr eigenes Weltbild von allen Seiten bestätigt würde.
Ich selbst bin nicht übermäßig in den sozialen Medien unterwegs. Aber auch ich merke, wie ich mit den immerzu gleichen oder gleichartigen Informationen gefüttert werde.
Es ist befriedigend, in seiner Meinung bestätigt zu werden. Ich weiß aber auch, dass dieser sogenannte Information Bias
trügerisch ist. Er verleitet dazu, Posts oder Videos einfach zu glauben, ohne sie zu hinterfragen.
50:25
Stimme von KI-Firma geklaut! Leben wir schon in einer Dystopie?
Wie recherchiert man am besten?
Die gute Antwort ist: Man findet im Internet allerhand vertrauenswürdige Quellen, um sich schlau zu machen.
Die schlechte Antwort ist: Man muss sich die Mühe machen und sie finden.
Es gibt keinen Königsweg, aber ich kann euch sagen, wie ich vorgehe, wenn ich eine Information oder eine Nachricht überprüfen möchte.
- Als Erstes google ich nach besagter Information.
- Ich überprüfe Portale, die möglicherweise darüber berichtet haben.
- Auf der Seite checke ich die Originalquelle: Woher stammt die Info?
- Kenne ich die Originalquelle nicht, überprüfe ich, ob sie vertrauenswürdig ist. Wichtig ist mir vor allem, dass sie möglichst neutral ist und Informationen nicht verzerrt.
- Sollte es sich um eine größere Nachricht handeln, hilft es auch zu recherchieren, ob viele Portale darüber berichten.
Das Allerwichtigste ist aber vor allem, nicht alles zu glauben, was im Internet steht. Das gilt sowohl für Menschen, die Posts auf Instagram, Threads, Reddit und Co. absetzen, aber auch für Videos auf YouTube und natürlich KI-Ergebnisse.
Immanuel Kant hat einst gesagt: »Habe Mut, dich deines eigenen Verstandes zu bedienen«. Im Informationszeitalter, in dem die Hälfte aller Online-Texte von KI geschrieben ist, gilt das mehr denn je – und wenn man dafür als erstes Wikipedia ansteuert.

Nur angemeldete Benutzer können kommentieren und bewerten.
Dein Kommentar wurde nicht gespeichert. Dies kann folgende Ursachen haben:
1. Der Kommentar ist länger als 4000 Zeichen.
2. Du hast versucht, einen Kommentar innerhalb der 10-Sekunden-Schreibsperre zu senden.
3. Dein Kommentar wurde als Spam identifiziert. Bitte beachte unsere Richtlinien zum Erstellen von Kommentaren.
4. Du verfügst nicht über die nötigen Schreibrechte bzw. wurdest gebannt.
Bei Fragen oder Problemen nutze bitte das Kontakt-Formular.
Nur angemeldete Benutzer können kommentieren und bewerten.
Nur angemeldete Plus-Mitglieder können Plus-Inhalte kommentieren und bewerten.