Marko - stock.adobe.com

KI und kognitive Fähigkeiten: Auf die Nutzung kommt es an

Zwischen Online-Betrug und KI-Nutzung bestehen seitens der Anwendung und der Folgen durchaus Zusammenhänge. Wer KI unkritisch nutzt, wird auch anfälliger für Betrugsversuche.

KI macht dumm – so oder so ähnlich lauteten die reißerischen Schlagzeilen, als das MIT Media Lab im Juni 2025 seine Studie Your Brain on ChatGPT veröffentlichte. Die Nachrichtenmeldungen überschlugen sich mit Warnungen vor kognitiven Verfallserscheinungen durch KI-Nutzung. Und ja, auf den ersten Blick erscheinen die Ergebnisse tatsächlich beunruhigend: Die Forscher stellten fest, dass Probanden, die ChatGPT zum Schreiben von Essays nutzten, deutlich reduzierte Gehirnaktivität aufwiesen. Besonders alarmierend war die Beobachtung, dass 83 Prozent dieser Nutzer sich nicht an den Inhalt ihrer gerade erst verfassten Texte erinnern konnten.

Doch wie so oft lohnt ein genauerer Blick hinter die Schlagzeilen. Die MIT-Studie ist zweifellos wertvoll, hat jedoch auch ihre Grenzen. Eine kleine Stichprobe von lediglich 54 Teilnehmern, vorwiegend Studenten aus dem Raum Boston, lässt kaum allgemeingültige Aussagen zu. Zudem wurde die Studie zum Zeitpunkt ihrer medialen Verbreitung noch nicht peer-reviewed – ein wichtiger Umstand, den die Autoren selbst betonten, der in der Berichterstattung jedoch meist unterging.

Nicht das Werkzeug, sondern seine Verwendung entscheidet

Die Kernfrage ist nicht, ob KI unsere kognitiven Fähigkeiten beeinträchtigt, sondern wie wir sie nutzen. Die MIT-Studie selbst liefert hierfür einen faszinierenden Hinweis: Die ursprüngliche Brain-only-Gruppe, die in den ersten drei Sitzungen ohne technische Hilfsmittel gearbeitet hatte, wurde nun angewiesen, ChatGPT für die gleiche Aufgabenstellung zu verwenden. Interessanterweise zeigte diese Brain-to-LLM-Gruppe in Runde zwei eine verstärkte Aktivierung von Hirnarealen und bessere Gedächtnisleistung – sie konnten sich an ihre Texte erinnern und zeigten Anzeichen aktiver kognitiver Verarbeitung, während sie die KI-Vorschläge mit ihren eigenen Gedankengängen abglichen.

Diese Beobachtung deckt sich mit meinen Erkenntnissen aus der Analyse digitaler Verhaltensweisen. Es existieren grundsätzlich zwei Arten von KI-Nutzern. Die einen sehen in KI einen reinen Ersatz für das eigene Denken – ein bequemes Werkzeug, das ihnen kognitive Last abnimmt. Die anderen nutzen KI als Sparringspartner, der ihre Vorurteile herausfordert, ihren Horizont erweitert und sie dadurch mündiger macht. Dieser Unterschied ist entscheidend. Während die erste Nutzungsart tatsächlich zu geistiger Verkümmerung führen kann, fördert die zweite aktives Denken und das kritische Hinterfragen von Inhalten.

Die Medienkompetenz-Parallele – Von Online-Betrug zu KI-Mündigkeit

Hier offenbart sich eine erstaunliche Parallele zur der Online-Betrugsbekämpfung. Seit über einem Jahrzehnt beobachte ich, wie die digitale Kluft nicht primär zwischen Jung und Alt verläuft, sondern zwischen kritisch-reflektierten und passiv-konsumierenden Mediennutzern. Die gleichen psychologischen Mechanismen, die Menschen für Phishing-Angriffe anfällig machen – unkritische Akzeptanz digital präsentierter Informationen, übermäßiges Vertrauen in Technologie, Ausblenden der eigenen kritischen Bewertung – machen sie auch anfällig für eine problematische KI-Nutzung.

Betrachten wir die typischen Opfer von Online-Betrug. Es sind keineswegs nur ältere oder technisch unbedarfte Menschen. Besonders gefährdet sind interessanterweise oft technikaffine Personen mit oberflächlichem Wissen, die Technologie routiniert, aber unreflektiert nutzen. Ähnlich verhält es sich mit KI: Wer sie als unfehlbare Autorität betrachtet, statt als fehleranfälliges Werkzeug (welches gerne auch mal wild vor sich hin halluziniert), wird damit irgendwann auf die Nase fallen.

Ein neuer digitaler Graben entsteht

Die eigentliche Gefahr besteht darin, dass ohne gezielte Förderung von KI-Kompetenz ein neuer digitaler Graben entsteht. Dieser verläuft nicht zwischen Digital Natives und Digital Immigrants, sondern zwischen KI-mündigen und KI-abhängigen Nutzern. Erstere werden KI als Werkzeug zur kognitiven Erweiterung einsetzen, während die zweite Gruppe zunehmend kognitive Fähigkeiten delegiert – mit potenziell weitreichenden Folgen für kritisches Denken, demokratische Diskursfähigkeit und sogar berufliche Entwicklungschancen.

In einer Zeit, in der wir bereits mit den Auswirkungen gezielter Desinformation und konzertierter Online-Kampagnen kämpfen, ist diese Entwicklung besonders besorgniserregend. Wer KI unkritisch nutzt, baut nicht nur geistig ab, sondern wird auch anfälliger für Manipulation – sei es durch gezielte Propaganda, KI-generierte Betrugsversuche oder subtiles Social Engineering.

Ein neues Verständnis von Medienkompetenz ist gefordert

Was wir brauchen, ist ein umfassendes Neudenken von Medienkompetenz im KI-Zeitalter. Diese muss über das rein technische Know-how hinausgehen und den gesunden Menschenverstand in den Mittelpunkt stellen. Konkret bedeutet das, dass wir lernen müssen, KI als dialogisches Werkzeug zu begreifen, die von ihr ausgegebenen Antworten zu hinterfragen und eigene Überlegungen anzustellen.

Bildungseinrichtungen sollten ihren Schülern und Studenten den Einsatz von KI nicht einfach pauschal verbieten – das wäre realitätsfern und kontraproduktiv. Stattdessen sollten sie KI-Kompetenzen aller Beteiligten systematisch fördern, indem sie KI-Modelle in Lernprozesse integrieren und Kenntnisse zu deren Stärken und Schwächen vermitteln. Lehrkräfte müssen an ihrer eigenen KI-Kompetenz arbeiten, um diese Fähigkeiten an ihre Schüler weitergeben zu können – hier besteht nämlich noch viel Nachholbedarf. Wie das jüngste Schulbarometer eindrücklich aufzeigt, fühlen sich knapp zwei Drittel der Lehrkräfte in Deutschland unsicher beim Umgang mit KI; ein Drittel der Befragten haben sogar noch nie mit ChatGPT & Co. interagiert.

Auch die Politik ist gefordert. Wir brauchen eine gesellschaftliche Diskussion darüber, welche KI-Kompetenzen man braucht und wie diese gefördert werden können. Ähnlich wie seinerzeit bei der Einführung von Computerunterricht in Schulen stehen wir auch jetzt wieder vor einer bildungspolitischen Weichenstellung, deren Auswirkungen noch für Generationen spürbar sein werden. Wir dürfen beim Thema KI nicht die gleichen Fehler wiederholen, die wir vor nicht allzu langer Zeit beim bildungspolitischen und gesamtgesellschaftlichen Umgang mit Social Media gemacht haben.

Frank Heisel, Risk Ident

„In einer Zeit, in der wir bereits mit den Auswirkungen gezielter Desinformation und konzertierter Online-Kampagnen kämpfen, ist diese Entwicklung besonders besorgniserregend. Wer KI unkritisch nutzt, baut nicht nur geistig ab, sondern wird auch anfälliger für Manipulation – sei es durch gezielte Propaganda, KI-generierte Betrugsversuche oder subtiles Social Engineering.“

Frank Heisel, Risk Ident

KI als kognitive Erweiterung, nicht als Gehirnersatz verstehen

Die Vision, für die ich eintrete, ist klar: KI sollte unsere kognitiven Fähigkeiten erweitern, nicht ersetzen. Sie sollte kritisches Denken fördern, nicht untergraben. Sie sollte unsere intellektuellen Horizonte erweitern, nicht verengen.

Die Lehren aus der Vergangenheit haben uns deutlich vor Augen geführt, dass die erfolgreichsten Ansätze nicht auf Verbote oder Angstmache setzen, sondern auf Befähigung und kritisches Bewusstsein. Gleiches gilt für den Umgang mit Künstlicher Intelligenz. Wir sollten keine Panik vor kognitiver Verarmung schüren, sondern für einen bewussten Umgang mit dieser neuen Technologie sensibilisieren.

Konkret bedeutet das die Förderung einer dialogischen KI-Nutzung, bei der Nutzer aktiv mit KI-Systemen interagieren, statt sich beteiligungslos auf ihren Output zu verlassen. Wir brauchen die Entwicklung von KI-Interfaces, die kritische Reflexion anregen, sowie die Integration von KI-Kompetenz in Bildungspläne aller Altersstufen. Und nicht zuletzt benötigen wir eine öffentliche Diskussion darüber, wie wir als Gesellschaft mit dieser transformativen Technologie umgehen wollen.

Die MIT-Studie ist kein Grund zur Panik, sondern ein willkommener Anlass, diese so wichtige Diskussion in der gesamten Breite der Gesellschaft zu führen. Nicht KI macht uns dumm – aber die Art und Weise, wie wir sie nutzen, wird entscheidend dafür sein, ob sie uns intellektuell bereichert oder verarmen lässt. Diese Entscheidung liegt in unserer Hand – als Einzelne, als Bildungsinstitutionen und als Gesellschaft.

Über den Autor:
Frank Heisel ist Co-CEO von Risk Ident.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)