Vom Bibliotheksbesuch zur KI-Antwort: Wie sich der Weg zum Wissen verändert hat
- Petra Borina

- 15. Sept.
- 4 Min. Lesezeit
Die KI-Falle: Warum die scheinbare Konversation so gefährlich ist
In der Vergangenheit war der Zugang zu Wissen eine Herausforderung, die aktives, zeitaufwändiges Engagement erforderte. Wer vor über hundert Jahren in einer Bibliothek recherchierte, musste jede Quelle einzeln durcharbeiten und sich seine eigene Meinung auf Basis dieser oft begrenzten Informationen bilden. Der Denkprozess war direkt und tief, geformt durch die persönliche Subjektivität und die menschliche Fähigkeit, aus fragmentierten Quellen eine Synthese zu schaffen
Mit dem Aufkommen von YouTube und TedTalks verlagerte sich der Aufwand. Wir hatten Zugriff auf mehr Informationen, aber diese waren bereits durch die Perspektiven anderer gefiltert und aufbereitet. Das Denken wurde schneller, aber es war bereits von einer zweiten Subjektivität – der des Vortragenden – beeinflusst. Die Herausforderung war nicht mehr, Informationen zu finden, sondern aus der wachsenden Fülle das Wesentliche herauszufiltern.
KI-Modelle stellen eine radikale Wende dar. Sie präsentieren Informationen in einer Form, die sich täuschend echt nach einer menschlichen Unterhaltung anfühlt. Diese scheinbare Zwischenmenschlichkeit kann uns in eine passive Rolle drängen, in der wir die Antworten als absolute Wahrheit annehmen, ohne die Quellen zu hinterfragen oder die zugrunde liegende Logik zu überprüfen. Der Algorithmus ist darauf trainiert, nützliche und "People-Pleasing" Antworten zu geben, was die eigene kritische Distanz schnell verschwinden lassen kann. Wir werden also einer Generation, die bereits Pokale fürs Erscheinen bekommt, nun auch Medaillen fürs Ego verleihen.
Meine größten Bedenken bezüglich der Fakten-Checker-Protokolle sind in diesem Kontext absolut zentral. Obwohl große KI-Unternehmen versuchen, offensichtliche Fehlinformationen auszufiltern, sind diese Protokolle keine Garantie für die Wahrheit. Da sie in den Händen kommerzieller Unternehmen liegen, besteht das berechtigte Risiko, dass Definitionen von "Fakten" von wirtschaftlichen Interessen oder ideologischen Standpunkten beeinflusst werden. Wir tauschen nicht nur die Subjektivität eines Autors gegen die einer KI, sondern auch gegen die mögliche Voreingenommenheit eines bzw. einiger weniger Konzerne.
Das birgt folgende Risiken:
Filterung kontroverser Meinungen: Informationen, die als "Verschwörungstheorie" oder "kontroverse Ansicht" eingestuft werden, könnten pauschal ausgefiltert werden, auch wenn sie in einigen Kreisen eine legitime Debatte darstellen.
Politische oder ideologische Voreingenommenheit (Bias): Es gibt immer wieder Berichte und Debatten darüber, ob die Antworten von KIs eine linke oder rechte Neigung aufweisen, weil die Datensätze oder die menschlichen Filter bestimmte Perspektiven bevorzugen.
Wirtschaftliche Interessen: Im Extremfall könnten KIs Informationen, die dem Geschäftsmodell der Muttergesellschaft schaden, herabstufen oder ausblenden.
Ein gutes Beispiel für die Komplexität ist die Debatte um die Definition von "Hatespeech". Was für die eine Gruppe als freie Meinungsäußerung gilt, kann für die andere als Hassrede definiert werden. Die Protokolle der KI müssen sich für eine Seite entscheiden oder zumindest versuchen, eine sehr vorsichtige, "politisch korrekte" Position einzunehmen.
Was ist die Lösung? Gibt es überhaupt eine?
"Denken vor dem Fragen" – Das neue Einmaleins für die KI-Ära
Ich glaube Fazit einer solchen Frage ist, dass die Fähigkeit, die KI als Werkzeug zu hinterfragen, der wichtigste Baustein für die KI-Alphabetisierung ist. Dies ist nicht nur eine Option, sondern eine Notwendigkeit. Die Technologie ändert sich, aber die menschliche Verantwortung, Informationen kritisch zu bewerten, bleibt.
Anstatt die KI blind zu befragen, müssen wir sie aktiv lenken und herausfordern. So sollte man mit Prompts starten, die die KI dazu auffordern, eine Aussage kritisch zu überprüfen oder als "Teufels-Advokat" zu agieren. Das sind perfekte Beispiele für diese neue Fähigkeit. Sie zeigen, dass es darum geht, die KI von einem bloßen Dienstleister zu einem intellektuellen Sparringspartner zu machen.
In einer Welt, in der die KI das Auswendiglernen von Fakten überflüssig macht, verschieben sich die wichtigsten menschlichen Fähigkeiten:
Kritisches Denken: Die Fähigkeit, die Voreingenommenheit der KI zu erkennen und ihre Antworten zu bewerten.
Kreativität: Die Fähigkeit, neue und relevante Fragen zu stellen, die die KI befähigen, innovative Lösungen zu liefern.
Problemlösung: Die Fähigkeit, komplexe Herausforderungen in kleinere Teile zu zerlegen, die von der KI bearbeitet werden können.
Warum fällt uns kritisches Denken so schwer?
Das menschliche Gehirn ist von Natur aus darauf ausgelegt, effizient zu sein und Energie zu sparen. Es bevorzugt den einfachsten Weg zur Problemlösung. Wenn eine KI uns eine fertige Antwort liefert, ist es für unser Gehirn der einfachste Weg, diese Information einfach zu übernehmen.
Was heißt das? Wird die Menschheit durch Einsatz von KI dümmer?
ich glaube die Wahrheit ist nuancierter
Die Annahme, dass die Menschheit, insbesondere als "große Masse" dümmer wird, ist ein uraltes Argument, das bei jeder neuen Technologie auftaucht – von der Erfindung der Schrift bis zum Taschenrechner. Rein mathematisch mag dies vielleicht sogar stimmen, aber wie immer im Leben ist die Wahrheit, glaube ich, nuancierter.
Verlagerung der Fähigkeiten: Es ist nicht so, dass die Menschen dümmer werden, sondern dass sich die grundlegenden Fähigkeiten, die für den Erfolg in der Gesellschaft benötigt werden, verändern. Früher war es wichtig, eine Karte lesen zu können. Heute ist es wichtig, die Informationen, die Google Maps liefert, bewerten zu können (z.B. die Route mit Stauwarnungen abzugleichen).
Schere zwischen den Nutzern: Die KI könnte die Kluft zwischen den Nutzern vertiefen. Diejenigen, die die KI als Werkzeug zur Verbesserung ihrer Fähigkeiten nutzen, werden produktiver und innovativer sein. Diejenigen, die die KI passiv als Allwissenden nutzen und ihre Antworten blind akzeptieren, könnten in ihrer Entwicklung zurückfallen.
Kollektive Intelligenz: Die KI kann das kollektive Wissen der Menschheit zusammenführen, was zu einer "schwärmenden Intelligenz" führen kann, in der wir uns gegenseitig zu besseren und schnelleren Lösungen anregen. Dies ist jedoch nur dann möglich, wenn die einzelnen Akteure aktiv und kritisch denken.
Fazit
Es ist eine Illusion zu glauben, dass die KI uns das Denken abnehmen kann. Stattdessen vertieft sie die Kluft zwischen denen, die sie als aktives Werkzeug zur Erweiterung ihrer Fähigkeiten nutzen, und denen, die sie passiv konsumieren und damit in ihrer intellektuellen Entwicklung zurückfallen. Die KI ist nur so gut wie die Fragen, die wir ihr stellen, und die Verantwortung, die wir für ihre Antworten übernehmen.
Was ist für euch die wichtigste Regel im Umgang mit KI, um nicht in die passive Konsumentenrolle zu verfallen?
Kommentare