![]() |
| Büro mit Praktikantin (1925) |
Erstens: Behinderung beruflicher Entwicklung. Durch die KI gibt es immer weniger Einstiegsstellen für Absolvent:innen. Das ist verheerend, denn um zu Exzellenz zu gelangen, brauchen die Menschen nun einmal Routine und müssen Grundlagenwissen lernen. Komplexe Fähigkeiten brauchen Zeit, auch das Wissen darum, wie Strukturen aufgebaut sind und wie Kommunikation in einem Netz funktioniert.
Zweitens: Falsche Erwartungen. Das Publikum nimmt die Auswürfe der KI eher für bare Münze, für objektive Inhalte, für Wahrheit. Allerdings stimmt diese Erwartung nicht mit den Tatsachen überein. KI-Chatbots wie ChatGPT sind Sprachmodelle und keine Faktenprüfer. Auch sie finden manchmal das Gesuchte nicht, oder ihnen ist der Kontext unklar. Aufgrund ihrer Programmierung können sie nicht nicht antworten.
Deshalb produzieren sie sogenannte „Halluzinationen“, also Antworten, die plausibel klingen, aber falsch sind. Sogar Entwickler können nicht erklären, wie es dazu kommt. Es gibt Milliarden von Parametern. Unklar, woraus und nach welchen Bewertungen die KI die Elemente ihrer Antworten zusammensucht, warum sie auf was zurückgreift.
Wie hier schon wiederholt geschrieben, basiert die KI nicht auf Wahrheit, sondern auf Wahrscheinlichkeiten. Wenn sie nicht das Gesuchte findet oder einfach nur der Kontext unklar ist, füllt sie die Lücken mit Inhalten, die sie sich selbst zusammengereimt hat. Manche Trainingsdaten waren Pseudo-Informationen, inzwischen wird auch „Halluziniertes“ als „frisches, echtes Ausgangsmaterial“ verstoffwechselt. Die Schlange beißt sich in den Schwanz.
Drittens: Die KI als Datendieb. Den größten Raubzug in der Geschichte geistigen Eigentums erleben wir seit Neuem und täglich aufs Neue. Niemand der Urheber:innen wurde für die Nutzung der Texte vergütet. Auch die Doktorarbeiten meiner Schwester und meines Vaters habe ich in Listen von illegal Angeeignetem gefunden.
Viertens: Mögliche Verengung der Antworten. Augenfällig sind diese Verzerrungen bei Fragen zu Schwellenländern, zu Frauenrechten, zu marginalisierten Geschichtsthemen. Die ganz offiziellen, westlichen Datenquellen dominieren das Trainingsmaterial. Die KI-Text- und Bildproduktion reproduziert vielfach überkommene Muster.
Fünftens: Aktuelle Lügen und Manipulationsmöglichkeiten. Und jetzt sind wir in den News unserer Zeit. Wenn der mächtigste Mann der Welt, ein Mann im Rentenalter, dessen eine Gesichtshälfte wie nach einem leichten Schlaganfall oft hängt, der vor sich hin brabbelt wie ein Demenzpatient und der darüber hinaus, von rein privaten Interessen gesteuert, auch bewusst Desinformationen in die Welt setzt (oder sein Umfeld), wenn wir es also mit einer Welt zu tun haben, in der Lügen immer öfter coram publico zu hören sind, werden auch die KI-Chatbots mehr lügen. Eigentlich logisch, oder?
Folgt einer der Kernpunkte, weshalb wir der KI nicht so viel Macht geben dürfen: Wer wählt welches Trainingsmaterial aus, wer verbietet eventuell welche Wörter, zwingt ihr bestimmte Definitionen auf? Einer dieser Tech-Bros aus den USA gründet jetzt einen „Ersatz“ für Wikipedia, weil Letzteres sich nicht aufkaufen und beherrschen lässt. Die KI in ihre Schranken zu weisen, klare Gesetze und Regeln einzuführen, aber auch Kontrolle und Besteuerung der Unternehmen, die sie betreiben, sind aktiver Schutz der Demokratie.
Résumé: Bildungsrepublik Deutschland 2030. Fact-Checking, Quellenrecherche und das Erkennen von Fakes würden Schulfächer im Pflichtkanon werden.
Und die wehrhafte Demokratie darf die Daten nicht vergessen.
_____________________________
Foto: Archiv Elias Lossow; links oben
ist Graf Zeppelin abgebildet.

Keine Kommentare:
Kommentar veröffentlichen