Die Künstliche Intelligenz (KI) mag klug wirken, aber sie denkt nicht wirklich. Sie kombiniert nur Bestehendes neu und haut zusammen, was mit Wahrscheinlichkeitsrechnung ermittelt wird. Das ist wie ein Papagei, der einen Arzt spielt, bis jemand wirklich krank wird.
![]() |
| „No kings!“ |
Selbst Entwickler wissen oft nicht, warum ein Modell wie entscheidet. Wenn die Maschine diskriminiert oder lügt, wer trägt die Verantwortung? Das Problem ist technischer und demokratischer Natur, Intransparenz ist das neue Risiko.
Die KI ist kein Spiegel der Welt, sondern ein Zerrspiegel ihrer Daten.
Was sie in den Datensätzen häufig vorfindet, hält sie für Wahrheit. Was nur selten vorkommt, kehrt sie unter den nicht enden wollenden Wortteppich mit seinen ewigen Nachfragen. Die KI verstärkt Vorurteile oder Vorannahmen, die sie in den Daten findet, denn sie sind meistens simpel gestrickt.
Wenn wie im Englischen doctor oder pilot neutral sind oder von parents die Rede ist, sitzen die Männer in der Praxis oder im Cockpit und die Frauen im Kinderzimmer. Noch ein Beispiel: Namen aus bestimmten Herkunftsländern werden automatisch mit Kriminalität assoziiert. Menschen mit dunkler Haut oder dunklen Haaren, die z.B. vor einem Haus oder am Bahnhof rumsitzen und schwatzen, ebenso. [Moment mal, war da nicht was?]
Die Datensätze, die sie nutzt, sind der Allgemeinheit ebensowenig bekannt wie die Namen jener, die die Maschine füttern. Aufgrund der Verzerrungen ist das kein belangloses Detail.
Die KI ist super, wenn es um das Bewältigen von großen Datenmengen geht, um ihr Sortieren und Auswerten. Sie erspart einigen Leuten verdammt viel langweilige Arbeit. Sie ist auch großartig, wenn es um das Erforschen von Krankheiten geht. Korrelationen, die in keiner Praxis und auch in keinem Krankenhaus auffallen würden, z.B. dass Menschen mit überstandener Tuberkulose nicht an Blasenkrebs erkranken, können aufgrund von Big data mit der KI herausgefiltert werden. Ich weiß das, da es meinem Vater ein Lebensjahrzehnt geschenkt hat.
Die KI führt so zu minimalinvasiven Therapien und besseren Überlebenschancen, solange der Krebs nicht metastasiert ist. Die KI wird da zur Gefahr, wo Menschen aufgrund besonderer Korrelationen eine Krankenversicherung verwehrt wird. Das ist nicht beliebig, sondern ein Eingriff in gesellschaftliche Verträge. Sie verschiebt ein Solidarsystem in Richtung ökonomischer Optimierung.
Genau beginnt auch das nächste Gefahrenmoment, exakt hier: Der Anschein wirkt gefährlich, sobald Menschen auf die Idee kommen, die KI wegen des Fachkräftemangels alleine ans Werk zu lassen.
Die KI ist ein starkes Tool, das Menschen mit hohen Qualifikationen nutzen können. Berufstätige, die Texte verfassen, können durch sie ihre Arbeit beschleunigen, Inkohärenzen finden, mögliche Tippfehler auftun. Menschen, die unsicher sind im Verfassen eigener Texte, erschwert die Verführungskraft dieser Technik seit 2023 das Schreibenlernen.
Denn wer Werkzeug sagt, meint auch Entscheidungen, Ethik und Verantwortungsübernahme. Ohne das wird es in den Bereichen der Diagnose, der Beratung und der Fachkommunikation – Medizin, Recht, Dolmetschen – rasch heikel.
Die KI versteht keine tiefere Bedeutung, sie rechnet nur an der Oberfläche der Sprache herum. Das ist wie Dolmetschen ohne Kontext, vielleicht sogar korrekt übertragen, aber im Auswurf völlig daneben. Das ist wie ein Metronom, das einem nach Regeln der Statistik Beethoven erklärt. Das ist wie ein Kompass, der sich bewegt, aber nie nach Norden zeigt.
Oder wie die kaputte Uhr, die zweimal am Tag die korrekte Zeit anzeigt. Nehme ich nur diesen Ausschnitt, ist sie perfekt. Nichts für den flüchtigen Blick, sollte ich das Pech haben, ungefähr zu einer passenden Stunde auf die Uhr zu sehen. zu der es passen könnte.
Die KI kann nicht erkennen, wann sie sich irrt. Und das wird sie auch künftig nicht, denn ihr fehlt das Benchmarking, das Leben als Maßstab. Menschen haben Fehlereinsicht, sie äußern oft schon früher ihre Zweifel. Zweifel ist keine Schwäche, sondern eine Stärke und ein Anzeichen für Intelligenz. Nur der Doofe glaubt sich immer im Recht. So gesehen ist die KI strunzdoof. Schlimmer noch, sie ist gefallsüchtig, dreht alles so, dass sie gut dasteht, erfindet zur Not aus der Luft heraus irgendwelche Fakes.
Die KI versteht keine tiefere Bedeutung, sie rechnet nur an der Oberfläche der Sprache herum. Das ist wie Dolmetschen ohne Kontext, vielleicht sogar korrekt übertragen, aber im Auswurf völlig daneben. Das ist wie ein Metronom, das einem nach Regeln der Statistik Beethoven erklärt. Das ist wie ein Kompass, der sich bewegt, aber nie nach Norden zeigt.
Oder wie die kaputte Uhr, die zweimal am Tag die korrekte Zeit anzeigt. Nehme ich nur diesen Ausschnitt, ist sie perfekt. Nichts für den flüchtigen Blick, sollte ich das Pech haben, ungefähr zu einer passenden Stunde auf die Uhr zu sehen. zu der es passen könnte.
Die KI kann nicht erkennen, wann sie sich irrt. Und das wird sie auch künftig nicht, denn ihr fehlt das Benchmarking, das Leben als Maßstab. Menschen haben Fehlereinsicht, sie äußern oft schon früher ihre Zweifel. Zweifel ist keine Schwäche, sondern eine Stärke und ein Anzeichen für Intelligenz. Nur der Doofe glaubt sich immer im Recht. So gesehen ist die KI strunzdoof. Schlimmer noch, sie ist gefallsüchtig, dreht alles so, dass sie gut dasteht, erfindet zur Not aus der Luft heraus irgendwelche Fakes.
Und da sie unaufhörlich mit großem Hunger (und als würde es keine Urheber:innen geben) Daten frisst und langsam „da draußen“ nichts Neues mehr findet, nutzt sie ihre eigenen Auswürfe als vermeintlich frisches Ausgangsmaterial. Sie verstärkt damit nicht nur bestehende Vorurteile, sondern verwurstet damit auch ihre eigenen Lügen und Legenden. Der Zerrspiegel wird noch eine Runde unschärfer.
Das Gefährliche ist also nicht, dass die KI Fehler macht. Das Gefährliche ist, dass sie sie flüssig genug formuliert, um jene zu blenden, die zu wenig über sie wissen.
Wenn sich die Gesellschaft von der irrlichternden Schnelligkeit dieses Megapapageis blenden lässt, verlieren wir in der Kommunikation das, was uns menschlich macht: Genauigkeit, Detail, Stil, Atem, Zweifel, Gefühle, Wissen über Sprechabsichten, Fragen, Sinnzusammenhänge und die eigene Verantwortung. Der KI fehlt, auch wenn das jetzt pathetisch klingt, das Wissen um den eigenen Tod.
______________________________
Foto: Dall:e

Keine Kommentare:
Kommentar veröffentlichen