Eine Kundin meinte am Teleon, die KI sei zunehmend mit Sprichwörtern, Anspielungen und sogar Ironie vertraut. Es sei nur eine Frage der Zeit, bis sie auch uns Primaten vollständig verstehen würde und auch sich selbst, die KI, schrieb mir an anderer Stelle ein Bekannter.
Solche Sätze haben einen gewissen Zauber. Sie klingen ein bisschen nach Zukunft, ein bisschen nach Gelehrsamkeit. Sie bedienen eine alte menschliche Neigung: das wir in toten Dingen etwas Lebendiges erkennen wollen, auch Anthropomorphismus genannt. Ich nenne das eher animistisches Geraune. Wenn sich durch ein Sprachmodell Sätze bilden, empfinden es manche als unheimlich. Das Gefühl, es handele sich hier um eine Art Geist im Gehäuse, ist nicht fern. Tatsächlich passiert etwas viel Prosaischeres.
Wenn wir Menschen Ironie erkennen, dann nicht nur aufgrund von Wörtern.
Bemerkungen leben von Situationen. Eine Maschine sieht nur die Bits und Bytes, die seelenlos Wörter zusammenklöppeln.
Das wird gerade beim Dolmetschen deutlich. Dort entsteht Sprache nicht im ruhigen Tempo eines Aufsatzes. Redner brechen Sätze ab, liefern andere Satzenden, reagieren auf das Publikum, machen Wortspiele oder Anspielungen. Manche Sätze sind halb gesagt, andere leben vom Ton oder von einem Blick. Wer das überträgt, muss mehr deuten als rechnen.
Dolmetscher:innen vertonen als echte Menschen mit Körperlichkeit echte Menschen mit Körperlichkeit, lesen Emotionen, antizipieren Ironie, empfinden durch die Spiegelreflexe echte Gefühle. Beim Dolmetschen wird nicht einfach nur ein Haufen Wörter aus dem Feld A ins Feld B geschoben. Hier geht es um Absichten, um Vorwissen, Umgangsformen, sozialen und sprachlichen Hintergrund sowie kulturelle Unterschiede. Sprache ist nur ein kleiner Teil der Kommunikation. Viel von dieser Aufzählung ist noch nie im Detail beschrieben worden und entzieht sich wohl auch jeglicher Beschreibung.
Aktuell wird die "Künstliche Intelligenz" wieder schlechter. Ein wachsender Teil der Texte im Netz stammt mittlerweile selbst von KI-Systemen. Für diese wachsende Menge automatisch erzeugter Inhalte hat sich inzwischen ein recht treffender Begriff eingebürgert: AI Slop.
Das Problem daran ist nicht nur die Menge, sondern auch der Kreislauf. Wenn neue Modelle wieder mit Texten trainiert werden, die selbst schon von Maschinen stammen, lernen sie zunehmend aus Nachahmungen. Das ist ein bisschen so, als würde man eine Kopie immer wieder kopieren. Die Konturen bleiben zunächst erkennbar, aber das Bild wird allmählich verwaschener bis zur Unschärfe.
Viele Menschen erwarten trotzdem eine Art maschinellen Erkenntnissprung. Irgendwann, so die Hoffnung, könnte die Maschine bald mehr verstehen als wir Primaten. Indes, auf Grundlage der LLMs ist das nicht möglich. Es ist eher umgekehrt: Die Maschinen lernen weiter aus den Wortfolgen, die Menschen schreiben, sprechen und vordenken. Und wenn wir uns den Zustand mancher automatisch erzeugter Texte ansehen, ist klar, dass wir Primaten unsere Rolle als Lieferant:innen des Ausgangsmaterials noch lange behalten werden — und wie beschränkt die Systeme sind, wenn es um die ganz großen Zusammenhänge und um die Details geht, die künftig den Unterschied machen werden.
Das animistische Geraune um die Maschinen wird wohl nicht so schnell verstummen. Maschinen, die flüssig sprechen, wirken auf viele von uns Menschen wie ein Orakel. Aber Orakel haben bekanntlich noch nie selbst gedacht.
______________________________
Bild: Orakel, Themis und Aigeus,
Antikensammlung Berlin, F2538

Keine Kommentare:
Kommentar veröffentlichen