Für Filmleute ist die Berlinale die fünfte Jahreszeit, dann folgt der Frühling. Schon gestern flogen in Berlin die Graugänse laut schnatternd über den Dachfirst, heute gleich wieder. Der Schnee ist geschmolzen, ich kann endlich wieder weite Wege zu Fuß machen, ohne ständig Angst haben zu müssen, irgendwo eine vereiste Stelle zu übersehen.
Ich muss kurz einige Gedanken sortieren, die ich zum Thema KI habe, dann weiterverwalten und andere Arbeit erledigen, die mit dem Dolmetschen zusammenhängen, die aber meist unsichtbar bleiben, um in den Momenten, in denen ich hörbar bin, auf den Punkt zu arbeiten.
Gestern erreichte mich die Nachricht, dass ein bekannter Dienstleister für Konferenztechnik Insolvenz angemeldet hat. Das ist traurig, denn die Technikkolleg:innen waren immer sehr freundlich. Wir haben bei ihnen in der Pandemie oft im Hub gesessen.
Es ist ein Zeichen, dass sich etwas am Markt verändert. Die nicht leistungsstarken Sprachmodelle (LLM), verkürzt als „künstliche Intelligenz“ bezeichnet, können einfach nicht adäquat dolmetschen. Sie simulieren Kommunikation. Sie produzieren Fehler ohne Ende. Ich berichte hier regelmäßig darüber, gerne mittwochs. Hier habe ich bewiesen, wie wenig Überblick diese Technik hat. Und ohne Überblick kein sinnvolles Dolmetschen.
Trotzdem fließt Geld in die Kassen der Technikanbieter und der Giganten, die hinter der Software stehen, sehr viel Geld sogar.Seit dem Erscheinen von ChatGPT im Jahr 2022 wird allenthalben der Eindruck vermittelt, es handele sich um einen quantensprunghaften Durchbruch. Tatsächlich basieren große Sprachmodelle auf statistischen Verfahren, deren Grundlagen schon seit den 1980er-Jahren bekannt sind. Neu ist vor allem die Rechenleistung, die schiere Menge an Daten und die industrielle Skalierung. Das Prinzip bleibt: Wort folgt auf Wort nach Wahrscheinlichkeit. Bedeutung wird nicht verstanden, sondern erraten bzw. errechnet.
Diese Systeme wurden mit Texten trainiert, die Menschen gedacht, formuliert und veröffentlicht haben, aus dem Internet, aus Archiven, aus Bibliotheken, und dabei wurde in vielfältiger Weise das Urheberrecht verletzt. Ohne diese menschengemachten Inhalte gäbe es keine Antworten. Es gäbe nur Leere. Was heute als „eigenständige“ Leistung der Maschine verkauft wird, ist in Wahrheit die statistische Rekombination fremder Gedanken. Und dann haben viele Menschen daran gearbeitet, aus den 100 Prozent Zufallsmurks nur noch 40 oder 20 Prozent Zufallsmurks zu machen. Bis heute suchen die Tech-Buden händeringend nach Profis, die am System weiterschrauben. Auch ich bekomme fast täglich Arbeitsangebote in diese Richtung.
Denn was vielfach als „automatisierte KI-Lösung“ verkauft wird, lebt von menschlicher Arbeit dahinter, und zwar in erheblichem Umfang. Transparenzberichte zeigen, dass Millionen von Inhalten automatisiert überprüft werden, dass aber auch Millionen von manuellen Prüfungen durch Menschen stattfinden. Konservative Schätzungen gehen von 100 000 Menschen aus, die weltweit als „Trainer“ von KI-Systemen arbeiten. Beim Chatbot Gemini (Google) wurden laut The Guardian erst knapp 25 sogenannte Super raters eingestellt, bevor die Teams im Zuge des KI-Wettbewerbs auf fast 2000 Menschen anwuchsen (wovon später wieder 500 entlassen worden sein sollen). Das ist nur ein Beispiel unter vielen.
Die Masse der Menschen sitzt in Billiglohnländern wie Indien, sogenannte Klickworker:innen, die oft in prekären Verhältnissen nicht nur Gewaltdarstellungen und Pornografie einzudämmen versuchen, sondern die auch inhaltlich eingreifen, KI-Auswürfe bewerten und löschen.
Trotz dieses Aufwands ist das Ergebnis oft enttäuschend: sogenannte „Halluzinationen“, also frei erfundene Fakten, falsche Quellen, plausibel klingende, aber sachlich unrichtige Aussagen spucken die Maschinen aus. Forschende wie Dagmar Monett sprechen in diesem Zusammenhang von „degenerativer KI“, also von Systemen, die nicht zu Erkenntnisgewinn führen, sondern vorhandenes Material immer weiter verwässern. Wenn solche Modelle zukünftig mit ihren eigenen, synthetischen Auswürfen trainiert werden, droht ein zirkulärer Effekt: Qualität sinkt, Fehler vervielfachen sich, Information degeneriert. Die Schlange beißt sich in den Schwanz, am Ende wächst der Datenmüll. Es gibt Menschen, die deshalb das Internet schon am Ende sehen. Filmtipp: KI: Der Tod des Internets von Mario Sixtus, verfügbar ab dem 28. Februar in der Arte-Mediathek
Sind die KI-Elaborate eine tragfähige Arbeitsgrundlage für Menschen, die auf hohem Niveau denken, sprechen, schreiben und dolmetschen, also in einen Beruf, bei dem Nuancen, Kontext, Implikationen und kulturelle Referenzen entscheidend sind? Nein. Und auch nicht für unsere Endkund:innen in der Spracharbeit, so sehr sich das Leute, die derlei anbieten oder beauftragen, sich das auch wünschen mögen.
Ein Sprachmodell kann bekannte Wortfolgen mit hoher Wahrscheinlichkeit reproduzieren. Es scheitert aber zuverlässig am Neuen, und vom Neuen leben Konferenzen, Messen und Pressekonferenzen. Es wird auch keine Verantwortung übernehmen. Es „weiß“ nichts von der jeweiligen Situation, der Dynamik im Raum, der politischen Brisanz. Es „weiß“ nicht, wann ein Satz explosiv ist und wann er versöhnlich wirken muss. Es „kennt“ keine Strategie, keine Diplomatie, keine interkulturelle Feinfühligkeit.
Und doch werden solche Systeme als „Stand-alone-Lösung“ für Konferenzdolmetschen angeboten. Tech-Buden preisen „KI-Dolmetschen“ als kostengünstige Alternative an. Wenn es scheitert, und es scheitert regelmäßig, wird das als „Lernkurve“ verkauft. Man habe immerhin „gespart“. Man sei „pionierhaft“ unterwegs. Schulterklopfen, meistens unter Männern: Das neue technische Spielzeug beeindruckt.
Das ist ökonomisch brisant. Oft kostet es mehr als das vermeintlich eingesparte Geld, um hinterher Schäden an Image oder Inhalt zu korrigieren. Beispiel: Auf einer Messe hat neulich ein Anbieter landwirtschaftlicher Geräte KI-„Übersetzungen“ angeboten und die Maschine hat Mist gebaut. Potenzielle Kundschaft war so nicht zu überzeugen. Im Vertrag des Dienstleisters war eine Gewährleistung im Kleingedruckten ausgeschlossen.
Das ist auch demokratiepolitisch brisant. In den asozialen Netzwerken verstärken automatisierte Systeme Meinungen, imitieren Zustimmung, erzeugen massenhafte Kommentare. Die Grenze zwischen echter Resonanz und synthetischer Verstärkung verschwimmt. Menschen fühlen sich bestärkt durch vermeintliche Mehrheiten. Diskurse verrohen. Radikale Positionen gewinnen Sichtbarkeit. Was als technische Innovation begonnen hat, wird zum Machtfaktor: Stimmen, Mehrheiten und letztlich Geldströme verschieben sich.Deshalb schreibe ich hier darüber, nicht, weil ich Technik grundsätzlich ablehnen würde, sondern als besorgte Bürgerin und weil Präzision mein Beruf ist, Kommunikation, Verantwortung und Handwerk.
Was derzeit als „KI“ verkauft wird, ist keine denkende Intelligenz. Es ist statistische Textverdichtung mit gigantischer Rechenleistung, gigantischem Stromverbrauch und gigantischem Kühlungsbedarf. Die KI hält nicht, was ihre Verkäufer versprechen. Sie wirkt aber trotzdem, durch Marketing, durch Investitionsdruck, durch die Sehnsucht nach schnellen Lösungen.
Der Markt verändert sich. Konferenztechnik-Firmen geraten unter Druck, wir Dolmetsche:rinnen ebenso. Sprachberufe werden infrage gestellt, künftigen Generationen das Studium ausgeredet. Aber Sprache ist kein Datenstrom, sie ist Kontext, Hintergrund, Beziehung, besteht aus Nuancen und Verantwortung.
Und wer einmal in einem Raum gesessen hat, in dem ein einziges falsch übertragenes Wort eine Verhandlung kippen kann, der weiß: Simulation ist keine Kommunikation.
______________________________Foto: Fotojournalist Marco Urban

Keine Kommentare:
Kommentar veröffentlichen