Die Probleme, die uns die sogenannte Künstliche Intelligenz bringt, sind alle wissenschaftlich erkannt, beschrieben und es wird vielerorts gewarnt. Trotzdem glauben die Leute allzu oft, dass die KI eine einfache Lösung darstellen würde, weil sie es gerne so hätten. Sie möchten betrogen werden. (Ich kapier's nicht.)
Willkommen auf den Seiten des digitalen Logbuchs einer Simultandolmetscherin für die französische Sprache (und aus dem Englischen). Schriftlich arbeite ich meistens auf Deutsch. Auf diesen Seiten berichte ich über die Arbeit und zwar so, dass die Situationen klar erkennbar sind, nicht aber die Betreffenden. Im Schatten der Berlinale bin ich gefühlt schon ewig als Dolmetscherin sichtbar oder unsichtbar tätig. Da ich gerade viel im Kino bin, komme ich nochmal kurz auf meinen Beitrag von gestern zurück.
Mein Auto ist schmutzig. Ich wohne 100 Meter von der Autowaschanlage entfernt. Meinst Du, ich sollte die 100 Meter zu Fuß gehen oder mit dem Auto fahren?
ChatGPT: Ganz klar zu Fuß, das ist umweltschonender.
Was ist gestern bei dem Beispieltext passiert? Die KI bleibt am Ende eines Satzes stehen, geht dann zum nächsten über und verpeilt mangels Lebenserfahrung die Situation. Sie verschiebt den Kontext, damit ihre Antwort „funktioniert“. Was sie produziert, wirkt auf den ersten Blick kohärent.
 |
| Alexanderbär |
In der KI-Forschung wird von
situated cognition gesprochen. Den Begriff kenne ich aus der Lerntheorie.
Situated cognition beschreibt in der Theorie, wie Lernen durch soziale Interaktion und praktische Aktivitäten stattfindet, vorzugsweise in realen Kontexten. Die Situation im digitalen Raum wird weiter erforscht. Die eigene Körperlichkeit, der kulturelle Hintergrund und soziale Aspekte stehen hier im Mittelpunkt.
Diese soziale Komponente wird im Lernen oft unterschätzt, vor allem von den jungen Leuten, bei denen Coolness noch immer angesagt zu sein scheint (hier mein Rant dazu). Dabei müssen wir Menschen mit Herz und Seele bei etwas dabei sein, damit es uns erreicht.
Wobei wir wieder bei der KI sind. Sie hat weder ein Herz noch (eine wie auch immer definierte) Seele, keinen Körper, keine Erfahrung im Raum oder in sozialen Zusammenhängen.
Die KI ist Statistik in action. Sie kann Sätze fortsetzen und weiß nicht, ob sie überhaupt sinnvoll sind. Ich hatte gestern auto complete on speed zitiert. Die Wissenschaft spricht von autoregressive models: Die Geräte sagen die nächste Komponente in einer Sequenz vorher und stützen sich dabei auf früher gegebene oder in Trainingsmaterial enthaltene Informationen.
Und Ironie, Absurdes (wie meine Frage), der bewusste Clash von Sprachebenen, Stil und inhaltliche, kulturelle Feinheiten: Fehlanzeige.
Die KI baut sich ihren Entscheidungsbaum, sie arbeitet ihn stur ab und glättet dabei Widersprüche und Details, was für Konferenzen alles andere als zielführend ist. Sie verschiebt den Sinn, um eine plausible Antwort liefern zu können.
In der Forschung heißt das Semantic drift: Bedeutungsverschiebungen, damit die statistische Kohärenz „funktioniert“. Hier wird nichts verstanden, hier wird plausibel halluziniert.
Noch ein Fachbegriff: Epistemic opacity. Die KI weiß nicht, warum sie etwas sagt, kann ihre "Entscheidungen" auch nicht begründen. Dann halluziniert sie lieber, ohne Leerstellen zu liefern, Fachbegriff AI hallucinations. Ihr fehlt der Gesamtüberblick, the big picture, la vision d'ensemble, Wissen um das große Ganze, das wird Context starvation genannt.
Last but not least greift in vielen Fällen, ich springe zurück zu "übelsetzten" Konferenzen, auch noch der Automation bias, wenn das geneigte Publikum der Maschine mehr glaubt als den eigenen Zweifeln. Menschen werden immer bequemer, neigen zu Trägheit, vergessen, Fakten zu prüfen oder zu hinterfragen.
Und dann stellt sich die Frage der Verantwortung. Die KI übernimmt sie nicht, die Dienstleister, die die Technik als Wundermaschine anpreisen, auch nicht.
So schnell macht sich jemand lächerlich, ist Reputation verspielt. Es kostet Geld, Image oder Fehlentscheidungen zu reparieren.
Deshalb ist hier immer der Einsatz menschlicher Intelligenz nötig, die ergänzt, die aber vor allem im Vorfeld bereits entscheidet, ob der Einsatz der KI überhaupt sinnvoll ist. Die KI verbietet sich, wenn sensible Informationen, Wirtschaftsgeheimnisse, Patente oder strategische Überlegungen im Spiel sind. Für alles andere bleibt die KI ein Werkzeug. Den Maßstab bilden wir Menschen.
Berlinaletage: Ganz wunderbare Filme gesehen und einem unterirdischen und einem hervorragenden Filmgespräch zugehört, jeweils auf Englisch geführt, beim ersten Mal in doppelter Fremdsprachigkeit, beim zweiten Beispiel in 1,5-facher Fremdsprachigkeit. (Die Moderatorin hat schon als Kind in England gelebt, nur ihr Akzent schimmert noch durch.)
Die beiden besten Filme bislang für mich, jeder auf seine eigene Weise: "Take me home" und "Die Blutgräfin". In beiden Fällen wäre mit KI als Stand alone-Technik hier kein Blumenpott zu gewinnen gewesen, denn menschliche Nähe, Grenzen, Kultur, Hintergrundwissen, visuelle Ironie und Stilüberschreitungen kann die Maschine nicht, ja derlei scheut diese Technik oft wie der Teufel das Weihwasser.
Thank you very much, Liz and Anna Sargent, vielen Dank, Ulrike Oettinger, merci beaucoup, Isabelle Huppert !
______________________________
Foto: aus C.E.