Mittwoch, 22. Oktober 2025

Zerrspiegel

Hier ver­öf­fent­licht eine Sprach­ar­bei­te­rin Epi­so­den aus dem All­tag der Dol­met­scher und Dol­met­sche­rin­nen. Meine Haupt­ar­beits­spra­che ist Fran­zö­sisch (in bei­de Rich­tun­gen). Deutsch ist mei­ne Mut­ter- und wich­tigs­te Schrift­spra­che. Die Büro­kol­le­gin über­setzt ins Eng­lische. Wir sind Zeit­ge­nos­sin­nen, den­ken über Kon­fe­ren­zen hin­aus. Heu­te: KI-Mitt­woch.

Die Künst­li­che In­tel­li­genz (KI) mag klug wir­ken, aber sie denkt nicht wirk­lich. Sie kom­bi­niert nur Be­ste­hen­des neu und haut zu­sam­men, was mit Wahr­schein­lich­keits­rech­nung er­mit­telt wird. Das ist wie ein Pa­pa­gei, der ei­nen Arzt spielt, bis je­mand wirk­lich krank wird.

Papagei sieht in den Zerrspiegel und sieht einen Papagei mit Königskrone, die den Globus beherrscht
No kings!
Spin­nen wir das Pa­pa­gei­en­garn wei­ter. Die­ser Pa­pa­gei hat ein au­ßer­ge­wöhn­lich brei­tes Vo­ka­bu­lar. Er kann viel kor­rekt aus­spre­chen, man­ches „put­zig“ falsch. Die KI klingt sou­ve­rän, selbst wenn sie den größ­ten Un­sinn er­zählt. Sie weiß nicht, was sie „sagt“, denn sie hat nichts durch­drun­gen. Es ist ver­meint­li­che Bril­lanz oh­ne jeg­li­ches Ver­ant­wor­tungs­be­wusst­sein.

Selbst Ent­wick­ler wis­sen oft nicht, war­um ein Mo­dell wie ent­schei­det. Wenn die Ma­schi­ne dis­kri­mi­niert oder lügt, wer trägt die Ver­ant­wor­tung? Das Pro­blem ist tech­ni­scher und de­mo­kra­ti­scher Na­tur, In­trans­pa­renz ist das neue Ri­si­ko.

Die KI ist kein Spie­gel der Welt, son­dern ein Zerr­spie­gel ih­rer Da­ten. 

Was sie in den Da­ten­sät­zen häu­fig vor­fin­det, hält sie für Wahr­heit. Was nur sel­ten vor­kommt, kehrt sie un­ter den nicht en­den wol­len­den Wort­tep­pich mit sei­nen ewi­gen Nach­fra­gen. Die KI ver­stärkt Vor­ur­tei­le oder Vor­an­nah­men, die sie in den Da­ten fin­det, denn sie sind meis­tens sim­pel ge­strickt.

Wenn wie im Eng­li­schen doctor oder pilot neu­tral sind oder von parents die Re­de ist, sit­zen die Män­ner in der Pra­xis oder im Cock­pit und die Frau­en im Kin­der­zim­mer. Noch ein Bei­spiel: Na­men aus be­stimm­ten Her­kunfts­län­dern wer­den au­to­ma­tisch mit Kri­mi­na­li­tät as­so­zi­iert. Men­schen mit dunk­ler Haut oder dunk­len Haa­ren, die z.B. vor ei­nem Haus oder am Bahn­hof rum­sit­zen und schwat­zen, eben­so. [Mo­ment mal, war da nicht was?]

Die Da­ten­sät­ze, die sie nutzt, sind der All­ge­mein­heit eben­so­we­nig be­kannt wie die Na­men je­ner, die die Ma­schi­ne füt­tern. Auf­grund der Ver­zer­run­gen ist das kein be­lang­lo­ses De­tail. 

Die KI ist su­per, wenn es um das Be­wäl­ti­gen von gro­ßen Da­ten­men­gen geht, um ihr Sor­tie­ren und Aus­wer­ten. Sie er­spart ei­ni­gen Leu­ten ver­dammt viel lang­wei­li­ge Ar­beit. Sie ist auch groß­artig, wenn es um das Er­for­schen von Krank­hei­ten geht. Kor­re­la­tio­nen, die in kei­ner Pra­xis und auch in kei­nem Kran­ken­haus auf­fal­len wür­den, z.B. dass Men­schen mit über­stan­de­ner Tu­ber­ku­lo­se nicht an Bla­sen­krebs er­kran­ken, kön­nen auf­grund von Big data mit der KI her­aus­ge­fil­tert wer­den. Ich weiß das, da es mei­nem Va­ter ein Le­bens­jahr­zehnt ge­schenkt hat. 

Die KI führt so zu mi­ni­mal­in­va­si­ven The­ra­pi­en und bes­se­ren Über­le­bens­chan­cen, so­lan­ge der Krebs nicht me­tas­ta­siert ist. Die KI wird da zur Gefahr, wo Men­schen auf­grund be­son­de­rer Kor­re­la­tio­nen ei­ne Kran­ken­ver­si­che­rung ver­wehrt wird. Das ist nicht beliebig, sondern ein Eingriff in ge­sell­schaft­li­che Ver­trä­ge. Sie ver­schiebt ein So­li­dar­sys­tem in Rich­tung öko­no­mi­scher Op­ti­mier­ung.

Ge­nau be­ginnt auch das nächs­te Ge­fah­ren­mo­ment, ex­akt hier: Der An­schein wirkt ge­fähr­lich, so­bald Men­schen auf die Idee kom­men, die KI we­gen des Fach­kräf­te­mangels al­lei­ne ans Werk zu las­sen.

Die KI ist ein star­kes Tool, das Men­schen mit ho­hen Qua­li­fi­ka­tio­nen nut­zen kön­nen. Be­rufs­tä­ti­ge, die Tex­te ver­fas­sen, kön­nen durch sie ih­re Ar­beit be­schleu­ni­gen, In­ko­hä­ren­zen fin­den, mög­li­che Tipp­feh­ler auf­tun. Men­schen, die un­si­cher sind im Ver­fas­sen ei­ge­ner Tex­te, er­schwert die Ver­füh­rungs­kraft die­ser Tech­nik seit 2023 das Schrei­ben­ler­nen. 

Denn wer Werk­zeug sagt, meint auch Ent­schei­dun­gen, Ethik und Ver­ant­wor­tungs­über­nah­me. Oh­ne das wird es in den Be­rei­chen der Dia­gno­se, der Be­ra­tung und der Fach­kom­mu­ni­ka­ti­on – Me­di­zin, Recht, Dol­met­schen – rasch hei­kel.

Die KI ver­steht kei­ne tie­fe­re Be­deu­tung, sie rech­net nur an der Ober­flä­che der Spra­che her­um. Das ist wie Dol­met­schen oh­ne Kon­text, viel­leicht so­gar kor­rekt über­tra­gen, aber im Aus­wurf völ­lig da­ne­ben. Das ist wie ein Met­ro­nom, das ei­nem nach Re­geln der Sta­tis­tik Beeth­oven er­klärt. Das ist wie ein Kom­pass, der sich be­wegt, aber nie nach Nor­den zeigt.

Oder wie die ka­put­te Uhr, die zwei­mal am Tag die kor­rek­te Zeit an­zeigt. Neh­me ich nur die­sen Aus­schnitt, ist sie per­fekt. Nichts für den flücht­i­gen Blick, soll­te ich das Pech ha­ben, un­ge­fähr zu einer pas­sen­den Stun­de auf die Uhr zu se­hen. zu der es pas­sen könn­te.

Die KI kann nicht er­ken­nen, wann sie sich irrt. Und das wird sie auch künf­tig nicht, denn ihr fehlt das Bench­mar­king, das Le­ben als Maß­stab. Men­schen ha­ben Feh­ler­ein­sicht, sie äu­ßern oft schon frü­her ih­re Zwei­fel. Zwei­fel ist kei­ne Schwä­che, son­dern ei­ne Stär­ke und ein An­zei­chen für In­tel­li­genz. Nur der Doo­fe glaubt sich im­mer im Recht. So ge­se­hen ist die KI strunz­doof. Schlim­mer noch, sie ist ge­falls­üch­tig, dreht al­les so, dass sie gut da­steht, er­fin­det zur Not aus der Luft her­aus ir­gend­wel­che Fakes.

Und da sie un­auf­hör­lich mit gro­ßem Hun­ger (und als wür­de es kei­ne Ur­he­ber:in­nen ge­ben) Da­ten frisst und lang­sam „da drau­ßen“ nichts Neu­es mehr fin­det, nutzt sie ih­re ei­ge­nen Aus­wür­fe als ver­meint­lich fri­sches Aus­gangs­ma­te­ri­al. Sie ver­stärkt da­mit nicht nur be­ste­hen­de Vor­ur­tei­le, son­dern ver­wurs­tet da­mit auch ih­re ei­ge­nen Lü­gen und Le­gen­den. Der Zerr­spie­gel wird noch ei­ne Run­de un­schär­fer. 

Das Ge­fähr­li­che ist al­so nicht, dass die KI Feh­ler macht. Das Ge­fähr­li­che ist, dass sie sie flüs­sig ge­nug for­mu­liert, um je­ne zu blen­den, die zu we­nig über sie wis­sen.

Wenn sich die Ge­sell­schaft von der irr­lich­ter­nden Schnell­ig­keit die­ses Me­ga­pa­pa­geis blen­den lässt, ver­lie­ren wir in der Kom­mu­ni­ka­ti­on das, was uns mensch­lich macht: Ge­nau­ig­keit, De­tail, Stil, Atem, Zwei­fel, Ge­füh­le, Wis­sen über Sprech­ab­sich­ten, Fra­gen, Sinn­zu­sam­men­hän­ge und die ei­ge­ne Ver­ant­wor­tung. Der KI fehlt, auch wenn das jetzt pa­the­tisch klingt, das Wis­sen um den ei­ge­nen Tod.

______________________________
Foto: Dal­l:e

Keine Kommentare: