Mittwoch, 7. Mai 2025

ChatGPT ist keine KI

Bien­ve­nue, hier schreibt ei­ne Lin­gu­is­tin. Wie Über­set­ze­rin­nen, Über­set­zer, Dol­met­scher­in­nen und Dol­met­scher ar­bei­ten, kön­nen Sie hier mit­le­sen. Mei­ne Ar­beits­spra­chen sind (ne­ben Deutsch) Fran­zö­sisch und Eng­lisch (das Id­i­om Shake­speares nur als Aus­gangs­spra­che). Hier folgt der Ein­trag zum ob­li­ga­to­ri­schen KI-Mitt­woch.

Was heu­te als „KI“ durch Me­dien und Mar­ke­ting geis­tert, ist in Wahr­heit meistens ein Miss­ver­ständ­nis. ChatGPT wird oft für eine Art den­ken­de Ma­schi­ne ge­hal­ten, da­bei ist es ge­nau das nicht. Das Sprach­mo­dell er­zeugt auf be­ein­druck­en­de Wei­se den An­schein von In­tel­li­genz, aber die­ser Ein­druck ist trü­ge­risch.

Es stimmt, dass ChatGPT durch­aus viel kann. Es for­mu­liert manch­mal so­gar ele­gant, ana­ly­siert Tex­te, schlägt krea­tive Lö­sun­gen vor. Doch die­se Leis­tun­gen grün­den nicht auf Ver­ste­hen, son­dern auf Sta­tis­tik. ChatGPT ist ein so­ge­nann­tes Large Lan­guage Mo­del (LLM), ein Sprach­sys­tem, das Mil­li­ar­den von Wör­tern ver­ar­bei­tet hat und dar­aus ge­lernt hat, wel­che Wort­fol­gen be­son­ders wahr­schein­lich sind. Es si­mu­liert Kom­mu­ni­ka­tion.

Und doch stellt sich manch­mal das Gefühl ein, als wür­de "es" den­ken. Die For­mu­lie­run­gen wir­ken durch­dacht und em­pa­thisch, ge­le­gent­lich so­gar wit­zig. Das liegt da­ran, dass die Ma­schi­ne auf sprach­li­che Mus­ter trai­niert wur­de, die men­sch­li­ches Den­ken spie­geln. Sie ist ein sprach­li­ches Cha­mä­le­on ohne Be­wusst­sein, kann nicht ver­ste­hen, nicht ab­sichts­voll han­deln, kein Ziel verfolgen. Die­ses Sys­tem ar­bei­tet mit nichts als mit Wahr­schein­lich­keits­rech­nung.

Wie ent­stand das fal­sche Image?
Seit 2022 wer­den LLMs wie ChatGPT öf­fent­lich als „Künst­li­che In­tel­li­genz“ ge­han­delt, oh­ne dass ge­nau dar­ge­legt wird, was das wirk­lich be­deu­tet. Es entstand ein Hype. Die Me­di­en schrieben über "ler­nen­de Ma­schi­nen", als hand­le es sich um We­sen mit Be­wusst­sein. Die­se Un­ge­nau­ig­keit ist Absicht, und sie prägt die Wahr­neh­mung. Hin­zu kommt: Die Mo­del­le ant­wor­ten schnell, elo­quent und oh­ne Zö­gern. Das si­mu­lie­rt Si­cher­heit. Dass sie da­bei auch Feh­ler ma­chen oder In­hal­te er­fin­den, so­ge­nann­te "Hal­lu­zi­na­tio­nen", wird ger­ne über­se­hen.

Was ChatGPT fehlt, ist das, was man un­ter ech­ter In­tel­li­genz ver­ste­hen könn­te: die Fä­hig­keit, Sinn­zu­sam­men­hän­ge zu er­fas­sen, sich Zie­le zu set­zen, selbst­stän­dig zu re­flek­tie­ren. All das wä­ren wie­de­rum die zen­tra­len Merk­ma­le ei­ner "All­ge­mei­nen Künst­li­chen In­tel­li­genz" (AGI). Ei­ne AGI, so ist das Ziel ihrer Ent­wick­ler, würde kon­text­über­grei­fend den­ken, Ur­sa­che-Wir­kungs-Ket­ten er­ken­nen, fle­xib­el auf Neu­es re­agie­ren, also exakt so, wie wir Men­schen.

Da­von sind LLMs weit ent­fernt. Auch wenn es stän­dig Er­wei­te­run­gen wie Plug­ins gibt, kon­text­be­zo­ge­ne Spei­cher­funk­tio­nen oder Gim­micks hin­zu­kom­men, die Grund­lage bleibt das Wahr­schein­lich­keits­mo­dell oh­ne Tief­gang. ChatGPT han­delt nicht, be­wer­tet nicht und hat im ei ei­gent­li­chen Sinn nichts wirk­lich ge­lernt.

Papagei / Red Crowned Amazon
This is not a sto­chas­tic par­rot
Der Sto­chas­ti­sche Pa­pa­gei
Die­se Si­mu­la­tion führt je­doch da­zu, dass vie­le Men­schen dem Pro­gramm ei­ne Ur­teils­kraft zu­schrei­ben, die es nicht be­sitzt. Die Ma­schi­ne klingt logisch, so­gar dann, wenn sie Hum­buk aus­spuckt. Sie wi­der­spricht sel­ten, ge­steht ei­ge­nes Un­wis­sen nicht ein. Das ver­stärkt den Ein­druck von In­tel­li­genz.

Doch Spra­che ist nicht gleich­be­deu­tend mit Den­ken. Manche Pa­pa­geien kön­nen Wör­ter und Sät­ze wie­der­ho­len, oh­ne zu wis­sen, was sie be­deu­ten. ChatGPT ist ein hoch­ent­wi­ckel­ter di­gi­ta­ler oder sto­chas­ti­scher Pa­pa­gei, wie Kri­ti­ker:innen sa­gen.

Auf­klä­rung darüber ist sehr wich­tig.

Wer glaubt, dass hier ein den­ken­des We­sen spricht, wird Ent­schei­dun­gen Ma­schi­nen an­ver­trau­en, wer ihre Gren­zen nicht kennt, läuft Ge­fahr, sich von tech­ni­schen Si­mu­la­tio­nen blen­den zu las­sen, in Po­li­tik, Bil­dung, Jour­na­lis­mus, Jus­tiz — oder im Rah­men von Dol­metsch­ein­sät­zen. (Für Dol­met­sche­r:in­nen ist die KI even­tu­ell ein Tool, das aber Pro­fis aus Fleisch und Blut nicht er­setzt.)

Die Über­schät­zung ihrer Mög­lich­kei­ten macht die Tech­nik ge­fähr­lich.

Kla­re Re­geln und Trai­nings
Zug­leich macht die KI vielen Bauch­schmer­zen: da ist die Angst, die Ar­beit oder Kon­trol­le zu ver­lie­ren, Angst, über­flüs­sig zu wer­den. Und auch Ängste aus der Sci­ence-Fic­tion, die be­kann­ten dys­to­pi­schen Mo­men­te wie Über­wa­chung, Macht­miss­brauch, Ent­mensch­lich­ung, sind der­zeit an­ge­sichts der Macht­über­nah­me der Tech-Bros in den USA plötz­lich hochak­tu­ell.

Ein­schub: Ei­gent­lich müss­ten wir jetzt al­le so­fort aus Face­book, Ins­ta­gram, Pay­pal, Linked­In und co. aus­stei­gen und auf die we­ni­ger be­kann­ten eu­ro­pä­ischen An­bie­ter um­stei­gen. Ein­schub­en­de.

Es ist wich­tig, die Sache zu be­ob­ach­ten. Und für Klar­heit zu sor­gen. ChatGPT ist ein Werk­zeug, kein We­sen. Es kann uns un­ter­stüt­zen, in­for­mie­ren, so­gar in­spi­rie­ren. Aber es er­setzt weder Ur­teil noch Er­fah­rung oder ei­ge­nes Den­ken. Es spricht nicht wirk­lich, es si­mu­liert nur ei­nen Aus­tausch. Wich­tig ist, die Ar­beit in Sa­chen Text­ver­ständ­nis, -ana­ly­se und -pro­duk­tion mit Kin­dern, Ju­gend­li­chen und jungen Er­wach­se­nen zu in­ten­si­vie­ren. Und ih­nen Quel­len­kri­tik bei­zu­brin­gen, die kri­ti­sche Hal­tung ge­gen­über di­gi­ta­ler Wun­der­tech­nik in­klu­sive.­

Und wir brau­chen in­ter­na­tio­na­le Re­geln, die die Ent­wick­lung und den Ein­satz der KI re­gu­lie­ren und be­gren­zen. Das wird schwie­rig in Zei­ten, in de­nen in Über­see ei­ni­ge li­ber­tä­re Mu­lti­mil­liar­dä­re die De­mo­kra­tie und die Staats­len­kung ge­kap­ert haben, aber wir müs­sen dran­blei­ben.

Fußnoten
♣ „In­tel­li­genz“
ist ein viel­schich­ti­ger Be­griff. In der Kog­ni­ti­ons­wis­sen­schaft wer­den da­mit u. a. Pro­blemlö­se­ver­mö­gen, Ab­strak­ti­ons­fä­hig­keit und Lern­fä­hig­keit ver­bun­den. All das kann ein LLM wie ChatGPT nicht selbst­stän­dig leis­ten.

Fuß­no­ten
♣ „Hal­lu­zi­na­ti­on“ meint bei Sprach­mo­del­len die Er­zeu­gung von Aus­sag­en, die zwar plau­si­bel klin­gen, aber frei er­fun­den sind.
♣ „AGI“ steht für „Ar­ti­fi­cial Ge­ne­ral In­tel­li­gence“, ei­ne all­ge­mei­ne künst­li­che In­tel­li­genz, die mit men­sch­li­chem Den­ken ver­gleich­bar wä­re und nicht nur spe­zi­el­le Auf­ga­ben lö­sen könn­te.
♣ Zur Dis­kus­si­on um Be­wusst­sein in Sprach­mo­del­len: Vie­le For­schen­de stim­men dar­in über­ein, dass Be­wusst­sein nicht al­lein durch sprach­li­che Leis­tun­gen ent­steht, son­dern mit kör­per­li­cher Wahr­neh­mung, Mo­ti­va­ti­on und Er­fah­rung ver­bun­den ist, As­pek­te, die LLMs feh­len, die auch der AGI feh­len wer­den.
♣ Vie­le Miss­ver­ständ­nis­se ent­ste­hen auch, weil Be­grif­fe wie „ler­nen“, „ver­ste­hen“ oder „den­ken“ aus der men­sch­li­chen Er­fah­rung stam­men, aber auf Ma­schi­nen über­tra­gen wer­den, oh­ne dass sie dort die­sel­be Be­deu­tung ha­ben.

______________________________
Bild: Red Crowned Ama­zon,
Glan­dauer / Ro­ger Moore, Wi­ki­me­dia

Keine Kommentare: