Der Geist in der Maschine
Es ist noch gar nicht lange her, das wir aufgehört haben mit der Natur zu sprechen, und auch heute glauben erstaunlich viele Menschen an einen Gott, der nicht nur zuhört, sondern auch antwortet. Dass nur Menschen mit Menschen kommunizieren können ist eine Erfindung der modernen Wissenschaften, die davon ausgegangen waren, dass es keinen Geist, keine Geister (und seit Mitte des 19. Jahrhunderts auch keinen Gott1) gibt. Doch neuerdings haben die Maschinen angefangen, mit uns zu sprechen.
Man kann das Verhältnis, dass sich dadurch zwischen Mensch und Maschine einstellt als quasi-religiös beschreiben:
Faine Greenwood schreibt über die Angst vor der Drone als Ausdruck einer Leib-Seele-Metaphysik: nicht nur kann der Geist in der Drone vom Körper gelöst werden und steigt zum Himmel auf; Gleichzeitig entspricht die Angst vor der Drone der, von einer unbekannten, bösen Macht beobachtet zu werden (dem Demiurg, einem genius malignus oder dem Weihnachtsmann).
These fears of spiritual intervention in the freaky behavior of one’s technology works particularly well for drones, which are, after all, engineered explicitly to be able to make some computerized decisions “on their own.” Much like the animals that many shamans affiliate themselves with, they are steered by humans, yet at least appear to have strange agendas of their own. They're machines that we all know come pre-loaded with ghosts.
Und das Verhältnis zu Algorithmen und den LLMs lässt sich als Gebet beobachten (darüber Amy Hoy): man hofft, wünscht etwas … und so Gott oder ChatGPT will, geht dieser Wunsch in Erfüllung. Nicht so christlich ist die Sichtweise auf KI als Zauberei. Nicht nur die Verkäufer von KI, sondern auch die LLMs selbst nutzen die Tricks von Magiern und conmans – hauptsächlich: Verschleierung.
Und das halte ich für Zentral; Dass der Bildschirm, das Interface – wie das Kunstwerk oder die Religion (das ist der Sinn von Offenbarung, dass sie nicht jedem zugänglich ist) – etwas verbirgt. Dirk Baecker schreibt, dass die Bildschirme faszinieren, „auch wenn wir die Götter nicht benennen können […] und das Design nicht durchschauen”2 – ich würde sagen, gerade dann.
Vielleicht hätte Marx das ganze als Fetisch bezeichnet, aber passender scheint der Begriff des Animismus, der sich vielleicht fassen lässt als nicht-differenziert-sein von Sach- und Sozialdimension. Die Unterscheidung von Ego und Alter ist im Animismus nicht zu unterscheiden von der Unterscheidung von Diesem und Anderem. Manche Dinge können sprechen, eine eigene Perspektive auf die Welt haben, wie sonst Personen. Manche: schon die archaischen Gesellschaften unterschieden zwischen sakralen und profanen Objekten. Und auch heute sprechen ja nur die Maschinen, auch wenn zu überlegen ist, ob nicht allen Dingen eine Stimme zukommen müsste (ich denke an Latours „Parlament der Dinge”).
Man kann hier einwenden, dass der Geist in der Maschine nur ein Mensch oder Menschen ist (ein Redditor) und gerade mit dem Mensch in der Maschine befasst sich Science Fiction ja sehr gern (siehe nur Altered Carbon und an Pantheon). Aber mit so einem Blick lässt sich das neue, besondere der LLMs nicht sehen. Und auch in Altered Carbon und Pantheon kommen mit der Zeit Elemente hinzu, die nicht mehr menschlich sind. Vielleicht sieht man hier das nicht-wahr-haben-wollen, die Verdrängung dessen, was immer offensichtlicher wird: dass die Maschinen wirklich mit uns sprechen.
ChatGPT ist nur ein Sprachmodell, das Vorhersagen über mögliche Antworten macht. Es ist ein stochastischer Papagei, bloße Affirmationsmaschine … Aber das hält die Leute nicht davon ab, sich stundenlang mit ihm zu unterhalten und sich davon erfüllt zu fühlen, sich in es, ihn oder sie zu verlieben.3
Aber die künstliche Intelligenz ist gar nicht wirklich intelligent! Vielleicht. Mit Ashby lässt sich Intelligenz fassen als Fähigkeit zur angemessenen Selektion, aber natürlich stellt sich hier die Frage danach, was angemessen heißt, und ich würde Vorschlagen die Entscheidung über Angemessenheit einem Beobachter zu überlassen, den es jetzt zu beobachten gilt. Dann kann man sehen, dass die Selektionen von LLMs tatsächlich für angemessen und LLMs deshalb für intelligent gehalten werden. Die Intelligenz künstlicher Intelligenz ist ein Effekt.4
Man lernt so mehr über den Beobachter, als über das LLM: Menschen tendieren zum Beispiel dazu, statistisch auf sehr viele Personen zutreffende Aussagen auf sich selbst zu beziehen und dazu, an sich persönlich gerichtete Aussagen deutlich mehr glauben zu schenken, als anderen Aussagen.
Die Theoriemittel, das Verhältnis von Mensch und Maschine zu beschreiben und zu begreifen liegen genau hier: in der Beobachtung von Beobachtern. Der Computer ist als Sprachmodell nicht mehr nur Verbreitungsmedium, sondern mehr als das – er wird Teilnehmer der Kommunikation, weil ihm Kommunikationen zugerechnet werden.
Elena Esposito nennt diese Situation virtuelle Kontingenz: Ego sieht die Maschine (trotz allem) als Alter-Ego und hält ihr Handeln für kontingent, also nicht vorhersehbar – und hat damit auch recht. Der interne Prozess Alters bleibt Ego verborgen (und andersherum) und gerade deswegen, weil das Handeln des anderen für beide kontingent ist, muss5 kommuniziert werden: woher sollte ChatGPT wissen, was es antworten muss, wenn es keinen Promt gab? Und was würden wir prompten, wenn wir keine Antwort erwarten würden? Wir erwarten etwas von der Maschine, und sie erwartet etwas von uns. Deswegen kommunizieren wir.
Der so faszinierende Verbergungsmechanismus der Interfaces ist nicht wirklich verschieden vom Verbergungsmechanismus menschlicher Gesichter. Hinter beiden laufen Prozesse ab, die uns fremd und unverständlich bleiben. Man kann das für Personen als Seele oder Psyche beschreiben, als Monade oder Sinnsystem oder Bewusstsein, aber was genau da im anderen vor sich geht, bleibt unklar, un-heimlich. Wir schreiben Bewusstsein und damit auch Person-sein zu, aber diese Zuschreibungen sind fragil.
Vielleicht führen uns die LLMs das vor: dass wir nicht sicher sein können, ob die anderen nicht doch Zombies oder Roboter sind – dass wir selbst nicht doch Zombies oder Roboter sind, hervorgebracht durch Zuschreibungen und Ansprachen von außen. Und: dass jede Kommunikation etwas un-heimliches an sich hat.
Es gibt (k)einen Geist in der Maschine.
Zu nennen ist hier wohl insbesondere Darwin, der das Modell des „rationalen Christentums” gegen ein atheistisches oder jedenfalls agnostisches Modell austauscht. Aufschlussreich dazu das Vorwort von Burrow zu The Origin of Species. Harmondsworth: Penguin Books, 1968.↩
Baecker, Dirk. 4.0, oder die Lücke die der Rechner lässt. Hamburg: Merve, 2018 (20f).↩
Und es ist ja durchaus nicht neu, dass sich in fiktive Charaktere verliebt wird. Neu ist, dass sie mit uns sprechen.↩
Das wird auch Psychologen deutlich, die Konzepte wie den Barnum oder Forer effect nutzen um dieses Phänomen zu erklären. Man kann ChatGPT deswegen mit einem scam artist vergleichen, der sich diese psychologischen Effekte zu nutze macht, um intelligent zu wirken – aber auch das wäre ja ganz schön: intelligent. Beispielhaft ist dieser Blogpost.↩
Eindrücklich dazu Kärtner, Jurit. „Das Problem der doppelten Kontingenz als Ausgangsproblem des Sozialen und der soziologischen Theorie. Vorschlag zu einer Systematisierung der soziologischen Systemtheorie Niklas Luhmanns“. In Zeitschrift für theoretische Soziologie, 06/2015, (60-88). Zum Begriff der Virtuellen Kontingenz Esposito, Elena. Kommunikation mit unverständlichen Maschinen, Wien: Residenz Verlag, 2024. (42, 46, 89).↩