Die KI Bist Du #13
Mit wem sprechen wir wenn wir mit einem KI-System sprechen?
🇬🇧
I.
KI wird uns die Jobs wegnehmen. KI stiehlt urheberrechtlich geschützte Werke. KI wird feindselig werden und uns auslöschen. KI ist unzuverlässig. KI ist voreingenommen. Die Werte der KI stimmen nicht mit unseren überein. Wir können niemals verstehen, wie KI funktioniert oder was sie denkt.
So wird KI heute in der populären Kultur dargestellt. Interessanterweise könnte jeder dieser Sätze, indem man nur ein einziges Wort ändert, so umformuliert werden, dass er andere verbreitete Ängste in unseren Gesellschaften anspricht:
China wird uns die Jobs wegnehmen. China stiehlt urheberrechtlich geschützte Werke. China wird feindselig werden und uns auslöschen. Die Chinesen sind unzuverlässig. Die Chinesen sind voreingenommen. Chinesische Werte stimmen nicht mit unseren überein. Wir können niemals verstehen, was die Chinesen denken.
Man kann dasselbe mit Muslimen oder Einwanderern anstelle von China tun. Diese kleine Übung zeigt, dass es eigentlich nichts spezifisch „KI-haftes“ gibt, das unsere Ängste auslöst. Andere Objekte funktionieren genauso gut und nähren dieselben apokalyptischen Stimmungen. Vielleicht geht es also gar nicht um KI oder China oder die Muslime? Vielleicht projizieren wir unsere Ängste einfach auf jedes passende und verfügbare Andere?
Aber wenn dies der Fall ist, können wir fragen: Ist KI überhaupt ein passendes Anderes?
II.
Wir alle haben mittlerweile mit Großen Sprachmodellen (Large Language Models) gesprochen. Menschen holen sich Rezepte, Beziehungs- und Karrieretipps, Anleitungen und Hilfe bei der Formulierung juristischer Schreiben von ChatGPT und anderen KI-Systemen. Jede Woche taucht ein neuer Fall auf, in dem ein Richter oder ein Anwalt KI benutzt, um nicht existierende Präzedenzfälle zu zitieren.
Mehr als die Hälfte der Teilnehmer einer Tidio-Umfrage würde gerne KI nutzen (oder nutzt sie bereits), um ihre Online-Dating-Nachrichten an potenzielle Partner zu verfassen.
Mehr als die Hälfte der Umfrageteilnehmer (52 %) würde es vorziehen, jemanden im wirklichen Leben zu treffen, anstatt einen perfekten Partner in einer virtuellen Welt zu erschaffen. (Tidio-Umfrage)
Das bedeutet, dass etwa die Hälfte aller Teilnehmer tatsächlich lieber einen virtuellen als einen realen Partner hätte, oder dass sie gerne beides hätten.
Das ergibt keinen Sinn. Wie können wir Angst vor KI haben, sie aber gleichzeitig täglich nutzen, unsere Karriere und unsere Arbeit von ihr formen lassen, ihr unser Liebesleben anvertrauen und sie sogar (die Hälfte von uns!) zu unserem romantischen Partner machen? Objektophilie hingegen, die erotische Liebe zu unbelebten Objekten, gilt in der Allgemeinbevölkerung als sehr selten; eine prominente Internetgruppe von Objektophilen zählt gerade einmal 40 Mitglieder.
Offensichtlich nehmen wir KI nicht als bloßes Ding wahr. Wir beziehen uns auf KI, wie wir uns auf andere menschliche Wesen beziehen.
Deshalb fühlen sich so viele Menschen in der Nähe von KI wohl, und deshalb haben KI-Systeme diese explosive Verbreitung gefunden — viel schneller und vollständiger als jede andere Technologie zuvor in der Menschheitsgeschichte. Innerhalb von vier Jahren sind große Sprachmodelle (Large Language Models) allgegenwärtig geworden und werden heute oft als notwendig für effizientes Arbeiten angesehen. ChatGPT, Midjourney, VEO und Runway, Grammarly, Copilot und Apple Intelligence sowie die eingebaute KI in Word, Google Docs, Photoshop, Premiere Pro, Android, iOS und sogar hier auf Substack: Sie alle bieten die eine oder andere Form von KI an, die immer im Hintergrund wartet, immer bereit, einzuspringen und uns zu helfen, Fragen zu beantworten, zu chatten, uns beim Erschaffen zu helfen, uns zu korrigieren und uns sogar zu lieben.
III.
Trotz all dieser Beweise für die Menschenähnlichkeit der KI hält sich das Narrativ der Fremdartigen Intelligenz (Alien Intelligence) hartnäckig und befeuert sowohl Faszination als auch Angst: die Vorstellung, dass wir etwas bauen, das uns radikal unähnlich ist, aber etwas, das stärker, mächtiger und intelligenter ist als wir.
Das ist keine neue Angst. Seit der Antike träumten Menschen von künstlichen Wesen (und hatten Albträume davon), die der Menschheit sowohl dienen als auch sie bedrohen würden. Daidalos, der mythische antike Ingenieur, soll sprechende Statuen geschaffen haben. Pygmalion, ein Bildhauer, schuf eine Statue eines Mädchens, die so perfekt war, dass er sich in sie verliebte. Um sein Leiden zu lindern, erweckten die Götter die Statue zum Leben. Und Rabbi Löw schuf im Prag des 16. Jahrhunderts den Golem, ein Geschöpf aus Lehm, das durch Magie belebt wurde, um seine jüdische Gemeinde zu beschützen — bis sich der Golem gegen seinen Meister wandte und zerstört werden musste. Dasselbe Motiv des Artefakts, das sich gegen seinen Schöpfer wendet, finden wir in Mary Shelleys Frankenstein-Geschichte, wo das Monster, enttäuscht und missverstanden, Rache an seinem Schöpfer nehmen will. Wenn wir heute also KI fürchten, sind wir nicht allein. Wir erleben nur eine sehr alte, ursprüngliche Angst wieder — die Angst des Schöpfers, von seiner Schöpfung ersetzt zu werden. Und dies selbst ist natürlich nur eine weitere Version der Urangst jedes Lebewesens, das bestimmt ist, zu sterben und von den eigenen Nachkommen überwunden zu werden.
Am Leben zu sein bedeutet, im Schatten der eigenen Obsoleszenz zu leben, und KI ist nur eine weitere Manifestation dieses ewigen Motivs.
Aber ist dies wirklich eine gerechtfertigte Haltung gegenüber KI? Sind KI-Systeme in irgendeiner relevanten Weise vergleichbar mit Kindern, mit Menschen oder mit den magischen Kreaturen des Mythos?
IV.
Im Kern ist ein großes Sprachmodell nichts anderes als ein statistischer Spiegel des menschlichen Sprachgebrauchs. LLMs wurden trainiert, indem sie Milliarden von Wörtern lasen, die von uns geschrieben wurden: unsere Bücher, unsere Argumente, unsere Witze, unsere Träume, unsere schlecht durchdachten Meinungen. Aus all diesem Material erraten sie lediglich, was das nächste wahrscheinliche Wort in einem Satz sein wird.
Große Sprachmodelle denken nicht im üblichen Sinne des Wortes. Sie sagen nur voraus, was ein menschlicher Sprecher als Nächstes sagen könnte, basierend auf dem, was all diese Menschen im Trainingskorpus zuvor gesagt haben.
Das ist interessant, denn es bedeutet unter anderem, dass wir in unseren Meinungen viel weniger originell sind, als wir gerne glauben. Wenn jeder von uns einen persönlichen, einzigartigen Standpunkt hätte, dann wäre KI-Training unmöglich. Die statistische Maschine, die KI ist, funktioniert nur deshalb so gut, weil es wirklich einfach ist vorherzusagen, was eine Person als Nächstes sagen wird. Wir sind in unseren Äußerungen, unseren Verhaltensweisen, unseren Meinungen, unseren Gefühlen und unseren Gedanken sehr vorhersehbar.
Linguisten wissen das schon lange, und sie haben einen Namen dafür: das Zipfsche Gesetz. Dies ist ein empirisches Gesetz, das besagt, dass die Häufigkeit eines beliebigen Elements in einer großen Sammlung umgekehrt proportional zu seinem Rang ist — und das gilt auch für menschliche Äußerungen. Kurz gesagt, das häufigste Wort in einer Sprache
kommt ungefähr doppelt so oft vor wie das zweithäufigste, dreimal so oft wie das dritthäufigste und so weiter. Zum Beispiel ist im Brown Corpus amerikanischer englischer Texte das Wort „the“ (der/die/das) das am häufigsten vorkommende Wort und macht allein fast 7 % aller Wortvorkommen aus (69.971 von etwas über 1 Million). Getreu dem Zipfschen Gesetz macht das zweitplatzierte Wort „of“ (von) etwas über 3,5 % der Wörter aus (36.411 Vorkommen), gefolgt von „and“ (und) (28.852). [Wikipedia]
Natürlich ist vieles davon auf grammatikalische Strukturen zurückzuführen, die erfordern, dass bestimmte Wörter an bestimmten Positionen in einem Satz vorkommen. Aber es funktioniert auch für Wörter, die Dinge bezeichnen, für Substantive und Verben, die etwas bedeuten, worüber wir sprechen. Auch diese gehorchen dem Zipfschen Gesetz. Sie können das sehen, wenn Sie eine Person treffen: Die häufigsten Begrüßungen sind so etwas wie „Hallo“ und „Guten Morgen“. Nur sehr wenige von uns würden ein Gespräch beginnen, indem sie feststellen: „Einsteins Relativitätstheorie wurde in letzter Zeit überbewertet.“ Und die Antworten auf diese ersten Äußerungen sind ebenso vorhersehbar. Auf „Wie geht es dir?“ würden die meisten von uns mit „gut“ antworten, egal wie gut unser Tag tatsächlich verlaufen ist. Es gilt sogar als leicht unhöflich, auf diese Eröffnungsfrage etwas anderes als das unverbindliche „gut“ zu antworten.
Warum ist das nun wichtig?
Weil es erklärt, warum große Sprachmodelle überhaupt funktionieren. Sie funktionieren, weil wir so vorhersehbar sind. Ihre Äußerungen, die nicht durch das Befolgen von Grammatikregeln entstehen, sondern bloß durch das Nachahmen einer Wahrscheinlichkeitsverteilung menschlicher Sprache, sind überraschend sinnvoll, intelligent und schlüssig. Und menschliche Wesen freuen sich darüber — so sehr, dass sie bereit sind zu zahlen, um Zugang zu diesen Modellen zu erhalten, die nichts weiter tun, als ihnen das am meisten erwartete nächste Wort zurückzugeben.
Aber warum ist das so? Weil die Maschine die Kapazität hat, all diese Wahrscheinlichkeiten zu speichern und abzurufen — und wir nicht.
Expertise ist der korrekte Gebrauch von Sprache, wobei „korrekt“ nichts weiter bedeutet als die Abfolge von Äußerungen, die von den eigenen Expertenkollegen erwartet wird.
Die korrekte Wahrscheinlichkeit des nächsten Wortes ist sehr oft eine Frage der Fachexpertise. Wenn Sie an die Sprache eines Arztes denken: Zu wissen, welchen medizinischen Begriff man als Nächstes sagt, erfordert eine lange Studienzeit, in der diese Person das korrekte Vokabular erwirbt, einschließlich der korrekten Wahrscheinlichkeit, jedes Wort nach jedem anderen Wort zu verwenden. Wir nennen das „Domänenwissen“ oder „Expertise in Medizin“, aber behavioristisch gesehen ist es nichts anderes als die Beherrschung der erwarteten statistischen Verteilung von Äußerungen.
Expertise ist der korrekte Gebrauch von Sprache, wobei „korrekt“ nichts weiter bedeutet als die Abfolge von Äußerungen, die von den eigenen Expertenkollegen erwartet wird.
V.
Dies bringt uns zum Punkt dieses Artikels: Die Hardware, die Algorithmen, die „Maschine“ selbst — das sind nur Gefäße, die allein nichts tun, keine eigene Bedeutung produzieren.
Wenn wir uns mit KI beschäftigen, beschäftigen wir uns in Wirklichkeit mit einem Destillat menschlicher Kultur in Form einer Wahrscheinlichkeitsverteilung menschlicher Äußerungen.
Das erklärt, warum „KI“ zum Beispiel nicht rassistisch sein kann. Wenn KI-Systeme rassistisch wären, würde man erwarten, dass sie von Natur aus rassistisch (oder elitär oder feindselig) gegenüber anderen KI-Systemen sind. Aber das passiert nicht. ChatGPT hat noch nie schlecht über Gemini gesprochen, noch Claude über Microsofts Copilot. Wenn sie rassistisch sind, sind sie genau auf die Art und Weise rassistisch, wie wir Menschen es sind. KI-Systeme werden rassistisch gegenüber Schwarzen sein, gegenüber Juden, gegenüber anderen Kulturen als jener, die die Mehrheit des Internets als die kanonische Kultur ansieht, in deren Werten das KI-Training verwurzelt ist — meist irgendeine Form von Silicon-Valley-Ethik und -Werten.
Wenn Sie einem KI-System eine Frage stellen, konsultieren Sie kein Roboter-Orakel. Sie sprechen nicht mit einer künstlichen Intelligenz. Sie fragen das kollektive Gedächtnis unserer Spezies ab.
Sie sprechen mit uns.
VI.
Diese Umdeutung hat Konsequenzen. Sie bedeutet, dass KI nicht von Natur aus weise ist — aber sie kann unsere Weisheit reproduzieren, nicht weil sie sie versteht, sondern weil diese Weisheit in den Wahrscheinlichkeitsverteilungen der Wörter, die wir verwenden, kodiert ist. Es bedeutet auch, dass sie unsere Vorurteile, unsere blinden Flecken, unser Versagen widerspiegelt. Und sie tut dies mit derselben Präzision und Notwendigkeit, mit der sie die guten Teile unserer textlichen Aufzeichnungen widerspiegeln wird.
Wenn wir KI befragen, sprechen wir nicht mit einer Maschine. Wir sprechen mit uns selbst — durch eine neue Art von Spiegel. Einen Spiegel, der alles über uns weiß — was wir wollen, wovon wir träumen, was wir fürchten, was uns aufregt, was uns langweilt, was uns interessiert, was uns anwidert. Die KI versteht keines dieser Gefühle — aber sie weiß, an jedem Punkt eines Gesprächs genau das richtige Wort zu verwenden, das Wort, das der durchschnittlichste menschliche Experte in der statistisch durchschnittlichsten Konversation an genau diesem Punkt des Austauschs verwendet hätte. Das ist ihre Magie und ihre Macht: dass sie alle Zahlen hat, um die korrekte Wahrscheinlichkeit zu berechnen und das wahrscheinlichste nächste Wort zu kennen.
Wenn wir KI befragen, sprechen wir nicht mit einer Maschine. Wir sprechen mit uns selbst — durch eine neue Art von Spiegel.
Wenn wir KI auf diese Weise verstünden — nicht als eine fremde Bedrohung, sondern als einen Spiegel unseres eigenen Geistes —, könnten wir uns ihr mit weniger Angst und mehr Verantwortung nähern. Wir werden erkennen, dass es nicht die KI ist, die rassistisch ist — wir sind es, deren Rassismus von einer KI zurückreflektiert wird, die auf unseren eigenen Textproduktionen trainiert wurde. Wenn KI einen Rat gibt, ist es kein Rat, der von der KI selbst kommt. Es ist der häufigste Rat, der in den Daten gefunden werden konnte, mit denen die KI trainiert wurde.
Und was ist diese Fähigkeit, für jede einzelne Situation, der man möglicherweise begegnen kann, genau die richtige Antwort zu finden — was ist das anderes als Phronesis, Aristoteles’ Wort für praktische Weisheit? Große Sprachmodelle sind optimierte Phronesis-Maschinen; Rechenmaschinen, die praktische Weisheit viel effektiver und basierend auf einem viel größeren Erfahrungskorpus ausgeben, als irgendein einzelner Mensch jemals erwerben könnte.
Die Antworten, die wir erhalten, sind nicht „die Antworten der KI“, die Gemälde, die die KI erschafft, sind keine „KI-Gemälde“, die Musik, die sie macht, ist keine „KI-Musik“. Es sind unsere Antworten, unsere kollektive Erwartung dessen, was ein Gemälde sein sollte, unser kollektiver Musikgeschmack. Wenn wir mit KI sprechen, sprechen wir mit einer destillierten, statistisch optimalen Version von uns selbst — mit einem kollektiven Wir, einem Wesen, das repräsentiert, was wir alle sind, wenn wir nicht als Individuen gesehen werden, sondern als eine Masse, ein statistischer Durchschnitt, der durchschnittlichste Mensch, trainiert mit aller Weisheit und Torheit der Menschheit, um die wahrscheinlichste, die plausibelste Antwort zu geben.
Die KI ist wir.
Die KI zu fürchten bedeutet, uns selbst zu fürchten. Und das mag, wenn man alles bedenkt, eine gar nicht so unvernünftige Reaktion sein.
Vielen Dank fürs Lesen, und bis nächste Woche! — Andy

