Bedeutung ohne Erfahrung #18
Gastartikel von Luka Zurkic
Dieser Artikel ist eine Übersetzung des englischen Originals hier.
Liebe Freunde von Daily Philosophy,
Heute erreichen wir den 400. Artikel (in der englischsprachigen Version) seit den Anfängen von Daily Philosophy im September 2020. Die Website existierte davor bereits seit drei Jahren, aber 2020 war das Jahr, in dem dieser Newsletter begann – vor 5 Jahren und 4 Monaten. Das bedeutet, dass wir im Laufe der Jahre jeden Monat 6,25 Artikel veröffentlicht haben, also etwas mehr als einen pro Woche. Und natürlich wäre all dies ohne Ihre Unterstützung nicht möglich gewesen – die rund 70 Autorinnen und Autoren, die all diese brillanten Artikel geschrieben haben, und die über 3200 Abonnenten, die sie nun lesen, diskutieren und teilen. Ihnen allen ein herzliches Dankeschön dafür!
Selbst in dieser kurzen Zeit haben wir erlebt, wie sich die Philosophie, das Internet und die gesamte Gesellschaft dramatisch verändert haben. Als dieser Newsletter startete, gab es keine KI, und Studierende schrieben ihre Hausarbeiten entweder selbst oder mussten teure Agenturen beauftragen, um ihnen zu helfen. Heute befinden wir uns in einem permanenten, aussichtslosen Wettlauf, um sie daran zu hindern, KI für das Verfassen ihrer Arbeiten zu nutzen. Wenn ich nach „philosophy“ google, ist das erste Ergebnis ein Hautpflege-Shop unter philosophy.com.hk. Coca-Cola nutzt KI-Weihnachtswerbung, um deren Produkt zu verkaufen, KI-Songs führen die Charts an, und eine neue Serie, „On This Day... 1776“, ist komplett KI-generiert, mit dem Segen des Time Magazine – ein überraschend gutes filmisches Erlebnis (trotz der säuerlichen Kritik des Guardian), das ohne Kameras, Drehorte und ohne einen einzigen Schauspieler (außer den Stimmen) auskam. Im Jahr 2020 bildeten wir Studierende noch unter der Prämisse aus, dass sie als Absolventen mit einem akademischen Abschluss eine lukrative, lebenslange Karriere vor sich hätten. Heute gehören Akademiker neben Fotografen und Musikern zu den durch die Fortschritte der KI am stärksten gefährdeten Gruppen, und die einzigen Studiengänge, die noch wachsen, attraktiv sind und gefördert werden, sind jene, die sich direkt mit KI-Themen und existenziellen Risiken befassen. Wenn mich meine Kinder fragen, was sie in ein paar Jahren studieren sollen, habe ich keinen Rat. Was auch immer wir jungen Menschen vor einem Jahrzehnt empfohlen haben, ist heute obsolet. Wird es in zehn Jahren noch Buchhalter geben? Biologen? Professionelle Philosophen? Und wie viele? Die sichersten Jobs scheinen heute im handwerklichen und pflegerischen Bereich zu liegen: Elektriker, Klempner, Hebammen, Pflegekräfte – diese werden nicht so leicht zu ersetzen sein wie Schriftsteller, Künstler und Wissenschaftler. Ein paar werden natürlich bleiben, um die KI zu überwachen, und in kleinen Widerstandsnestern in den immer weiter schrumpfenden geisteswissenschaftlichen Fakultäten. Aber wie viele, und für wie lange?
Und die Welt im Allgemeinen scheint bergab zu gehen. Seit Trump und Covid, den beiden Plagen der 2020er Jahre, ist die Welt ein viel wilderer, rauerer, unerbittlicherer Ort geworden, mit der Aussicht auf ein postapokalyptisches Leben in Reichweite unseres Ereignishorizonts. Ein weiteres, unvorhersehbares Fukushima, eine weitere plötzliche Invasion in der Ukraine (oder Grönland), ein weiterer Völkermord in Gaza würden ausreichen, um den tristen Alltag eines jeden in Dunkelheit zu stürzen. Der soziale Zusammenhalt und die Solidarität bröckeln, das Zeitalter des Wissens und der Aufklärung ist lange vorbei, Überschwemmungen und Brände überziehen den Globus, und das einzige überaus erfolgreiche, global verfolgte, kooperative Projekt ist die Zerstörung der natürlichen Welt im Namen kapitalistischer Interessen.
Können wir irgendetwas tun, um uns selbst zu retten? Ich glaube nicht, es sei denn, die KI erweist sich als vernünftiger als wir und versklavt uns rechtzeitig, um uns zu zwingen, das zu tun, was nötig ist, um den Planeten zu retten. Was können wir also tun? Was sollten wir tun?
Daily Philosophy lesen, nehme ich an. Die nächsten hundert Artikel, und die danach. Weiterhin eine kleine Kerzenflamme der Vernunft, der Bildung und der respektvollen Gemeinschaft am Brennen halten, auch wenn die Welt um uns herum zusammenbricht.
Wenn wir wieder in den Höhlen sein werden, aus denen wir einst kamen, wird es immer noch ein paar geben, die kleine Gedichte und Geschichten austauschen, verblichene Runen, die in Baumrindenstreifen geritzt sind.
Sie werden uns nie loswerden.
Danke für Ihre Unterstützung und auf zu den nächsten hundert Artikeln! — Andy
Bedeutung ohne Erfahrung. Die Grenzen der Künstlichen Intelligenz
Von Luka Zurkic
Künstliche Intelligenz formt das gegenwärtige Leben neu, nicht weil Maschinen einen Geist entwickeln, sondern weil Menschen Werkzeuge geschaffen haben, die mächtig genug sind, um die soziale Realität neu zu organisieren. Der Einfluss von KI resultiert aus ihrer Fähigkeit, bestimmte Aufgaben mit außerordentlicher Effizienz, Geschwindigkeit und Skalierung auszuführen – wobei sie die menschliche Leistung in eng definierten Bereichen oft übertrifft. Doch diese Leistung beruht auf einer entscheidenden Abwesenheit: Künstliche Intelligenz operiert ohne eigenes Verstehen, ohne Erfahrung und ohne eigenen Zweck. Sie zeigt Kompetenz ohne Verstehen.
Das ist keine philosophische Haarspalterei. Es ist der Schlüssel dazu, warum KI gleichzeitig nützlich und gefährlich ist. Wenn Systeme, die die Welt nicht verstehen, Ergebnisse generieren, die einem intelligenten Urteil ähneln, laden sie zu unangebrachtem Vertrauen ein. Und wenn unangebrachtes Vertrauen in Institutionen verankert wird – in Gerichten, Krankenhäusern, Schulen, Arbeitsmärkten und kulturellen Plattformen –, kann es sich in eine neue Form von unkontrollierbarer Autorität verwandeln. Die Herausforderung durch KI ist daher nicht das Entstehen autonomer, denkender Maschinen, sondern die stille Umverteilung menschlicher Handlungsmacht (Agency) durch technische Systeme, deren Macht unsere derzeitigen Rahmenbedingungen für Verantwortung übersteigt.
Ethische KI wird nicht erreicht, indem man über Maschinenbewusstsein spekuliert oder von künstlichen moralischen Akteuren träumt, die irgendwie in unserem Namen Verantwortung übernehmen. Sie wird durch verantwortungsvolle Gestaltung und Überwachung erreicht: durch bewusstes Design, institutionelle Rechenschaftspflicht und die Bewahrung menschlicher Urteilskraft überall dort, wo Bedeutung, Würde und Werte auf dem Spiel stehen. Die entscheidende Frage ist nicht, was Maschinen werden, sondern was wir werden, wenn wir uns zunehmend auf Systeme verlassen, die Verstehen simulieren, ohne es zu besitzen.
Künstliche Intelligenz als verstärkte menschliche Absicht
Künstliche Intelligenz hat keine eigenen Zwecke. Sie verfolgt keine Ziele, hat keine Absichten und kümmert sich nicht um Ergebnisse. Jedes KI-System erbt seinen Zweck von menschlichen Entscheidungen: von Entwicklern, die Trainingsdaten und Optimierungsziele auswählen, von Organisationen, die Modelle innerhalb bestimmter Anreizstrukturen einsetzen, und von Nutzern, die Ergebnisse in alltägliche Entscheidungsfindungen integrieren. Da diese Systeme jedoch mit immenser Geschwindigkeit und in riesigem Maßstab operieren, verstärken sie menschliche Absichten auf eine Weise, die sich der individuellen Wahrnehmung oder Kontrolle entziehen kann.
Künstliche Intelligenz hat keine eigenen Zwecke. Sie verfolgt keine Ziele, hat keine Absichten und kümmert sich nicht um Ergebnisse.
Diese Verstärkung ist es, was KI gesellschaftlich transformativ macht. Ein einziges Modell kann Millionen von Bewerbungen sichten, die Sichtbarkeit von Informationen für ganze Bevölkerungen gewichten, in der Polizeiarbeit oder in Wohlfahrtssystemen „Risiken“ markieren oder finanzielle Entscheidungen in Echtzeit beeinflussen. Dabei eliminiert es die menschliche Handlungsmacht nicht; es verteilt sie um. Entscheidungen, die früher langsam und lokal getroffen wurden, werden in technische Verfahren komprimiert, die schwer zu hinterfragen und noch schwerer anzufechten sind.
Der öffentliche Diskurs rahmt diese Transformation oft in dramatischen Begriffen. Wir sprechen so, als ob Maschinen beginnen würden, unabhängig zu „entscheiden“, zu „urteilen“ oder zu „erschaffen“. Diese Metaphern sind irreführend. Sie verleiten uns dazu, Ergebnisse so zu behandeln, als ob sie aus maschineller Handlungsmacht resultierten und nicht aus menschlichem Design und institutionellen Entscheidungen.
Wenn Verantwortung über Code, Infrastruktur und bürokratische Ebenen verteilt wird, ist es verlockend, Schaden als bedauerlichen technischen Nebeneffekt zu behandeln und nicht als vorhersehbare Konsequenz menschlicher Führungs-Entscheidungen. Die Gefahr liegt weniger in der Autonomie der Maschinen als in der menschlichen Abdankung.
Verantwortungsübernahme beginnt mit der Weigerung, unsere Handlungsmacht abzugeben – sei es an Anbieter, Plattformen oder die Mystik der Berechnung. Wenn wir diese Systeme gebaut und in unsere Institutionen integriert haben, dann bleibt die moralische Last bei uns. KI mag komplex sein, aber Komplexität ist keine Unschuld. Komplexität ist ein Grund, Verantwortung zu klären, nicht sie aufzulösen.
Das Leistungsmuster: Wo KI erfolgreich ist —und warum
Die Errungenschaften der KI sind real. Systeme brillieren bei Bildklassifizierung, Spracherkennung, Informationsabruf, Mustererkennung, Betrugsidentifikation und Übersetzung. In wissenschaftlichen und technischen Bereichen können automatisierte Werkzeuge Entdeckungen beschleunigen, Fehler reduzieren und spezialisierte Expertise erweitern. Diese Fähigkeiten sind nicht nur effekthascherisch; sie sind praktisch und können gesellschaftlich nützlich sein.
Diesen Erfolgen liegt ein klares Muster zugrunde. KI funktioniert am besten dort, wo Aufgaben klar definiert sind, Umgebungen stabil sind, Trainingsdaten im Überfluss vorhanden sind und Erfolg quantitativ gemessen werden kann. Unter diesen Bedingungen bietet KI etwas wirklich Wertvolles: Konsistenz. Sie ermüdet nicht, langweilt sich nicht, verliert nicht die Konzentration und vergisst keine Verfahrensschritte. Sie führt eng umrissene Funktionen zuverlässig aus.
Das epistemische Risiko besteht darin, dass wir, wenn Systeme oft genug gut abschneiden, beginnen, ihre Ausgaben als Erkenntnisse und nicht als Vorhersagen zu behandeln.
Aber dasselbe Muster offenbart auch die Grenzen der KI. Außerhalb kontrollierter Domänen – wo Bedeutung kontextabhängig ist, sich Normen entwickeln und Ergebnisse nicht vollständig im Voraus spezifiziert werden können – nimmt die Leistung ab. Systeme können selbstbewusst wirken, während sie falsch liegen. Sie können fließende Sprache generieren, ohne zu verstehen, was sie sagen. Sie können stilistische Merkmale reproduzieren, ohne den Sinn dieser Stile zu erfassen. Dies sind nicht nur vorübergehende Mängel, die auf bessere Datensätze oder größere Modelle warten. Sie weisen auf eine strukturelle Lücke zwischen Berechnung (computation) und Verstehen (comprehension) hin.
Das epistemische Risiko besteht darin, dass wir, wenn Systeme oft genug gut abschneiden, beginnen, ihre Ausgaben als Erkenntnisse und nicht als Vorhersagen zu behandeln. Wir beginnen, rhetorische Flüssigkeit als Wissen zu interpretieren. Wir beginnen anzunehmen, dass eine Antwort fundiert ist, nur weil ein System sie produzieren kann. Diese Verwirrung ist nicht auf Gelegenheitsnutzer beschränkt. Sie kann professionelle Kontexte infizieren, insbesondere wenn KI eingesetzt wird, um komplexe Urteile zu rationalisieren: medizinische Entscheidungen, Mitarbeiterbewertung, Kreditgenehmigungen, Schulzulassungen und rechtliche Risikobewertung. In solchen Fällen kann eine scheinbar „objektive“ Computer-Ausgabe die unordentliche menschliche Interpretationsarbeit überschreiben.
So wird Kompetenz gefährlich: nicht weil sie nutzlos ist, sondern weil sie überzeugend ist. Je besser KI darin wird, plausible Ausgaben zu produzieren, desto leichter vergisst man, was ihr fehlt.
Bedeutung als soziale und verkörperte Praxis
Übersetzung ist ein aufschlussreiches Beispiel. Eine gute Übersetzung ist keine mechanische Substitution von Wörtern. Sie ist ein Akt der Interpretation. Sie erfordert Sensibilität für Implikationen, Ironie, Tonfall, kulturelle Referenzen und soziale Konsequenzen. Maschinen können in vorhersehbaren Umgebungen oft brauchbare Übersetzungen liefern, und diese Nützlichkeit sollte anerkannt werden. Aber menschliche Sprache ist nicht bloß ein Code. Sie ist eine soziale Praxis, die von Geschichten, Machtverhältnissen, Erwartungen und gelebter Erfahrung geprägt ist.
Bedeutung (Sinn) liegt nicht im Text allein. Sie entsteht durch die Teilnahme an Lebensformen: geteilte Bräuche, unausgesprochene Normen, Beziehungen, Gesten und verkörperter Kontext. Ein System, das auf riesigen Sprachkorpora trainiert wurde, kann Muster nachahmen, ohne in die Praktiken einzutreten, die diese Muster bedeutungsvoll machen. Es kann Sätze generieren, die kohärent klingen, ohne dass sie ihm selbst etwas bedeuten. Es kann menschlichen Ausdruck imitieren, ohne etwas ausdrücken zu wollen.
Bedeutung liegt nicht im Text allein. Sie entsteht durch die Teilnahme an Lebensformen.
Das Autofahren bietet einen parallelen Fall. Das meiste beim Fahren ist Routine: in der Spur bleiben, Ampeln beachten und Abstand halten. Aber die Momente, die das Urteilsvermögen auf die Probe stellen, sind keine Routine. Sie sind mehrdeutig, situativ und moralisch aufgeladen: ein Fußgänger, der am Zebrastreifen zögert, die unsichere Geste eines Radfahrers, eine spontane Verständigung an einer überfüllten Kreuzung, eine Situation, in der „die Regel“ weniger wichtig ist als die Verletzlichkeit der Person, die vor einem steht. Diese Momente erfordern implizite Normen und verkörperte Antizipation – Fähigkeiten, die in gelebter Erfahrung und der Fähigkeit, auf Störungen zu reagieren, gründen.
Diese Beispiele weisen auf eine tiefere philosophische Unterscheidung hin. KI-Systeme manipulieren Repräsentationen; sie bewohnen nicht die Welt, auf die sich diese Repräsentationen beziehen. Menschen verarbeiten nicht bloß Informationen; wir leben innerhalb von Bedeutung. Wir sorgen uns, wir zögern, wir interpretieren, und wir sind rechenschaftspflichtig. Die Manipulation von Repräsentationen mit gelebtem Verstehen gleichzusetzen, lädt zu Selbstüberschätzung und fehlgeleitetem Vertrauen ein.
Dies erklärt auch, warum die Frage „Kann KI verstehen?“ oft in die Irre führt. Sie verleitet uns dazu, Verstehen als eine Quantität zu behandeln, die durch Skalierung erhöht werden könnte. Aber Verstehen, wie Menschen es leben, ist nicht einfach mehr Daten oder bessere Mustererkennung. Es ist die Teilnahme an einer Welt – sozial, verkörpert, verletzlich und durchdrungen von Werten.
Von unangebrachtem Vertrauen zu institutionellem Schaden
Unangebrachtes Vertrauen wird wirklich gefährlich, wenn es institutionalisiert wird. Wenn KI-Systeme als Autoritäten behandelt werden, werden ihre Fehler schwerer zu erkennen und schwerer anzufechten. Automatisierte Systeme spielen heute eine Rolle bei Einstellungen, Kreditwürdigkeitsprüfungen, Polizeiarbeit, Strafmaßfindung, Sozialhilfezuweisung, Versicherungen, Priorisierung im Gesundheitswesen und Inhaltsmoderation. In diesen Umgebungen sind Fehler nicht abstrakt. Sie betreffen reale Leben.
Und die Schäden sind nicht gleichmäßig verteilt. Automatisierung trifft oft dort am härtesten, wo Menschen am wenigsten in der Lage sind, Entscheidungen anzufechten: die Armen, die Marginalisierten, die Überwachten, die prekär Beschäftigten und die bürokratisch Verwalteten. Wenn ein automatisiertes System einen Kredit verweigert, eine Risikowahscheinlichkeit berechnet oder eine Strafe empfiehlt, können Berufungsverfahren undurchsichtig, langsam oder bedeutungslos werden. Die betroffene Person weiß möglicherweise nicht einmal, welche Daten verwendet wurden, welche Annahmen eingebaut wurden oder wie das System konkurrierende Faktoren abgewogen hat.
Rechenschaftspflicht löst sich dann in einer vertrauten Kette von Ablenkungen auf: Das Modell hat die Ausgabe produziert; der Anbieter hat das System bereitgestellt; die Organisation hat das Verfahren befolgt; der Mitarbeiter hat sich lediglich „auf das Werkzeug verlassen“. Diese Diffusion ist kein Zufall. Sie ist ein strukturelles Merkmal großflächiger Automatisierung. KI macht es einfacher, Entscheidungen auszulagern, und ausgelagerte Entscheidungen lassen sich leichter so behandeln, als wären sie niemandes Schuld.
Die zentrale ethische Frage ist daher nicht, ob man Maschinen vertrauen kann. Maschinen sind in dem hier relevanten Sinne keine moralischen Subjekte. Die Frage ist, ob Institutionen, die diese Systeme einsetzen, zur Rechenschaft gezogen werden können – ob die betroffenen Personen Entscheidungen anfechten, Erklärungen verlangen und Rechtsmittel einlegen können, wenn automatisierte Entscheidungen ihnen schaden.
Wenn sich KI-Governance nur auf technische Genauigkeit konzentriert, wird sie dieses tiefere Problem verfehlen. Ein System kann „im Durchschnitt genau“ und in der Praxis dennoch ungerecht sein. Es kann statistisch gut abschneiden, während es in spezifischen Leben unerträglichen Schaden anrichtet. Ethik beginnt dort, wo der Durchschnitt endet: wo eine bestimmte Person abgewiesen, falsch beurteilt, ausgeschlossen oder bestraft wird.
Rechenschaftspflicht als Designanforderung, nicht als nachträglicher Einfall
Verantwortung darf sich nicht in Komplexität verflüchtigen. Entwickler treffen Entscheidungen über Trainingsdaten, Ziele, Architekturen, Bewertungsmetriken und akzeptable Fehlerraten. Organisationen entscheiden, wo und wie Systeme eingesetzt werden, unter welchen Anreizen und mit welcher Aufsicht. Regulierungsbehörden definieren, welche Risiken akzeptabel sind, welche Transparenz erforderlich ist und welche Rechte Einzelne haben.
Ein ethischer Einsatz erfordert daher Rechenschaftspflicht auf jeder Stufe. In Bereichen mit hohem Risiko sollten Systeme vor dem Einsatz Folgenabschätzungen unterzogen werden, nicht erst, wenn ein Schaden eintritt. Audits sollten routinemäßig und unabhängig sein und die Befugnis haben, nicht nur Leistungskennzahlen, sondern auch institutionelle Auswirkungen zu prüfen. Menschen, die von automatisierten Entscheidungen betroffen sind, sollten aussagekräftige Erklärungen erhalten – keine technischen Pseudo-Erklärungen, sondern Gründe, die verstanden, angefochten und auf deren Grundlage gehandelt werden kann.
Entscheidend ist, dass „Human-in-the-loop“ nicht zu einer rituellen Floskel verkommt.
Entscheidend ist, dass „Human-in-the-loop“ (der Mensch in der Entscheidungsschleife) nicht zu einer rituellen Floskel verkommt. In vielen Systemen ist die menschliche Aufsicht kaum mehr als ein Abnicken: Der Mensch ist anwesend, aber nicht in der Lage, das Modell sinnvoll in Frage zu stellen oder zu überstimmen. Echte Aufsicht erfordert Autorität, Zeit, Schulung und institutionelle Unterstützung. Sie erfordert auch eine Kultur, die Meinungsverschiedenheiten mit dem System als legitim und nicht als Ineffizienz behandelt.
Wenn KI eingesetzt wird, um Entscheidungen billiger und schneller zu machen, wird es einen ständigen Druck geben, die Anfechtbarkeit zu verringern, Personal abzubauen und Einsprüche als „Reibung“ zu behandeln. Verantwortungsübernahme bedeutet, diesem Druck zu widerstehen, wenn Rechte und Würde im Spiel sind. Manche Arten von Reibung sind ethisch geboten. Manche Formen der Langsamkeit schützen menschliche Wesen.
Die Grenzen der moralischen Automatisierung
Die Aussicht, moralische Maschinen zu bauen, wird oft als Lösung präsentiert. Wenn Voreingenommenheit (Bias) das Problem ist, können wir vielleicht Fairness einkodieren. Wenn Schaden das Risiko ist, können wir vielleicht schädliche Ergebnisse wegoptimieren. Formale Einschränkungen können wertvoll sein. Sie erzwingen Klarheit. Sie können offensichtliche Ausfälle verhindern. Sie können Leitplanken etablieren, wo Geschwindigkeit und Skalierung sonst die menschliche Aufmerksamkeit überfordern würden.
Aber das moralische Leben lässt sich nicht auf das Befolgen von Regeln reduzieren. Werte sind umstritten, historisch gewachsen und stehen oft im Konflikt. Fairness selbst ist nicht nur eine einzige Sache. Unterschiedliche moralische Rahmenwerke widersprechen sich, und vernünftige Menschen können unterschiedliche Ansichten darüber haben, was als gerecht gilt.
Ein System kann perfekt regelkonform und dennoch ungerecht sein, wenn das, woran es sich hält, fehlerhaft ist.
Die Einkodierung von Moral birgt das Risiko, bestimmte Annahmen – oft die Annahmen mächtiger Institutionen – in Systemen einzufrieren, die sich selbst als neutral präsentieren.
Ein System kann perfekt regelkonform und dennoch ungerecht sein, wenn das, woran es sich hält, fehlerhaft ist. Wenn ein Wohlfahrtssystem auf Misstrauen aufgebaut ist, ist eine „faire“ Automatisierung dieses Misstrauens immer noch Grausamkeit. Wenn eine Institution bestimmte Gemeinschaften als inhärent riskant behandelt, verfeinert ein genaues Risikomodell möglicherweise nur ein Vorurteil. Technische Präzision wäscht moralisches Versagen nicht rein.
Aus diesem Grund ist das am besten zu verteidigende Ziel nicht moralische Handlungsmacht, sondern moralische Beschränkung. Ethische KI sollte als konstruierte Begrenzung verstanden werden: Grenzen, die vorhersehbare Schäden verhindern und die Verantwortung zurück in menschliche Institutionen zwingen. Maschinen können helfen, politische Richtlinien umzusetzen. Sie können die politische und moralische Arbeit der Entscheidung, wie diese Richtlinien aussehen sollten, nicht legitim ersetzen.
Die Fantasie der moralischen Automatisierung ist attraktiv, weil sie Entlastung verspricht. Sie suggeriert, dass Verantwortung an technische Systeme delegiert werden kann und dass Ethik zu einem Ingenieursproblem werden kann. Aber Ethik ist nicht bloß eine Frage der Optimierung. Sie ist die Praxis des Zusammenlebens unter Bedingungen von Verletzlichkeit und Meinungsverschiedenheit.
Kreativität, Kultur und das Risiko der Verflachung
Generative Modelle haben alte Vorstellungen von Kreativität erschüttert. Texte, Bilder, Musik und Designs können nun durch Prompting, Auswahl und Verfeinerung statt durch direkte manuelle Ausführung produziert werden. Dies hat einige zu der Erklärung veranlasst, dass Maschinen nun Künstler, Schriftsteller oder Komponisten seien. Aber diese Schlussfolgerung wiederholt dieselbe Verwirrung: Sie behandelt Output als inneres Leben.
Die genauere Beschreibung ist, dass sich die menschliche Rolle verschoben hat. Kreativität liegt zunehmend im Definieren von Aufgaben, im Bewerten von Ergebnissen, im Verfeinern der Richtung und im Einbetten von Resultaten in einen größeren Bedeutungszusammenhang. Generative KI kann Entwürfe beschleunigen und den Zugang zu Experimenten erweitern. Sie kann Eintrittsbarrieren senken und es Menschen ermöglichen, Ideen zu erforschen, für deren direkte Umsetzung ihnen möglicherweise die technischen Fähigkeiten gefehlt hätten.
Doch dieselbe Reibungslosigkeit birgt das Risiko einer kulturellen Verflachung. Wenn Kreation augenblicklich wird, wird Neuheit leicht mit Wert und Geschwindigkeit mit Tiefe verwechselt. Der Markt für Aufmerksamkeit belohnt das, was sofort konsumierbar ist. Wenn die kulturelle Produktion von generativen Systemen dominiert wird, die auf bestehenden Mustern trainiert sind, könnte das Ergebnis ein endloses Recycling ästhetischer Oberflächen sein – wunderschön, flüssig und leer.
Wenn Kreation augenblicklich wird, wird Neuheit leicht mit Wert und Geschwindigkeit mit Tiefe verwechselt.
Das Problem ist nicht die KI-generierte Kunst an sich. Das Problem ist ein Ökosystem, in dem Herkunft verschwindet, Kontext kollabiert und alles ohne Abstammung oder Verantwortung zirkuliert. Kultur ist nicht bloß Inhalt; sie ist Erinnerung, Interpretation und Kampf. Werkzeuge formen die Aufmerksamkeit; Aufmerksamkeit formt den Geschmack; Geschmack formt die Kultur. Wenn wir zulassen, dass generative Systeme definieren, was am sichtbarsten und am profitabelsten ist, riskieren wir den Aufbau einer Kultur, die auf Engagement (Interaktion) statt auf Bedeutung optimiert ist.
Verantwortungsübernahme erfordert hier mehr als technische Richtlinien. Sie erfordert kulturelle Ernsthaftigkeit: Normen der Zuschreibung, Praktiken des Bewertens und Institutionen, die Tiefe in einer weltweiten Sucht nach Geschwindigkeit schützen.
Gegen den Mythos denkender Maschinen
Spekulationen über künstliche allgemeine Intelligenz (AGI) lenken oft von unmittelbaren Verantwortlichkeiten ab. Verbesserungen bei eng umrissenen Aufgaben summieren sich nicht automatisch zu einem allgemeinen Verstehen. Die Fixierung auf eine hypothetische Zukunft kann zu einer Ausrede werden, um die jetzt erforderliche politische Arbeit zu vermeiden: Systeme zu überprüfen, ihren Einsatz zu regulieren, Rechte zu schützen und sich der Konsolidierung von Macht zu widersetzen.
Auf einer tieferen Ebene spiegelt der Mythos denkender Maschinen eine psychologische Projektion wider. Maschinen denken, fühlen oder erfahren nicht. Sie handeln nicht aus eigenen Anliegen heraus. Sie treten nicht als autonome Wesen mit der Welt in Beziehung. Sie führen Aufgaben innerhalb von Rahmenwerken aus, die von Menschen entworfen wurden. Jede „Intelligenz“, die wir beobachten, ist eine Reflexion der strukturierten Umgebungen und menschlichen Zwecke, in denen sie operieren.
Menschliche Erfahrung ist untrennbar mit Verkörperung verbunden.
Menschliche Erfahrung ist untrennbar mit Verkörperung verbunden. Wahrnehmung, Kognition und Bedeutung entstehen aus der gelebten Auseinandersetzung mit der Welt – aus Körpern, die auf Ungewissheit, Bedürfnis, Risiko und Störung reagieren. Unverkörperte Systeme, die Symbole manipulieren, können dies nicht replizieren. Sie generieren Antworten, aber sie sprechen nicht. Sie antworten, aber sie meinen es nicht so.
Dies ist ethisch von Bedeutung, weil der Mythos der maschinellen Handlungsmacht moralische Verwirrung fördert. Wenn wir denken, Maschinen „entscheiden“, dann ist niemand verantwortlich. Wenn wir denken, Maschinen „verstehen“, dann geben wir unser Urteilsvermögen auf. Wenn wir denken, Maschinen „wissen“, dann behandeln wir ihre Ausgaben als maßgeblich. Es geht nicht darum, die Fähigkeiten der KI zu leugnen. Es geht darum, die metaphysische Überhöhung abzulehnen, die Werkzeuge in Pseudo-Subjekte und Ausgaben in Pseudo-Wahrheiten verwandelt.
Die Bedeutung in menschlichen Händen behalten
Was KI so disruptiv macht, ist nicht, dass sie eine neue Art von Wesen in die Welt einführt, sondern dass sie einen neuen Weg einführt, auf dem menschliche Entscheidungen reisen können — schneller, weiter und mit weniger sichtbarer Urheberschaft. Sie ist eine Maschine zur Skalierung von Entscheidungen, Sprache, Bildern, Klassifizierungen und Empfehlungen. Diese Skalierung kann hilfreich, ja sogar bemerkenswert sein.
Aber sie macht es auch gefährlich einfach, eine Antwort mit einem Verstehen, eine Ausgabe mit einem Urteil und eine statistische Regelmäßigkeit mit einem Grund zu verwechseln.
Die Kernaufgabe besteht also nicht darin, zu entscheiden, ob KI in einem metaphysischen Sinne „intelligent“ ist. Die Aufgabe besteht darin zu entscheiden, welche Arten von Autorität wir ihr in der Praxis zugestehen wollen. In vielen Umgebungen besteht die Versuchung darin, Berechnungsergebnisse als neutral und Neutralität als Legitimität zu behandeln. Aber Legitimität wird nicht durch Berechnung erzeugt. Sie wird durch Rechenschaftspflicht erzeugt. Ein System, das sich nicht selbst erklären kann, das nicht sinnvoll befragt werden kann und das nicht zur Verantwortung gezogen werden kann, sollte nicht die Erlaubnis erhalten, stillschweigend menschliche Leben zu regieren.
Deshalb geht es bei ethischer KI weniger darum, Maschinen mit moralischem Status zu bauen, als vielmehr darum, Institutionen mit moralischem Durchhaltevermögen zu schaffen.
Die eigentliche Frage ist, ob wir zulassen werden, dass sich Verantwortung in technischer Komplexität auflöst, oder ob wir darauf bestehen werden – geduldig, wiederholt –, dass jede automatisierte Entscheidung an identifizierbare menschliche Verpflichtungen gebunden bleibt. Manche Entscheidungen müssen langsam genug bleiben, um angefochten werden zu können. Manche Prozesse müssen transparent genug bleiben, um kritisiert werden zu können. Manche Formen menschlicher Beteiligung sind keine Ineffizienzen, sondern Schutzmaßnahmen.
Deshalb geht es bei ethischer KI weniger darum, Maschinen mit moralischem Status zu bauen, als vielmehr darum, Institutionen mit moralischem Durchhaltevermögen zu schaffen.
Schließlich sollten wir die Grenze, die KI nicht überschreiten kann, klar im Blick behalten. Sie kann Muster von Sprache und Verhalten annähern, aber sie kann nicht in den Bereich eintreten, in dem Bedeutung gelebt wird – wo Worte an Körper, Geschichten, Beziehungen und Einsätze gebunden sind. Sie kann nicht beunruhigt werden, kann sich nicht sorgen, kann keine Verantwortung übernehmen und kann keine Konsequenzen erleiden. Sie kann das menschliche Leben unterstützen, aber sie kann die menschliche Arbeit, die Welt zu interpretieren und für das, was wir darin tun, einzustehen, nicht ersetzen.
Die ethische Antwort auf KI ist daher weder Panik noch Ehrfurcht. Es ist Governance ohne Illusionen: Einschränkungen dort, wo sich Macht konzentriert, Anfechtbarkeit dort, wo Fehler schaden, und Demut darüber, was Berechnung leisten kann und was nicht. Wenn wir KI als Werkzeug behandeln – mächtig, nützlich und begrenzt –, dann kann sie menschliche Fähigkeiten erweitern, ohne die menschliche Handlungsmacht zu schrumpfen. Aber wenn wir sie als Orakel behandeln, werden wir Urteilsvermögen gegen Bequemlichkeit eintauschen und das Ergebnis Fortschritt nennen.
Die Zukunft wird nicht davon bestimmt werden, ob Maschinen aufwachen. Sie wird davon bestimmt werden, ob wir wach bleiben, ob wir die menschliche Verantwortung bewahren, die unseren Institutionen Legitimität verleiht, und die menschliche Erfahrung, die unseren Worten Bedeutung gibt.
Luka Zurkic bietet Dienstleistungen zur Evaluierung und Feinabstimmung von LLMs an und übersetzt menschliches Feedback durch strukturierte Evaluierungen, klare Rubriken und hochwertige Annotationen in messbare Modellverbesserungen. Er leitet auch eine Community mit Tausenden von Datenannotatoren mit geisteswissenschaftlichem Hintergrund, in der sie wiederkehrende Herausforderungen angehen und sich an einer gemeinsamen Reflexion über den verantwortungsvollen Einsatz von KI beteiligen. Er hat einen BA und MA in Philosophie von der Goethe-Universität Frankfurt und hat mit führenden Datenannotationsunternehmen zusammengearbeitet. Kontakt: zurkicwriting (at) gmail.com.



