Kategorien
Akzentfarbe: grün Autor: Petra Gehring Uncategorized Verantwortungsblog

Versuch über das V-Wort

Versuch über das V-Wort

Man muss es schon zugeben: „Verantwortung“ ist zwar schnell gesagt, aber eigentlich kann niemand rasch mal angeben, was der Ausdruck wirklich meint. Auch die Philosophie tut sich mit dem Wort schwer. Zu wuchtig, irgendwie zeigefingerhaft – und eben: trotzdem kaum auf den Punkt zu bringen.

Von Petra Gehring | 15.05.2024

Versuchen Sie es mal. Oder suchen Sie nach einer überzeugenden Definition. Im Historischen Wörterbuch der Philosophie finden Sie die Unterscheidung einer auf Rechenschaftslegung abstellenden Form des Verantwortungsdenkens, für welches die Maßstäbe eines Gegenübers (auf die wir „antworten“ müssen) ausschlaggebend sind, von einer „ethischen“ Verantwortungsdiskussion. Letztere umfasse Aspekte wie Rollenbilder (es gibt Amts- oder berufstypische Verantwortung), die Sorge um einen Gegenstand (für den Verantwortung übernommen werden muss) sowie Verantwortlichkeiten im Großmaßstab, denn auch kollektiv kann Verantwortung entstehen (vgl. Holl u.a. 2001). Wikipedia macht es uns etwas einfacher und stellt ab auf Psychologie: Verantwortung ist die richtige Einschätzung unserer Fähigkeit, ein bestimmtes Ziel zu erreichen und uns darauf dann auch zu verpflichten – also sagen wir mal: die Fähigkeit nicht zu viel zu versprechen, eine Art planerische Kompetenz. Zudem sei Verantwortung ein „Gefühl“ (vgl. o.A. 2004).

So oder so hat der digitale Wandel die Verantwortung zum Zauberwort gemacht. Verantwortungsvoll, verantwortungsbewusst – das meint dann etwa: zentriert auf den Menschen, rechtlich abgesichert, Vermeidung unerwünschter Technikfolgen. Ethikgremien entwickeln hierzu „Prinzipien“, so nennt beispielsweise 2019 eine KI-Expertengruppe der EU „respect for Human Autonomy”, „Prevention of harm“, „Fairness”, „Explicability” und hält zuvor fest, KI habe „lawful, ethical and robust“ zu sein. Denn: „It is our individual and collective responsibility as a society to work towards ensuring that all three components help to secure Trustworthy AI” (AI-HELG 2019: 12, 5 –Hervorhebung von mir).

Auch auf Unternehmenswebseiten finden sich Bekenntnisse in Sachen Digitalverantwortung, denn „CDR“, Corporate Digital Responsibility ruft ebenfalls oft „Prinzipien“ auf. Sieben Stück sind es etwa in einem „CDR-Manifest“ von 2021, initiiert durch den (so stellt er sich vor) „Digital Transformation Influencer“ Rob Price (2021). Die Deutsche Telekom stellt auf ihrer Webseite sogar ein ganzes „Haus der Verantwortung“ vor (Deutsche Telekom 2004a). „Es ist unsere Digitale Verantwortung“, kann man dort lesen, „sich (sic!) […] an der Diskussion um Ethik zu beteiligen und die Entwicklung ethischer Rahmenbedingungen für unsere Technologien zu fördern. Unsere Werte und die bewusste Entscheidung, den Mensch in den Mittelpunkt zu stellen, geben uns die Richtung im digitalen Raum vor“ (Deutsche Telekom 2004b). Die Unternehmensberatung pwc wiederum ordnet der Verantwortung weniger die Diskussionsbeteiligung und die Förderung von Rahmenbedingungen zu, als vielmehr die Forderung, Ethik auch wirksam werden zu lassen:

„Digitale Ethik ist die strategische Ausrichtung nach dem richtigen Handeln in der Digitalisierung und Digitale Verantwortung fordert, dieses Handeln nach gesellschaftlichen, ökologischen und ökonomischen Nachhaltigkeitsanforderungen umzusetzen.“ (pwc Deutschland 2024)

Und das Beratungsunternehmen Swiss Insights, das ein digitalethisches Fairness-Label vertreibt, hält fest:

„Digitalisierung fordert von Unternehmen Wertebewusstsein und verantwortungsvolles Handeln – nur so kann die Akzeptanz der Gesellschaft für neue Technologien und Geschäftsmodelle erreicht werden.“ (Swiss Insights 2024) 

Die Reihe der Beispiele ließe sich fortsetzen. Insbesondere stellt die Rede von Verantwortung oder Verantwortungsübernahme irgendwie auch aufs Handeln ab. Von daher könnte man es glatt bei dieser Minimalbedeutung des V-Wortes lassen: Bloßes Geschehenlassen reicht nicht aus.

Bliebe „Verantwortung“ im Diskurs um Digitaltechnologie damit also kaum mehr als ein unbestimmtes Signalzeichen – wie: „Macht endlich!“ oder auch: „Bitte nicht zu krass“? Oder: „Don’t be evil“? Oder wäre der Ausdruck sogar in dieser Hinsicht leer und stünde somit lediglich für die Versicherung, derjenige, der Verantwortung beschwört, sehe zwar Gefahren, bringe aber gute Absichten mit?

Immerhin ist zumindest der Ruf nach Verantwortung kein Spaß. Nicht nur Unternehmen, sondern auch besorgte Bürgerinnen und Bürger, Medienschaffende, Wissenschaftler und auch Parlamentarierinnen setzen Hoffnungen in das Wort. Sie verbinden damit eine ähnlich dringliche Erwartung, der Digitale Wandel müsse gestaltbar sein – dürfe also nicht aus dem Ruder laufen und solle vielleicht sogar in gewissen Punkten klare Grenzen haben – wie es hinsichtlich der Biodiversitäts- und Klimakrise der Fall ist und wie es auch angesichts der Atomkraft seit Tschernobyl und Fukushima auf der Hand liegt. Fast scheint es, als könne man neuen Technologien kaum mehr etwas anderes in den Weg stellen als das V-Wort. Das nur bitte endlich mal jemand mit Macht hereinschieben soll, damit es bewirkt, was es meint. Wir sind in der Defensive – das spüren wir, wenn der Ruf nach Verantwortung erklingt.

Verantwortung werde uns „aufgezwungen“ – das ist auch die Sicht des Technikphilosophen Hans Jonas, der (noch nicht am Beispiel des Digitalen) „Furcht“ für den besseren Ratgeber hält als ein Technikvertrauen, demzufolge man das Verantwortungsproblem auf später verschieben kann. 1 Jonas macht den rigiden Vorschlag, neue Technologien müssten erst den Erweis ihrer Harmlosigkeit erbringen, bevor man sie politisch zulässt (und Neuerungen mit Restrisiko müssten zudem rückholbar bleiben). Leider schlägt auch Jonas nur Maximen vor, an die wir uns bei der Zulassung gefährlicher neuer Technologien halten sollen, hantiert aber mit dem Verantwortungsbegriff, als sei dessen Kern im Grunde klar.

Versuchen wir dennoch, digitalpolitische und digitalethische Verantwortungskonzepte zu sortieren. Recht klar lassen sich nämlich ein juristischer Zuschreibungsbegriff, demgemäß Verantwortung die Zuweisung einer rollenbedingten Zuständigkeit (mit Rechenschaftspflichten und gegebenenfalls auch Haftung) meint, von einem moralischen Selbstverpflichtungssignal unterscheiden, das gerade die Freiwilligkeit und auch das Bemühenshafte der Verantwortungsübernahme herausstellt. Im ersten Fall muss sich jemand kümmern (und auch dafür einstehen). Im zweiten Fall ist Verantwortung eine Sache der Selbstfestlegung und damit auch der guten Absicht: jemand will aus freien Stücken moralisch sein, stellt dies heraus und wirbt hinsichtlich der Glaubwürdigkeit dieses Schrittes um öffentliches Vertrauen.

In einem dritten Verständnis (und hier sind wir dann sehr dicht bei der Defensive und beim Zwang) kippt Verantwortung um und wird ein Forderungsbegriff, ein Ausdruck nämlich, der Auge-in-Auge einem potenziellen Verantwortungsträger gegenüber den Appell formuliert, jemandem – sei es den Schwächsten, sei es der Natur, sei es kommenden Generationen oder gar der Menschheit insgesamt – werde die Übernahme von Verantwortung geschuldet. Verantwortung wird in diesem dritten Fall also eingeklagt. Dabei kann entweder eine bereits bestehende Verpflichtung ins Feld geführt werden (Fall 1 – die Verantwortung existiert in unbestreitbarer Weise) oder aber die Erwartung zielt darauf ab, jemanden zum Schritt in die Verantwortung zu bewegen (Fall 2 – eine bislang noch offene Verantwortlichkeit gälte es zu übernehmen). Wer möchte, kann die erste Konstellation dem Recht zuordnen und die zweite der Moral, was allen, die Verantwortung als Forderungsbegriff nutzen wollen (Fall 3), die Machtfrage vor Augen führt: Wo Verantwortung nur „ethisch“ ist, hängt man von der Bereitschaft derjenigen ab, die man in die Pflicht nehmen will. Und auch Umfang, Dauer, Zumutbarkeit etc. von Verantwortung bleiben im Zweifel bestreitbar. Das Hauptproblem ist freilich, wo es um Verantwortung für neue Technologien geht, ein anderes. Das nämlich, dass „wir“ fast immer sowohl in der Rolle desjenigen, der Verantwortung schon hat als auch derjenigen, die sie zu übernehmen hätte, als auch in der Rolle jener sind, die Verantwortung möglichst dringlich einfordern möchten.

Anders gesagt: Nur, wo er überhaupt ein echtes, ein auf andere Weise als sich selbst zum Handeln berufenes Gegenüber findet, hat der „Ruf“ nach Verantwortung überhaupt Sinn. Die Mehrwertigkeit der Verantwortung wird zur Falle, wo Verpflichtung (Fall 1), Eigenverantwortung (Fall 2) und Inpflichtnahme (Fall 3) nicht mehr wirklich trennbar sind. Auch aus diesem Grund müssen klassische Ethiken an der Dimensionierung neuer Technologien scheitern: Die Bewältigung gesamtgesellschaftlicher Herausforderungen lassen sich umso schlechter einem Verantwortungsträger zuschreiben, je diffuser der öffentliche Diskurs die Herausforderungen eigentlich bei sich selbst zu suchen hätte und je stärker es der Konsumwillen aller ist, der die Technologieentwicklung treibt – und dies zu Lasten nicht sinnfälliger Weise der Natur (wie im Rahmen der ökologischen Frage), sondern ‚lediglich‘ zu Lasten zivilisatorischer Errungenschaften wie Bildung, Frieden oder Demokratie. Verantwortung bedarf zwar des Nachdenkens – und in der eigenen Person kann man Rollen-, Eigen- und vielleicht sogar Menschheitsverantwortung verbinden. Aber Verantwortungssemantik, die politisch etwas bewirken will, verträgt keinen Kurzschluss ihrer drei Versionen. Diese bittere Einsicht geht über Jonas hinaus, der sich noch an einen „Staatsmann“ richtet, der den Einsatz von Technik als ein „Mittel“ vor sich sieht, auf das er auch verzichten kann.2 Gebraucht werde „Macht über die Macht“ (Jonas 1979: 254) – auch das legt eher das Umsteuern eines Staatsapparates nahe als Formen der Bändigung einer Technologieentwicklung, die sich aus der Gesellschaft selbst heraus ergibt. 3

Ich schwenke zurück zum digitalethischen Feld, wo sich in der Tat das V-Wort vor allem dann bewährt, wenn es auf eine haftungsrechtliche Verantwortlichkeit abzweckt. So hat eine 2018 zunächst im Bundesministerium für Justiz und Verbraucherschutz, inzwischen beim Bundesumweltministerium und einem mit diesem kooperierenden „Institut für Verbraucherpolitik“ (vgl. ConPolicy 2024) verortete CDR-Initiative einen Kodex mit neun Prinzipien formuliert, von denen eines „Verantwortlichkeit“ heißt:

Prinzip 8: Verantwortlichkeit. Wir stellen sicher, dass die Verantwortung für die Gestaltung und den Einsatz unserer technischen Systeme in letzter Instanz bei eindeutig definierten menschlichen Verantwortungsträgern liegt.“ (Corporate Digital Responsibility Initiative 2024: 3)

Eindeutig definierte natürliche Personen – da ist Haftung nicht weit. Auch die KI-Gesetzgebung der Europäischen Union scheint den Weg einzuschlagen, einer Verantwortungsdiffusion für die Folgen der neuen Technologie durch Anmeldepflichten der Marktteilnehmer im europäischen Rechtsraum sowie durch eine hinreichend griffige Form der Herstellerhaftung entgegenwirken zu wollen. Etwas seltsam wirkt es, wenn die EU High-Level Expert Group 2019 ausdrücklich festhält, auch KI-Experten hätten sich an Recht und Gesetz zu halten:

„[I]t is the responsibility of AI practitioners to ensure that they comply with their legal obligations, both as regards horizontally applicable rules as well as domain-specific regulation.” (AI HLEG 2019: 15)

Man fragt sich: Ja was denn sonst? Immerhin aber schließt hier hinreichend deutlich ein Verantwortungsbegriff hartes Recht nicht aus, sondern ein. Auch „Accountability“, also Zurechenbarkeit konkreter Technikfolgen auf jemanden, dem man dann Verantwortlichkeit nachweisen kann, gehört zu den Anforderungen der EU4.

Ein Beispiel für eine konsequent lediglich als eine moralische Selbstbindung ausgelegte Verantwortungsübernahme liefern die 2017 formulierten, 2019 erneuerten Asilomar AI Principles des Future of Life Institute. Zu den Mitgliedern dieser Vereinigung gehören prominente Softwareentwickler und Pop-Akteure wie der auf Investitionen in transformative Technologien spezialisierte Konzernchef Elon Musk oder der technikbegeisterte Physiker Stephen Hawking. In Sachen Verantwortung springt in den Asilomar-KI-Prinzipien der neunte Leitsatz ins Auge:

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications. “ (Future of Life Institute 2017a)

Die deutsche Übersetzung lautet – durch das Entfallen der Wendung von den „Stakeholders“ – nicht ganz identisch:

„9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.“ (Future of Life Institute 2017b)

In beiden Versionen der Aussage ist deutlich: Erstens geht es um Moral, genauer sogar um „moralische Folgen“ der neuen Systeme (was auch immer das genau sein mag). Und zweitens sehen sich die Produzenten der Technologie als Beteiligte, an welche lediglich als moralische „Stakeholder“ appelliert werden kann, im Deutschen sogar als Leute, die lediglich „mitbestimmen“. Eine Allein- oder Vollverantwortung anzuerkennen, sieht anders aus.

Im März 2023 veröffentlicht das Future of Life Institute den offenen Brief Pause Giant AI Experiments, in welchem ausgerechnet im fraglichen Feld auf aggressive Weise unternehmerisch tätige KI-Entwickler die Weltöffentlichkeit vor den möglicherweise verheerenden Folgen ihre Produkte warnen und nach staatlichen Regeln sowie Kontrollen rufen:

Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.“ (Future of Life Institute 2023a)

Das klingt fast ein wenig nach Hans Jonas. Obzwar der Verantwortungsbegriff nicht fällt, handelt es sich doch um eine Geste der Bereitschaft zur Verantwortlichkeit. Die Verfasser des Briefs bringen sogar den Gesetzgeber ins Spiel, den sie um eine Art Moratorium bitten. Der Duktus der Verantwortungsübernahme kann allerdings kaum darüber hinwegtäuschen, dass mit der Adressierung des Statements etwas nicht stimmt. Eine Gruppe mächtiger Lobbyisten maßt sich hier in eigener Sache an, im Namen der Menschheit zu allen Regierungen der Welt zu sprechen – und dies um ihnen Pflichten aufzuerlegen, an die sie sich gewissermaßen selbst erinnern.5 Was ebenfalls auffällt: In keiner Weise erwägen die Verfasser des offenen Briefes, ob die mit vielen Fragezeichen geschilderte gefahrvolle Entwicklung nicht heute schon bestehendes Recht bricht. Denn KI-Systeme wie das große Sprachmodell „GPT“ sind zwar nicht völlig im Geheimen entstanden. Jedoch stellt weder die augenscheinlich bedenkenlose Beschaffung von Trainingsdaten für das System noch dessen von PR begleitete weltweite Freischaltung ein Interesse an existierenden rechtlichen Regeln unter Beweis. Vielmehr hat Open AI das Produkt freigesetzt, ohne sich um existierendes Recht zu scheren.

Den Verfassern des Briefs muss man wiederum zugutehalten: Sie nutzen das V-Wort im April 2023 in einem Empfehlungspapier Policymaking in the Pause tatsächlich im Sinne der juristischen Rechenschaftslegung und Haftung:

„Key among measures to better incentivize responsible AI development is a coherent liability framework that allows those who develop and deploy these systems to be held responsible for resulting harms.“

Der Gesetzgeber habe umgehend ein „framework for the liability for AI derived Harms” zu schaffen (vgl. Future of Life Institute 2023b: 4).

Großbegriffe, deren Bedeutungsstränge sich dauerhaft verfilzen, richten Schaden an und verkommen zur leeren Hülse. Für „Ethik“ im Ganzen mag das gelten, aber auch um die „Verantwortung“ ist es nicht gut bestellt – zumal, wenn die Vermutung zutrifft, dass sich einfach auch keine rechte Adressierung mehr für die Appellfunktion des V-Worts findet. Dabei ist der dritte Gebrauchsfall ja vielleicht der politisch wichtigste der drei: der Fall des Aufrüttelns, um Verantwortung dort zu mobilisieren, wo nicht rechtlich bereits alles klar ist.

Wird das Wort also unbrauchbar? Sollte man die verwickelte Auseinandersetzung um Digitaltechnologien besser ganz ohne Rekurs auf „Verantwortung“ führen? Es gibt in der Tat eine Verantwortungskritik, die ungefähr das besagt: Der Ausdruck bemäntele mehr schlecht als recht, dass Ethik die Falschen in die Pflicht nimmt (man bürdet der Gesellschaft und konkret den Bürgerinnen und Bürgern, etwa in der Medizin, Verantwortung auf (vgl. Illich 2019: 232 f.) während sie denjenigen, denen Recht und Moral ohnehin gleichgültig ist, zusätzliche rhetorische Spielräume bietet. Und zahlungskräftige Unternehmen machen sich diese flugs zu eigen. Mittels Ethik-PR. Ein Kritiker nicht der Digital- aber der Bioethik streicht die „Verantwortung“ aufgrund solcher Inanspruchnahme mit dem folgenden Statement aus seinem Vokabular: „Die Natur, Die Humanität, Das Leben, Die Würde der Frau, Die Menschenrechte, Der Kosmos, DieVernunft, Die Wissenschaft, Die Verantwortung, Die Moral und so fort. Alles zu Markenzeichen verkommene Ideen – Markenzeichen, mit denen sich die Oberschicht der (redenden und schreibenden) Konsumenten der Macht identifiziert. Die Macht steckt eben nicht in den Markenzeichen, aber sie wird durch den Gestus des Tragens solcher Zeichen abgesichert. […] ‚Verantwortung‘ und ‚Ethik‘ sind, so wie sie heute in Gebrauch sind, Aufkleber, die über Preis und Qualität des Beklebten nur vermeintlich etwas aussagen.“ (Patze 1988: 28)

Den gegenteiligen, aber auch auf die Verzichtbarkeit des Worts zulaufenden Weg wählt die Politik, wenn sie Verantwortung einfach mit Umsicht und Klugheit gleichsetzt. Denn damit nimmt man ihr – diesseits der geschilderten drei Stoßrichtungen des Wortes – nahezu jeglichen Stachel, den Pflichtaspekt und auch den Charakter der Handlungsaufforderung. Der Bericht der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz von 2020 wählt jedoch diesen Weg. Es wird definitionsartig angesetzt, aber schon die Überschrift – „6.2.5 Verantwortung (Gutes tun, Akteure, Zusammenarbeit)“ – löst jede Kontur auf. Die angebotene Begriffsbestimmung gibt die Verantwortung einer (ohnehin) moralischen Handlung nur noch wie eine Art Zusatz bei. Als vernünftige Vorausschau auf mögliche Folgen:

„Der Begriff der Verantwortung macht darauf aufmerksam, dass es ein wichtiges Kennzeichen einer moralischen Handlung ist, die Folgen seiner eigenen Handlung abzusehen und zu bewerten und sein Handeln dann evtl. auch zu verändern. Handeln gemäß einer klugen und vernünftigen Einschätzung der Folgen des eigenen Handelns unter Hinzuziehung von moralischen Kriterien (Werten, Normen, Prinzipien, Maximen) – das kann man mora­lisch verantwortliches Handeln nennen.“ (KI Enquete-Kommission 2020: 85)

Kann man, muss man aber nicht. Denn Verantwortung reduziert sich damit auf ein der Moralität nachgeschaltetes Zusatzkalkül.

Lässt sich das V-Wort noch retten? Es verknäuelt Bedeutungen, lässt sich zu PR-Zwecken verflachen und ist nicht wirklich durch Theorietraditionen gesichert. Es gleicht eher einer Metapher oder einem Akkord mit vielen Unter- und Nebentönen. Immerhin bleibt da die eingangs beschriebene Wucht. Das Gestische. Das Moment des Eintretens für eine Norm. Wird die Rede von der „Verantwortung“ nicht nebelhaft-allgemein verwendet, sondern mit Namen, konkreten Gefahrenlagen – und idealerweise: mit Rechtsfolgen bis hin zur Haftung auch für lange Folgenketten, die Betroffene einklagen können – verbunden, erschließt sich so etwas wie ein Ebenenwechsel: Einfach nur machen und auf den Fortschritt vertrauen, reicht dann nicht mehr.

Ebenso kommt das ins Spiel, was der Soziologe Niklas Luhmann (1984: 515 f.) als den Unterschied zwischen gegenwärtiger Zukunft und künftiger Gegenwart beschreibt: Technologen verschieben das heute Widersprüchliche auf künftige Gegenwarten, weil sie hoffen, bis dahin ließen sich die Probleme, auch dank erst noch zu erfindender neuer Technologien, irgendwie schon abarbeiten. Wir schieben heute daher einen Berg wohlmöglich unlösbarer Aufgaben vor uns her. Zudem stellen wir uns eben auch nur vor, was aus einer neuen Technologie alles an zu bewältigenden Folgen hervorgehen könnte. Wirklich wissen (und wirklich zu bewältigen haben) werden es erst die Menschen von morgen. 

Von daher … bewahren wir das V-Wort. Ja: um des Ebenenwechsels willen, sprechen wir es ab und zu aus und wiederholen es nötigenfalls auch. Solange wir nichts besseres haben, kann es eines der weniger schlechten unter den schlechten Werkzeugen sein. Und wenn wir es nicht aufgeben: vielleicht entwickelt die Verantwortung doch noch klare Konturen. Wo die Gefahr wächst, wächst auch die Präzision.

  1. Jonas hebt auf die unabsehbaren – das menschliche Entscheiden überfordernden – Folgen und Fernwirkungen neuer Technologien ab. Die tägliche Sphäre sei heute „überschattet von einem wachsenden Bereich kollektiven Tuns, in dem Täter, Tat und Wirkung nicht mehr dieselben sind wie in der Nahsphäre, und der durch die Enormität seiner Kräfte der Ethik eine neue, nie zuvor erträumte Dimension der Verantwortung aufzwingt.“ (Jonas 1979: 26)  ↩︎
  2. Vgl. Jonas 1979, S. 80: „[S]elbst zur Rettung seiner Nation darf der Staatsmann kein Mittel verwenden, das die Menschheit vernichten kann.“ ↩︎
  3. Immerhin appelliert Jonas in dem Sinne an den Überlebenswillen der breiten Bevölkerung, dass er den Bürgern das Recht auf ein im Ergebnis fatales Wegsehen von Problemen abspricht: „Über das individuelle Recht zum Selbstmord läßt sich reden, über das Recht der Menschheit zum Selbstmord nicht.“ (Jonas 1979: 80) ↩︎
  4. Vgl. noch einmal das Papier der AI Ethics High-Level Expert Group, es postuliert: „mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.“ (AI HLEG: 15). ↩︎
  5. Vorbild solcher Briefe ist das von Benjamin Russell, Albert Einstein und anderen formulierte Pugwash-Manifest vom 9. Juli 1955 für eine nuklearwaffenfreie Welt, das aber eben als Brief an öffentlichen Universitäten tätiger Grundlagenforscher geschrieben wurde und nicht etwa von (mutmaßlich am Umsatz beteiligten) Personen aus Entwicklung und Management kommerziell tätiger Tech-Unternehmen. Ebenso verlangten Russell und Einstein nicht, dass man ihnen selbst ein Verbot auferlegen sollte, sondern sie forderten den Waffenverzicht von der Politik (wie auch der Wirtschaft). ↩︎

AI HLEG [= Independant High-Level Expert Group on Artificial Intelligence der EU] (2019): Ethics Guidelines for Trustworthy AI. Brüssel: EU, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf [19.3.2024].

Deutsche Telekom (2004a): Cororate Digital Responsibility [Webseite], https://www.telekom.com/de/konzern/digitale-verantwortung/cdr [19.3.2024]

ConPolicy, Institut für Verbraucherpolitik (2024): Corporate Digital Responsibility. https://www.conpolicy.de/themen/corporate-digital-responsibility [17.3.2024]

Corporate Digital Responsibility Initiative (2024): Corporate Digital Responsibility-Kodex. Freiwillige Selbstverpflichtung mit Bericht, https://cdr-initiative.de/uploads/files/2024-01_Kodex_CDR-Initiative.pdf [19.3.2024].

Deutsche Telekom (2004b): Deutsche Telekom (2004b): Ein Blick auf unsere Handlungsfelder – Digitale Ethik. https://www.telekom.com/de/konzern/digitale-verantwortung/cdr/details/ein-blick-auf-unsere-handlungsfelder-digitale-ethik-1007518 [19.3.2024].

Future of Life Institute (2017a): Asilomar AI Principles [11.8.2017], https://futureoflife.org/open-letter/ai-principles/ [19.3.2024].

Future of Life Institute (2017b): Asilomar AI Principles [11.8.2017] https://futureoflife.org/open-letter/ai-principles-german/ [19.3.2023].

Future of Life Institute (2023a): Pause Giant AI Experiments. An open Letter [22.3.2023], https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [19.3.2024].

Future of Life Institute (2023b): Policymaking in the Pause. What can Policymakers do now to combat Risks from advanced AI Systems? [19. April 2023] https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf [17.4.2024].

Holl, Jann /Red. [Teil I] und Lenk, Hans/Maring, Matthias (2001) [Teil II]: Art. „Verantwortung“. In: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie Bd. 11. Basel: Schwabe, Sp. 566–575.

Illich, Ivan (2019): Die Substantivierung des Lebens im 19. und 20. Jahrhundert – eine Herausforderung für das 12. Jahrhundert. In: Klaus Jörk/Bernd Kaufmann/Rocque Lobo/Erica Schuchardt (Hrsg.): Was macht den Menschen krank? 18 kritische Analysen. Basel, Boston, Berlin: Birkhäuser, S. 225–234.

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Suhrkamp 1984.

KI Enquete-Kommission (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, ökologische und soziale Potenziale. In: Deutscher Bundestag: Drucksache 19/27300 vom 28.10.2020.

Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main 1985.

o.A. (2024): Art. „Verantwortung“. In: Wikipedia, https://de.wikipedia.org/wiki/Verantwortung [19.3.2024].

Patze, Bernd (1988): Markenzeichen der Macht. Wissenschaft, Ethik und DAS GANZE. In: Wechselwirkung 10, Nr. 87, S. 24–28.

Price, Rob (2021) The International CDR Manifesto. https://corporatedigitalresponsibility.net/cdr-manifesto [19.3.2024].

pwc Deutschland (2024): „Unser Verständnis von Digitaler Ethik & Verantwortung“ [Webseitentext], https://www.pwc.de/de/risk-regulatory/risk/so-lassen-sich-digitale-ethik-und-verantwortung-wirkungsvoll-verankern.html [19.3.2024].

Swiss Insights (2024): Label Data Fairness. https://swiss-insights.ch/label-data-fairness/ [19.3.2024].

Gehring, Petra (2024): Versuch über das V-Wort. In: Verantwortungsblog. https://zevedi.de/versuch-ueber-das-v-wort/ [15.05.2024].

Kategorien
Akzentfarbe: beige Autor: Daniel Martin Feige Verantwortungsblog

Künstliche Intelligenz im Kontext der Kunst

Künstliche Intelligenz im Kontext der Kunst
Am Beispiel der Musik

Was leistet generative KI nicht? Sind wird bald alle – nach den manuell nun auch die Wissens- und Kreativarbeitenden – überflüssig? Kann KI nun auch Kunst? Irgendwie ja? Trotz der beeindruckenden Fortschritte der KI sollten wir nicht übersehen, welche Daten – darunter auch Kunstwerke – zum Training der KI-Modelle genutzt werden. Und es sind weitere kritische Fragen an diese Nutzung zu richten. Nicht zuletzt: was daran wäre wohl Kunst?

Von Daniel Martin Feige | 15.05.2024

Ein Mechanismus, der Musik produziert.
Generiert mit Microsoft Image Creator von Eneia Dragomir. Prompt: „mechanism making music [playing piano, a trumpet, and a saxophone] in the colors black, white, red, yellow, purple in the style of a cubism painting, minimal“

Mit Hilfe künstlicher Intelligenz können nicht allein (mehr oder weniger) sinnvolle Texte produziert werden, sondern auch Bilder und Musik. Programme wie ,Midjourney‘ und ,Dall-E‘ auf der einen Seite und ,Suno‘ und ,Udio‘ auf der anderen Seite scheinen den Gedanken zu widerlegen, dass das Hervorbringen von ästhetischen Gegenständen und Kunstwerken allein dem Menschen vorbehalten ist. Wenn sich mit Hilfe von ,Udio‘ für Laien vom Original ununterscheidbare Bossa Nova Tracks ebenso wie Songs im Stile bestimmter Popbands der 1980er Jahre erstellen lassen: Spricht das nicht dafür, dass man selbst hochstehende geistige Fähigkeiten und Tätigkeiten durch KIs und damit in einem bestimmten Sinne maschinelle Verfahrensweisen nachbilden könne?

Ich werde im Folgenden dafür argumentieren, dass das nicht der Fall ist. Ich beginne mit einer Beschreibung der jüngst vieldiskutierten KIs zur Erstellung von Musik (I). Daraufhin werde ich die argumentativen Grundlagen der These, dass wir KIs geistige Fähigkeiten zuschreiben können, kritisch beleuchten (II). Abschließend frage ich auf der Grundlage des Gedankens, dass KI keine Kunst produzieren kann, welche produktive Rolle KIs im Kontext der Kunst zugeschrieben werden könnte (III).

Jüngst sind vor allem Suno und Udio im Kontext musikproduzierender KIs in den Fokus der Aufmerksamkeit gerückt. Hier lassen sich mit wenigen Klicks musikalische Tracks erstellen, auf Wunsch auch mit Gesang und KI generierten Texten. Suno und Udio basieren wie alle jüngst diskutierten Beispiele auf den Architekturen der zweiten Welle der KI-Forschung. Vereinfacht gesagt war das Vorgehen in der ersten Welle der KI-Forschung, der KI festverdrahtete logische Schlussregeln zu implementieren, mit denen dann sinnvolle Sätze und Texte ausgegeben werden sollten. Dies stieß schnell an praktische Grenzen (unter anderem durch den hier vorausgesetzten verarmten Begriff der Sprache).1 Der Paradigmenwechsel in der KI-Forschung lässt sich wie folgt fassen (Boden 2018 und Rosengrün 2021): KI ist heute statistische Generalisierung über sehr großen Datenmengen. Das erklärt, warum die Ergebnisse von KIs zugleich seltsam vertraut und gleichzeitig fremd sind (unter anderem, weil das, was die KIs ausgeben, nicht länger anhand von dichotomen Zuständen wie wahr oder falsch beschreibbar ist, sondern aufgrund von Wahrscheinlichkeiten zustande kommt).

Wie bereits im Falle der Bildgenerierungsprogramme lassen sich auch Suno und Udio nicht in die Karten schauen. Was bei den erstellten Songs auffällt, ist nicht allein die Tatsache, dass sich offenkundig solche Formen von Musik besonders lebensnah reproduzieren lassen, die bereits selbst stark standardisiert sind (bei einigen Arten von Popmusik wie Schlagern klappt es gut und selbst Funktracks grooven überraschenderweise, bei Neuer Musik und Modern Jazz kommt hingegen nur Unsinn heraus). Es fällt vor allem auf, dass man doch die Datengrundlagen sehr deutlich hört (Music Business Worldwide 2024). Suno ist hier generischer, etwas weiter weg von den Vorlagen, bei Udio glaubt man etwa eine sinnlose Variante von Miles Davis’ Trompetenspiel und Bill Evans’ Klavierspiel zu hören, wenn man richtig promptet. Wie auch den Ergebnissen der Chatbots merkt man den musikgenerierenden KIs an, dass sie nicht wissen, wovon sie sprechen [2].2 Überdies gilt: Das Datentraining dieser KIs ist rechtlich fragwürdig. Das Vorgehen der hinter diesen KIs operierenden Unternehmen lässt sich so beschreiben, dass sie das geistige Eigentum dritter einspeisen, um Ergebnisse zu produzieren, die zwar im juristischen Sinne keine ,Schaffenshöhe‘ zeigen, deren Ergebnisse aber in frappierender Weise mitunter sogar Personalstilen zuzuordnen sind (Für musikalisch geschulte Hörer:innen ist offensichtlich, dass Udio nicht nur mit Miles Davis, sondern auch mit David Gahan trainiert worden ist). Die Diskurse um einen Abbau des Gatekeepings und die Demokratisierung der Kunst; die Diskurse um das Versprechen, dass nun jeder in die Lage versetzt werden können soll, Musik zu machen (ohne sich in solch zeitaufreibenden geistigen wie sinnlichen Tätigkeiten wie das Lernen eines Instruments oder der Beschäftigung mit Musiktheorie zu verlieren) sind in jedem Fall Augenwischerei: Entsprechende Unternehmen zielen mittelbar darauf ab, den Musikmarkt gewissermaßen zu übernehmen und ihn zu einem proprietären Markt zu machen [3].3

Aber wie kommt man angesichts solch simulakrenhafter wie parasitärer Ergebnisse, die Suno und Udio produzieren, überhaupt auf die Idee, dass das Hervorbringen von ästhetischen Gegenständen und Kunstwerken jetzt keine Domäne menschlicher Tätigkeit mehr sei? Natürlich, die Ergebnisse der musikgenerierenden KIs sind (wenn sie nicht wie im Fall des Modern Jazz oder Neuer Musik sinnwidrig sind) zumindest in dem minimalen Sinne kreativ, dass sie eine Form der neuen Anordnung bekannter Elemente darstellen.4 Die meisten überraschten Reaktionen auf die mit Suno und Udio produzierten Tracks basieren aber auf dem Gedanken, dass man das hörbare Ergebnis im Einzelfall nicht von Menschenhand gemachter Musik unterscheiden kann. Das ist offenkundig ein epistemisches Kriterium; es setzt voraus, dass der Höreindruck hier die relevante Frage darstellt. Eine solche Position ist gleichwohl nicht haltbar. Arthur C. Danto hat geltend gemacht, dass man, wenn man „ein Bronzerad mit Nocken, genau wie das Kettenrad eines Fahrrads, bei Ausgrabungen in Tibet [fände], [es] ungeachtet seiner Identität als Artefakt kein frühzeitiges Fahrrad-Kettenrad sein [könnte].“ (1991: 174) Dieses Argument macht geltend, dass Wissen um die Entstehungsbedingungen eines Gegenstandes wie um die Absichten, die wir in der Entstehung sinnvoll zuschreiben können, einen Unterschied machen für unsere Antworten auf die Frage, um was es sich hier handelt.5 In diesem Sinne ist es tatsächlich eine Information, wenn man erfährt, dass ein Track, den man beim oberflächlichen Hören für einen generischen Popsong der Gegenwart hält, nicht durch Absichten der beteiligten Musiker:innen am Instrument oder bei der Produktion im Studio zustande kam, sondern durch statistische Generalisierungen über große Datenmengen. Wir können dann durchaus noch erstaunt darüber sein, wie ähnlich so ein Song den Vorlagen klingen mag (was zugleich etwas über die standardisierte Natur vieler Arten populärer Musik aussagt). Aber wir würden z.B. nicht länger die Frage stellen, warum sich der Komponist oder die Komponistin entschieden hat, diesen oder jenen Akkordwechsel einzubauen oder warum er sich für diese oder jene Instrumentierung entschieden hat – wir müssten hier über die konkreten Verfahrensweisen der KI sprechen. In diesem Sinne können Dinge, die phänomenal ähnlich sind, kategorial vollständig unterschiedenen Gegenstandsbereichen angehören.

Die phantasmatische Überhöhung der KI im Bereich des Hervorbringens von ästhetischen Gegenständen und Kunstwerken und darüber hinaus basiert auf einer Verwechslung einer epistemischen mit einer ontologischen Frage (und damit einer Verwechslung der Frage, ob ich unter bestimmten Bedingungen einen Unterscheid erkennen kann, mit der Frage, was der Unterschied zwischen zwei Dingen ist). Maßgeblich für diese Veränderung der Fragestellung ist der Turing-Test. Er geht auf Alan Turing zurück und besagt (Turing 1950: 433-460), dass eine Maschine das ,Imitationsspiel‘ dann gewinnt, wenn der menschliche Spieler zu dreißig Prozent falsch rät. Was Turing hier betreibt, lässt sich im Kontext jüngster fachphilosophischer Diskussionen als ,Conceptual Engineering‘ bezeichnen.6 Darunter werden Diskussionen darüber gefasst, welchen Aufgaben die Definition eines Begriffs dienen soll. So kann man die Bedeutung etwa des Begriffs des ,Geistes‘ oder des Begriffs des ,Denkens‘ gemäß der Art und Weise, wie wir diese Begriffe im Alltag und/oder in den Wissenschaften verwenden, aufklären. Oder – und das tut Turing – man gibt einem Begriff eine neue Bedeutung, die einer bestimmten praktischen Agenda dient. Turing hat Begriffe wie ,Geist‘ und ,Denken‘ so neugefasst, dass sie rechnergestützten Tests zugänglich werden. Er hat aber – und das ist der zentrale Punkt – damit nicht etwa einen Bedeutungskern oder einen minimalen Sinn des Begriffs des ,Geistes‘ gefunden. Er hat, so könnte man auch sagen, eigentlich den alten Begriff gegen einen neuen ausgetauscht und das alte Wort dabei bestehen lassen. Warum wir dieses Spiel auch und gerade mit Blick auf die Kunst nicht mitspielen sollten – dazu in gebotener Kürze Überlegungen im letzten Teil dieses Beitrags.

Ich hatte bereits angemerkt, dass die musikgenerative KI nicht als neutrales Tool oder kreatives Hilfsmittel zu begreifen ist, dass zudem noch dem Abbau eines als falsch gewerteten Gatekeepings diene. Vielmehr ist die Praxis generativer KI mit der Frage verbunden, welchen Tech-Unternehmen diese Technologien gehören, in die massenhaft Material gespeist wird, das offenkundig nicht von ihnen stammt. Und ich hatte darauf verwiesen, dass sich besonders stark standardisierte Musik dafür eignet, durch generative KI hervorgebracht zu werden (wozu gar nicht allein Popmusik zählen muss, sondern etwa auch bestimmte Arten der Barockmusik gehören könnten). Abschließend möchte ich in einem Zusammendenken dieser beiden Thesen ausweisen, dass die Frage danach, ob KI Kunst kann, dann falsch gestellt ist, wenn sie als Frage danach verstanden wird, ob KI-Gemälde im Stile Van Goghs, Musik im Stile von Depeche Mode oder Texte im Stile von Eichendorf produzieren kann. Selbst wenn sie das könnte, wäre damit für die Kunstfrage nicht allein aufgrund der Argumentation im zweiten Teil wenig gewonnen. Dazu sind einige kursorische Festlegungen hinsichtlich des Kunstbegriffs nötig.

Im Anschluss an die mit Baumgarten ansetzende, über Kant und Hegel verlaufende und bis zu Adorno und Danto und darüber hinaus sich vollziehende philosophische Tradition des Nachdenkens über Ästhetik und Kunsttheorie ist zu erläutern,7 dass man bisher Kunst und das philosophische Denken stets in einer entfernten Nähe gesehen hat. Denn auch die Kunst ist zu Leistungen in der Lage, die oftmals der Philosophie zugeschrieben worden sind: Sie kann uns Relevantes über uns zeigen, tut das aber anders als die Philosophie: nicht im Medium des Begriffs, sondern vielmehr im Medium eigensinniger Konstellationen von künstlerischen Materialien (Worte, Klänge, Töne, Pixel, Bewegungen, Farben usf.). Kunst lässt sich damit als eine spezifische Weise der Reflexion unserer wesentlichen Orientierungen verstehen für die gilt, dass jedes Werk der Kunst eine solche Reflexion dadurch leistet, dass es ein sich in spezifischer Weise selbst reflektierter Gegenstand ist: Ein Drama Goethes verwendet seine Worte nicht nur, es konstituiert sie in der Verwendung; ein Spielfilm Hanekes gebraucht die filmischen Mittel nicht allein, sondern stellt diesen Gebrauch zugleich immer auch aus. Diese zwei genannten Arten von Werken machen deutlich, dass das historisch in je unterschiedlicher Weise geschieht (und wie Adorno gezeigt hat, ist der Motor dieser Transformation zugleich das andere der Kunst, die gesellschaftliche Realität). Unter der Ägide des Vordringens generativer KI in unterschiedliche gesellschaftliche Bereiche wie auch in die Kreativindustrie transformiert sich nun aber auch der Sinn dessen, was hier Reflexion heißt: Ein Werk der Kunst wird nicht durch den Gebrauch von KI hergestellt, sondern ist nichts anderes als eine in spezifischen materialen und medialen Formen vollzogene kritische Reflexion unserer Gebrauchsweisen von KI. Eine solcher Aufweis des Denkens im Vollzug und aus den Gebrauchsweisen heraus muss keineswegs immer in Form einer Unterbrechung geschehen, sondern kann auch durch die Integration von KI-Akteuren auf der Bühne (wie in einigen Arbeiten Sandeep Bhagwatis) geschehen.8 Kunst wird damit nicht durch KI hervorgebracht, sondern KI fordert Kunst derart heraus, dass sie in jüngsten Arbeiten kritisch auf etablierte und scheinbar selbstverständliche Gebrauchsweisen von KI in ihrem Medium (und zugleich auf ein verkürztes Verständnis von Kunst) reflektiert.

Wir sollten also weniger Angst davor haben, dass uns Maschinen geistig überlegen sein könnten. Vielmehr sollten wir Sorge tragen, dass eine solche These nicht zu einer Verkürzung im Begriff des Geistes, der Kunst und der Kritik führt.

  1. Vgl. als klassische Studie dazu Dreyfus 1972. ↩︎
  2. Vgl. dazu Smith 2019. ↩︎
  3. Vgl. dazu Staab 2019. ↩︎
  4. Das ist einer der Sinne, die Magaret Boden als zentrale Dimensionen der Kreativität bestimmt. Vgl. Boden 2011. ↩︎
  5. Die Rolle des Autors hat Catrin Misselhorn auch ausgehend von Danto jüngst überzeugend mit Blick auf den Unterschied von Kunstwerken und mit KI hervorgebrachten Gegenständen verteidigt. Vgl. Misselhorn 2023. ↩︎
  6. Vgl. v.a. Burgess/Cappelen/Plunkett 2020. ↩︎
  7. Eine ausgezeichnete Skizze der Genese der Ästhetik findet sich mit Scheer 1997. ↩︎
  8. Eine instruktive Rekonstruktion der Rolle der KI in gegenwärtigen kunstmusikalischen Praktiken findet sich mit Grüny 2022: 174-203. ↩︎

Boden, Margaret A. (2018): Artificial Intelligence. A very short introduction. Oxford: Oxford University Press.

Boden, Magaret A. (2011): Creativity and Art. Three Roads to Surprise. Oxford: Oxford University Press.

Burgess, Alexis/Cappelen, Herman/Plunkett, David (Hrsg.), Conceptual Engineering and Conceptual Ethics. Oxford: Oxford University Press 2020.

Smith, Brian Cantwell (2019): The Promise of Artificial Intelligence. Reckoning and Judgment. Cambridge/Mass.: MIT Press.

Danto, Arthur C. (1991): Die Verklärung des Gewöhnlichen. Eine Philosophie der Kunst. Frankfurt am Main: Suhrkamp.

Dreyfus, Hubert L. (1972): What Computers can’t do. New York: MIT Press.

Grüny, Christian (2022): Seltsam attraktiv. KI und Musikproduktion. In: Schnell, Martin W./ Nehlsen, Lukas (Hrsg.): Begegnungen mit künstlicher Intelligenz. Intersubjektivität, Technik und Lebenswelt. Weilerswist: Velbrück Wissenschaft, S. 174-203.

Misselhorn, Catrin (2023): Künstliche Intelligenz – das Ende der Kunst? Stuttgart: Reclam.

Music Business Worldwide: “Suno is a music AI company aiming to generate $120 billion per year. But is it trained in copyright recordings?” [Webseitentext 2024],  https://www.musicbusinessworldwide.com/suno-is-a-music-ai-company-aiming-to-generate-120-billion-per-year-newton-rex/?fbclid=IwZXh0bgNhZW0CMTEAAR3CnKkKRMw5vh1Rl4i0CCUBj5OJxFixk_DtHdc_BeppehNRc7RWuUxzwMg_aem_Afdhv_QM32hirGr_ZFhQ4NnmhcmXRrdIvwsn_FJWIUe8VtfxEcegsiP0KKa_1qiZp3STlp59WXO3yUlWmj7LsMVz [28.4.2024].

Rosengrün, Sebastian (2021): Künstliche Intelligenz zur Einführung. Hamburg: Junius.

Scheer, Brigitte (1997): Einführung in die philosophische Ästhetik. Darmstadt: WBG.

Staab, Philipp (2019): Digitaler Kapitalismus. Markt und Herrschaft in der Ökonomie der Unknappheit. Berlin: Suhrkamp.

Alan Turing (1950): Computing Machinery and Intelligence. In: Mind 236, S. 433-460.

Feige, Daniel Martin: Künstliche Intelligenz im Kontext der Kunst. Am Beispiel der Musik. In: Verantwortungsblog. https://www.zevedi.de/kuenstliche-intelligenz-im-kontext-der-kunst-am-beispiel-der-musik/ [15.05.2024].

Kategorien
Akzentfarbe: rot Autor: Eneia Dragomir Verantwortungsblog

Eine App namens Blockchain

Eine App namens Blockchain
Schwierigkeiten der Tokenizierung von Bürgerbeteiligungsprozessen

Eine Lösung auf der Suche nach einem Problem – so eine Kritik an der Blockchain-Technologie. Mehr als eineinhalb Jahrzehnte nachdem die erste Blockchain an den Start ging, ist der Hype verflogen – und kann die Suche nach zu lösenden Problemen in größerer Ruhe vor sich gehen. Ist die Bürgerbeteiligung ein solches Problem? Das wollte das Forschungsprojekt „BBBlockchain – blockchain-basierte Stadtentwicklung“ herausfinden.

Von Eneia Dragomir | 15.05.2024

Illustration: Menschen, durch Blöcke verbunden.
Mit Microsoft Image Creator durch die Redaktion erstellt.

Blockchain – wer überhaupt davon gehört hat, wird den Begriff vermutlich mit Bitcoin, der ersten „Kryptowährung“ in Verbindung bringen. Der erste Anwendungsfall der verteilten Datenbank sollte ein Online-Bezahlsystem sein, das ohne vermittelnde Dritte, wie Privat- oder auch Zentralbanken, funktionieren sollte. Vertrauen müssen sollte man allein dem Code. Enthusiast:innen sahen nach 2008, nach der größten Finanzkrise seit den 1930er-Jahren, nicht nur die Revolutionierung des Finanzsystems kommen. Immer weitere Felder schienen vor einer blockchain-basierten Transformation zu stehen: die Verwaltung von Immobilien, das Management von Lieferketten, die Datenverwaltung im Gesundheitswesen oder die Durchführung von Wahlen. Das Internet selbst sollte sich zum blockchain-basierten „Web3“ weiterentwickeln und durch eine radikale Dezentralisierung das von großen Plattformen dominierte „Web2“ umkrempeln. Auch wenn sich die Blockchain-Technologie seitdem weiterentwickelt hat, ist die Revolution – bislang zumindest – ausgeblieben. Selbst im Finanzwesen. Warum?

Der Abschlussbericht des Forschungsprojekts BBBlockchain – blockchain-basierte Stadtentwicklung gibt einen detaillierten Einblick darin, was einer Übertragung des vielversprechenden Blockchain-Ansatzes aus dem Feld der Kryptowährungen in einen sozialpolitisch brisanten Bereich im Wege steht. Es eignet sich damit als Beispiel dafür, was passiert, wenn die Blockchain und ihre Narrative mit der Realität konfrontiert werden.

BBBlockchain war ein interdisziplinäres Projekt der Forschungsgruppen „Urban Resilience and Digitalization“ und „Distributed Security Infrastructure“, die am Einstein Center Digital Futures bzw. an der Technischen Universität Berlin angesiedelt waren. Es fand in Kooperation mit zwei landeseigenen Berliner Wohnungsgesellschaften statt. Ziel des Projekts war es, eine blockchain-basierte Lösung für die Probleme der Bürgerbeteiligung zu entwickeln bzw. die Möglichkeiten und Grenzen des Einsatzes der Blockchain in Beteiligungsprozessen zu erforschen. (Ietto, Muth, Rabe, Tschorsch o.J.: 46, 30. Alle weiteren Verweise auf den Bericht nur noch mit Seitenangabe) Ausgangspunkt war folgende Beobachtung:

„In the past, numerous urban participation processes suffered from a loss of trust. This caused a decline in citizens’ participation and trust. However, Blockchain technologies have attracted attention because they promise to be able to ensure trusted processes between untrusted parties.“ (14)

Der Bericht zeichnet ein gemischtes Bild: Aufgrund des Verlusts von Vertrauen gehe die Teilnahme an Prozessen der Bürgerbeteiligung zurück. Gleichzeitig sei weithin anerkannt, dass die Beteiligung der Bürger:innen essenziell sei für die Verbesserung der Demokratie. Verwiesen wird auch darauf, dass staatliche Stellen solche Prozesse mit Nachdruck implementieren, um ihre Offenheit für ihre Bürger:innen zu demonstrieren. (14f) Und dennoch:

„in practice, planning processes are often influenced by corporate and political actors whose interests differ largely from the democratic values of participatory planning. Distrust and the image of corruption have therefore become the default citizens‘ perception of urban development projects“. (15)

Diese Problemanalyse legt den Fokus auf den Vertrauensverlust, den herkömmliche, analogeFormen der Bürgerbeteiligung erlitten hätten. Das Narrativ des Vertrauensverlusts stand schonam Beginn der Blockchain-Geschichte: der Verlust des Vertrauens in das Geldsystem,nachzulesen im White Paper des sagenumwobenen Satoshi Nakamoto. Es liegt folgerichtignahe, zur Lösung dieses Problems eine Technologie einzusetzen, die verspricht, auftechnischem Wege Vertrauen zwischen Parteien zu schaffen, die einander nicht über den Wegtrauen: Vertrauen durch Verfahren oder, wie es im Bericht auch heißt: „automatic trust“. (16) Doch wie genau soll die Blockchain das leisten?

BBBlockchain wurde als dezentralisierte Ethereum-App entwickelt, die sowohl auf mobilen Geräten als auch in Desktop-Browsern läuft – also schlicht: als blockchain-basierte App. Genutzt wurde zunächst ein Ethereum-Testnetzwerk und nicht das Hauptnetz, da für Aktivitäten auf der Blockchain Gebühren anfallen, das Testnetz aber kostenfreie „Test-Coins“ ausgab. So konnte gebührenfrei mit der Gestaltung der App experimentiert werden. Dass eine geschlossene Gruppe von „Minern“, also eine Gruppe von Rechnern, die der Blockchain neue Blöcke anfügen kann, Manipulationen hätten vornehmen können, wurde von den Forschenden als geringe Gefahr eingestuft. Man vertraute schlicht darauf, dass sie nicht die Absicht hätten, „blockchain principles“ aufzugeben. 2020 wurde das Testnetz „geforked“: da das Testnetz instabil wurde und keine freien Test-Coins zu bekommen waren, wurde eine alternative Verzweigung des Netzes angelegt. Schließlich wurde eine eigene Blockchain aufgebaut, da das Testnetz 2022 geschossen wurde. Dazu musste jedoch die gesamte alte Blockchain kopiert werden – ein erheblicher, aber notwendiger Mehraufwand, weil jede Veränderung bestehender Blöcke automatisch als Manipulation angezeigt wird.

Die „mining power“, also die Berechtigung, der Kette neue Blöcke anzufügen, wurde unter den wichtigsten Stakeholdern des Forschungsprojekts aufgeteilt: einen Miner betrieb das Forschungsteam und die beiden beteiligten landeseigenen Wohnungsgesellschaften betrieben ebenfalls je einen Miner. Nur diese drei „nodes“ konnten neue Blöcke erstellen und eine Manipulation bestehender Blöcke war nur mit einer zweidrittel Mehrheit möglich. (19) Offensichtlich vertrauten die Forschenden darauf, dass die Wohnungsgesellschaften Blöcke nicht manipulieren wollen würden. Auch hier also: weniger „automatic trust“ als schlichter Pragmatismus.

Schon beim Design der Blockchain trat allerdings ein Problem auf, ein Trade-off: Zwar kannman Blockchains so gestalten, dass darauf veröffentlichte Informationen zu jeder Zeit für allezugänglich sind. Jedoch kann die technische Komplexität der Blockchain für technischunerfahrene Nutzer:innen eine Hürde darstellen, die Information also wiederum unzugänglichmachen. Die Lösung? Die Blockchain wurde hinter einer vertrauten Benutzeroberflächeversteckt: „BBBlockchain interface design keeps blockchain details hidden through an API sothat users are confronted with technical detail as little as possible.” (38)

Für Benutzerinnen wirkte BBBlockchain also wie irgendeine App. Das war intendiert. Die App stellte Informationen im „timeline view“ dar, die neueste Information zuoberst. Damit orientierte man sich am „concept of a social media feed“. Nicht nur Mieterinnen und Anwohnerinnen, sondern auch den Nutzergruppen mit Schreibrechten (die man aus Furcht vor Missbrauch der App durch die beteiligten Bürgerinnen nur selektiv gewährte) mutete man Blockchain-Spezifika nicht zu. (20)

Vor der blockchain-basierten Transformation der Bürgerbeteiligung bedurfte es einer Übersetzung bzw. Tokenizierung. Das Forschungsprojekt orientierte sich am IAP2 Spectrum Of Public Participation der International Association for Public Participation, das von öffentlichen Stellen verwendet werde und fünf Stufen der Partizipation vorsieht: Information der Öffentlichkeit (1), Befragung der Öffentlichkeit (2), aktiver Einbezug der Öffentlichkeit (3),
Kollaboration mit der Öffentlichkeit (4) und in der letzten Stufen das „Empowerment“ der Öffentlichkeit, „where decision-making power is handed over to the public“. (15)

Die blockchain-basierte Information der Öffentlichkeit war der erste Anwendungsfall, der im Pilotprojekt Kietzer Feld im Bezirk Treptow-Köpenick getestet wurde. Dort fand in zwei Projektphasen eine Nachverdichtung statt, im Zuge derer 301 Wohnungen sowie eine Tiefgarage und eine Kindertagesstätte entstehen sollten. Neben dem Forschungsteam, der Wohnungsgesellschaft und den Mieter:innen waren der Bezirk und der Mieterrat weitere Stakeholder des Pilotprojekts. Außer den Mieter:innen hatten alle Gruppen Schreibrechte. 39 der 45 Einträge, die im Rahmen des Pilotprojekts erfolgten, wurden von der
Wohnungsgesellschaft erstellt. Alle anderen Gruppen mit Schreibrechten verfassten lediglich je zwei Einträge. (Eine partizipative Unwucht, die wohl nur schwerlich mit den „blockchain principles“ zu vereinen war.) Die mit dreizehn Einträgen häufigste Kategorie waren organisatorische und administrative Sachverhalte, wie Zeit und Ort von Veranstaltungen, Einladungen oder Grußworte. Zehn Einträge betrafen bereits gefallene Entscheidungen, wie Verträge, Genehmigungen oder die Ankündigung, dass Bäume gefällt werden. (26f)

Wie sollte die Blockchain nun Vertrauen herstellen? Informationen, wie Nutzungspläne, Genehmigungen, Verträge etc., auf einer Blockchain abzulegen habe den Vorteil, dass sie für alle jederzeit zugänglich seien. Zudem würden die Informationen mit einem eindeutigen Zeitstempel (einem kryptografischen Hashwert) versehen und Änderungen wären nur als neue Einträge möglich. Jede Änderung bestehender Blöcke würde automatisch als Manipulation angezeigt. So könne sichergestellt werden, dass die auf der Blockchain abgelegte Information unverändert ist, wodurch sich eine lückenlose Rückverfolgbarkeit der Vorgänge ergeben würde. „This should improve the transparency per se“, so die Annahme. Verantwortlichkeiten würden sich so leichter klären lassen, vor allem im Konfliktfall. (22)

Der blockchain-basierte Feldversuch bestätigte sie jedoch nicht. Die automatisierte Transparenz hatte unerwünschte Effekte – wiederum ein Trade-off: Zwar hatten Mieter:innen ein Bedürfnis nach Transparenz, die öffentliche Verwaltung hingegen ein Bedürfnis nach Vertraulichkeit. Schon aus rechtlichen Gründen konnten Informationen, wie urheberrechtlich geschütztes oder lizenziertes Material, persönliche Daten und Ähnliches, gerade nicht ohne Weiteres auf der Blockchain veröffentlicht – und unveränderlich gespeichert werden. (43) Vor allem die
Unveränderlichkeit der abgelegten Information zeitigte ungewünschte Auswirkungen auf die Verfügbarkeit von Informationen, denn Stakeholder, wie die Wohnungsgesellschaften oder die öffentliche Verwaltung, hätten Informationen selektiver geteilt. (38) Da das Blockchain-Prinzip der maximalen Transparenz sich also in der Realität negativ auf die Transparenz auswirkte, wird im Bericht dazu geraten, das Ziel maximaler Transparenz durch die Bestimmung eines „angemessenen Levels an Transparenz“ zu ersetzen. (31, 38)

Das war die Empfehlung. Konkret wurde dann tatsächlich die Offenheit der Blockchain eingeschränkt: Die Blockchain war zwar öffentlich einsehbar, es hatten jedoch nicht alle Schreibrechte und sie lief auf einem privaten Netzwerk, dessen drei „main nodes“ durch die Stakeholder mit Schreibrechten repräsentiert wurden. Diese Abweichungen vom Blockchain-Ideal war nötig, „to reduce the housing associations’ fear of losing control“. (44)

Die zweite Stufe des gewählten Partizipationsmodells, Befragung der Öffentlichkeit, wurde als Umfragen tokenisiert, die zu verschiedenen Zeiten im Verlaufe des Projekts stattfanden. Die dritte und vierte Stufe des Modells, der aktive Einbezug sowie die Zusammenarbeit mit der Öffentlichkeit, wurden als blockchain-basierte Abstimmungen tokenisiert. Dieser zweite BBBlockchain-Anwendungsfall wurde im Pilotprojekt „Bülow90“ in Kooperation mit einer anderen landeseigenen Wohnungsgesellschaft durchgeführt. Neben den Mieter:innen wurden auch Anwohner:innen (im Umkreis von einem Kilometer) in dieses Experiment einbezogen. (27f)

Blockchain-Technologien würden Abstimmungs- und Wahlvorgängen größere Legitimität verleihen, insofern sie den daran Teilnehmenden ermöglichen, eine größere Rolle bei der Kontrolle des Vorgangs zu spielen, so die Theorie. Im Laufe des Pilotprojekts wurden drei Abstimmungen durchgeführt. Votieren konnte man, ob es eine Werkstatt, einen Waschraum, einen Fahrradparkplatz, einen Dachgarten oder eine Paketstation geben sollte oder, ob in einem Kiosk Alkohol und Zigaretten verkauft werden. (28)

Der Abstimmungsvorgang wurde als „Smart Contract“ angelegt, also als Script, das automatisch eine Aktion ausführt, wenn bestimmte Bedingungen erfüllt sind.1 Jede Stimme wurde auf der Blockchain gespeichert, ohne dass eine Instanz zwischengeschaltet werden musste und die Abstimmenden konnten unmittelbar überprüfen, ob ihre Stimme korrekt gezählt wurde. (22) Sie konnten die Blockchain dazu nutzen, mussten jedoch nicht, denn die Abgabe der Stimme sowie die Überprüfung, dass sie korrekt gezählt wurde, war über die App möglich. (41) Die Blockchain selbst blieb also auch bei diesem Anwendungsfall weitgehend „hidden“.

Doch schon auf der konzeptuellen Ebene ergaben sich Probleme, vor allem im Hinblick auf die Feststellung der Berechtigungen. Zur eindeutigen Identifizierung hätten sensible Informationen auf der Blockchain gespeichert werden müssen – unveränderlich, bzw. unlöschbar. Die Unveränderbarkeit einmal veröffentlichter Daten gehört ja zu den Grundprinzipien der Blockchain. Die Datenschutzgrundverordnung (DSGVO) sichert jedoch jeder Person ein „Recht auf Vergessenwerden“ (Art. 17) zu, also den Anspruch, dass personenbezogene Daten gelöscht und nicht weiterverbreitet werden. Zwar könne man durch Hashfunktionen personenbezogene Daten anonymisieren. Ob diese kryptografische Anonymisierung eine Löschung im Sinne der DSGVO darstelle, sei allerdings umstritten, so der Bericht. (22f) Ein weiterer Trade-off.

Um das Problem zu entschärfen, wählte man den Weg, dass sich zur Abstimmung Aufgerufene mit einer E-Mail-Adresse verifizieren konnten. Dadurch wurde jedoch in Kauf genommen, dass Aufgerufene mehrere E-Mail-Adressen einreichen und mehrfach abstimmen oder auch Personen teilnehmen, die nicht berechtigt waren. (23) Um das Datenschutzproblem zu entschärfen, riskierte man also die Integrität des Abstimmungsvorgangs. (42)

Gegenwärtig seien blockchain-basierte Abstimmungen, die verlässlich, transparent und anonym sind, nicht realisierbar, so der Bericht,

„because of a number of issues presented by the intrinsic nature of blockchain technologies which include the complexity of the technology, an uncertain legislative context, public stakeholder needs, citizens and institutional resistance.” (42)

Die fünfte Stufe des Partizipationsmodells, Empowerment, wurde als „participatory budget“, als Bürgerhaushalt, tokenisiert – und näherungsweise durch die Ausgabe von Token abgebildet. Das war der dritte Anwendungsfall des Forschungsprojekts. Der ausgegebene Token ermächtigte jedoch zu nicht viel mehr als zum Bezug eines Kaffees. Token werden im Bericht als „digital, countable and transferable assets” definiert, die ohne zentrale Akteure, wie Banken, gemanagt werden. (24) Der berühmteste und erste Krypto-Token ist der Bitcoin. In der Blockchain-Welt lassen sich die zu den Chains gehörigen Token tatsächlich als ein „participatory budget“ begreifen, insofern der Besitz von Token zur Mitbestimmung an der Ausgestaltung der jeweiligen Blockchain berechtigt – mit allen Problemen, die sich aus diesem Partizipationsmodell ergeben, nicht zuletzt der höchst ungleichen Verteilung der Token, die Kritiker:innen der Technologie immer wieder monieren. Im Rahmen des BBBlockchain-Projekts sollte mit den Token lediglich ein Anreiz zur Teilnahme an den Abtimmungen gesetzt werden. Es war also gar nicht beabsichtigt, den Token-Mechanismus als Mittel zur Übertragung von „decision-making power“ zu nutzen. Man könnte hier der Meinung sein, dass emanzipatorisches Potential verschenkte wurde, wo es tatsächlich vorhanden war.

Eine Gefahr sahen die Forschenden darin, dass die Ausgabe eines Tokens mit monetärem Wert mit Sicherheitsrisiken verbunden ist: Dieser Wert wäre ein Grund für Angreifer:innen, die Blockchain zu hacken. Solche Angriffe durchziehen die Blockchain-Geschichte wie eine dichte Kette, wie die Krypto-Kritikerin Molly White auf ihrer Webseite Web3 is Going Just Great dokumentiert. Es hätten sich außerdem auch Fragen in Bezug auf die Geldwäschegesetzgebung ergeben.

Man entschied sich daher, nur „non-fungible tokens“, NFTs, auszugeben, also nicht übertragbare Token, die, sobald eingelöst, auf der Blockchain gesperrt wurden. Diese Token konnten nur in den jeweiligen Beteiligungsprojekten und Nachbarschaftstreffen eingelöst werden bzw. in einem beteiligten Café. (24) In der Kosten-Nutzen-Rechnung der Bürger:innen fiel der Anreiz offensichtlich durch: Insgesamt erhielten 81 Teilnehmende einen NFT, den nur sechs Prozent von ihnen einlösten. (43)

Am Anfang des Forschungsprojekts BBBlockchain – blockchain-basierte Stadtentwicklung stand das Versprechen, auf technologischem Wege Vertrauen zwischen Akteuren zu schaffen, die einander nicht trauen. Die Vertrauensfrage war offensichtlich komplizierter: Weil die Forscher:innen nicht darauf vertrauten, dass sich die Benutzer:innen die Blockchain-Technologie aneignen, versteckten sie sie hinter einer Benutzeroberfläche, die einem Social-Media-Feed glich. Auch wenn BBBlockchain eine blockchain-basierte App war, war es offensichtlich dieses vertraute Konzept, welches in den Umfragen überwiegend als leicht und intuitiv zu bedienen eingestuft wurde – Schlüsselwort: intuitiv. Das sind Blockchains immer noch nicht. Daher auch die abschließende Feststellung im Bericht: „such results are regardless of the fact that our App was built on blockchain“. (45)

Auch in der Interaktion zwischen Mieter:innen und Wohnungsgesellschaft brachte die Blockchain nicht automatisiertes Vertrauen, sondern eher technisch-induziertes Misstrauen. Die Mieter:innen, um deren Partizipation es doch ging, wurden zwar im ersten Pilotprojekt informiert, erhielten aber aus Furcht vor Missbrauch der App keine Schreibrechte – als einzige Stakeholdergruppe. Man misstraute ihnen, doch was stand zu befürchten? Schlechte Rückmeldungen? Kritik? Auch auf der Seite der Wohnungsgesellschaften führte die Blockchain nicht zu offenerer Kommunikation, sondern zu mehr kommunikativer Vorsicht. Das lag vor allem an einem Feature der Blockchain: der Unveränderbarkeit der einmal veröffentlichten Information. Durch dieses Blockchain-Feature ergab sich auch ein möglicher Konflikt mit der DSGVO: Wenn die Blockchain so funktioniert, wie sie soll, dann gibt es kein „Recht auf Vergessen“. Man kann da ansetzen und überlegen, ob nicht nur dieses Recht, sondern auch die Möglichkeit der Korrektur etwas ist, dass nicht vorschnell als Manipulation diskreditiert werden sollte. Die Blockchain hat jedenfalls, auch aufgrund der im Realversuch notwendig gewordenen Abweichungen von den „blockchain principles“ , nicht zu mehr kommunikativer Partizipation geführt, sondern zu weniger. Das Ergebnis: „the BBBlockchain platform was little used by all stakeholder groups involved.”

Was fehlte? „(A)n appropriate communication culture among the stakeholders“. (46) Es scheint also, als würde die Blockchain nicht automatisch eine solche Kommunikationskultur herbeiführen. Nach der Lektüre des Berichts wird deutlich: Sie muss zwischen den Akteuren ausgehandelt werden – ganz offensichtlich auf dem traditionellen Weg: Verantwortlichkeiten müssen bestimmt, mitunter auch erkämpft und die Frage muss geklärt werden, wer durch wen in welcher Form zur Verantwortung gezogen werden kann. Dabei hilft die Blockchain wenig.

Kritiker:innen werfen der Blockchain vor, eine Lösung auf der Suche nach einem Problem zu sein. Die Bürgerbeteiligung gehört nicht zu diesen Problemen. Die Suche geht also weiter.

  1. Der Ethereum-Gründer Vitalik Buterin empfiehlt von „persistent scripts“ zu sprechen, da diese weder „smart“ noch „contracts“ seien, sondern ein Set automatisierter Regeln, die ohne menschliches Zutun funktionieren, vgl. dazu O’Dwyer 2023: 95, 284. ↩︎

Ietto, Beatrice/Robert Muth/Jochen Rabe/Florian Tschorsch (o.J.): BBBlockchain: Blockchain-based Participation in Urban Development. Final Report, o.O.

O’Dwyer, Rachel (2023): Token. The Future of Money in the Age of the Platform, London: Verso.

Dragomir, Eneia (2024): Eine App namens Blockchain. Schwierigkeiten der Tokenizierung von Bürgerbeteiligungsprozessen. In: Verantwortungsblog. https://www.zevedi.de/eine-app-namens-blockchain-schwierigkeiten-der-tokenisierung-von-buergerbeteiligungsprozessenk/ [15.05.2024].

Kategorien
Akzentfarbe: beige Autor: Borna Mohajer Verantwortungsblog

„Die Kunstwelt ist eine Mafia”

„Die Kunstwelt ist eine Mafia”

In den Hype- Jahren wurden NFTs im Wert von 17 Milliarden US-Dollar gehandelt. Die Goldrauschstimmung ist zwar vorüber, aber die NFTs sind geblieben. Für einen iranischen Sammler sind die JPGs sein Leben. Konstantin Schönfelder hat darüber mit ihm gesprochen.

Borna Mohajer im Gespräch mit Konstantin Schönfelder | 15.05.2024

Generiert mit Microsoft Image Creator von Konstantin Schönfelder. Prompt: „graphic of the letters N F T in brown tones, minimal“

Die Welt der NFT’s hat sich für eine breitere Öffentlichkeit vor allem als Spekulationsphantasie dargestellt. Ein „NFT“, ein Non-Fungible Token, ist im Gegensatz zu Kryptowährungen ein singulärer und nicht teilbarer Wert auf der Blockchain, eine Art Sigel oder Zertifikat. Als wichtigstes Anwendungsgebiet dafür hat sich bislang digitale Kunst entwickelt: Sobald die Datei eines Kunstwerks auf einer Blockchain „geminted“ wird, ist das NFT auf einem öffentlichen Konto einsehbar. Wer den Token besitzt, ist der Eigentümer des digitalen Kunstwerks, das nun zwar weiterhin kopiert und vervielfältigt werden kann, aber eben ohne dabei aber das im Token festgeschriebene Eigentumsverhältnis zu berühren. In den Hype- Jahren 2021-22 wurden NFTs im Wert von 17 Milliarden US-Dollar gehandelt. Die JPEGs – etwa von stilisierten Affen und Pinguinen – wurden von zahlreichen Prominenten gehandelt, der Hype damit noch weiter befeuert. Der Wert der digitalen Artefakte und die Innovation hinsichtlich der Eigentümerschaft ist jedoch, wie das Meiste in der Krypto-Welt, extrem volatil: Die „CryptoPunks”, eine Kollektion mit 10.000 einzigartigen menschenähnlichen Figuren, die zu den ersten Kollektionen des NFT-Goldrausches zählt, wurden mitunter im zweistelligen Millionenbereich gehandelt, pro Stück. Sie verfügen mittlerweile allerdings nur noch über einen Bruchteil dieses Wertes, der zudem in starker Abhängigkeit zur ihrerseits schwankenden Kryptowährung Ether steht. Nun scheint die ungebrochene Faszination etwas abgeklungen, die Welt digitaler Kunstsammler:innen normalisiert sich. Der Taschen-Verlag hat für das Jahr 2024 eine erste monographische Kuration von NFTs vorgelegt und die 101 „einflussreichsten“ Künstler:innen zwischen zwei Buchdeckeln gebündelt. Das Buch kostet, je nach Ausführung, zwischen 750 und 4.000 Euro. Im Interview spreche ich mit einem Sammler digitaler NFT-Kunstwerke, der den Hype hinter sich hat, für NFTs aber dennoch eine Zukunft sieht.

Borna Mohajer: Das war im März 2021, als Beeple seine „Everydays: the First 5000 Days“ für 69 Millionen Dollar bei Christie’s verkaufte. Und nur eine Woche später wurde bei Christie’s ein Haufen „CryptoPunks” für 12 Millionen verkauft. Das war der Boom der NFTs. Und ich wusste noch nichts davon. Ich wusste nichts über Krypto. Ich wusste nur, dass es etwas namens Bitcoin gab, das man „minen” konnte. Ich habe vor ein paar Jahren versucht, Bitcoin zu minen, aber mit meinen Laptops und Desktop-PCs konnte ich nur ein Millionstel Bitcoin pro Jahr damit bekommen. Das war es nicht wert. Aber da ich als Fotograf arbeitete, war das erste, was ich über NFTs dachte, dass ich meine Fotos verkaufen kann. Also begann ich, meine Fotos als NFTs zu vermarkten, und versuchte, sie auf Twitter zu promoten. Aber das ging schief, niemand hat sich dafür interessiert.

BM: Damals gab es eine Twitter-Diskussion um die Rivalität zwischen den „CryptoPunks“, die im Grunde die Großväter der gesamten NFT-Szene waren, und dieser neuen Sammlung, den „Bored Apes“. Das hat mich fasziniert. Diese „Bored Apes“ wurden für etwa 180 bis 200 Dollar pro Stück verkauft, und viele neue Leute kauften sie und stiegen so in die NFT-Welt ein. Ich verfolgte das, und mochte diese Affen wirklich – diese seltsamen Individuen, die diese Art von gegenseitiger Rivalität haben. Zu derZeit, als ich begann, mich ernsthaft mit ihnen zu beschäftigen, kosteten die billigsten Affen etwa 3.000 Dollar. Aber alles, was ich hatte, waren etwa 10.000 Dollar, das war mein gesamtes Vermögen. Zugleich mochte ich diese seltsame Kultur rund um diese Affen und Avatare wirklich sehr. Natürlich gefielen mir die Punks besser, aber ich hatte kein Geld, um die Punks zu kaufen, also kaufte ich schließlich einen „Bored Ape”. Ich hatte keine Ahnung von seinem tatsächlichen Wert. Es war mir auch egal. Ich habe jedenfalls 3.000 Dollar bezahlt. Vielleicht wollte ich einfach nur cool und schräg sein und den Leuten eine lustige Geschichte erzählen können. Wenn mich das nächste Mal jemand fragt: „Und was machst du? “, kann ich antworten: „Ich habe 3.000 Dollar für dieses JPEG bezahlt“. Ich hatte keine weitergehenden Pläne, aber ich habe mich sofort damit identifiziert.

„Bored Ape 5136, im Besitz von bornosor.eth“

BM: Als ich die ersten Angebote erhielt, wurde mir klar, dass dies eine Art Investition war. 2000 Dollar, 2500 Dollar wurden mir kurz darauf geboten. Und fünf Tage später bekam ich ein Angebot über 3600 Dollar, was mehr war, als ich dafür bezahlt hatte. Zuerst habe ich gar nicht verstanden, was da passiert ist. Es ist ein Secondhand-Affe. Warum sollte jemand mehr dafür bezahlen wollen? Ich verstand die Idee von Sammlerstücken nicht und wie sie funktionieren. Alles, was ich bis dahin gekauft hatte, verlor an Wert: Ich kaufte eine Kamera, benutzte sie und sie wurde entwertet. Aber ich wollte diesen Affen ja gar nicht verkaufen. Also habe ich stattdessen einen neuen Affen gekauft, den ich für das Doppelte verkaufen wollte, was eine weitere coole Geschichte wäre, die man beim Abendessen erzählen könnte. Und wenn mich das nächste Mal also jemand fragt, was ich mit meinem Leben anstelle, antworte ich: „Ich habe dieses JPEG für 4.000 Dollar gekauft und für 10.000 Dollar verkauft“. Also habe ich versucht, einen mit seltenen Merkmalen zu bekommen: Er trug einen coolen Tweed-Mantel im Gangster-Stil, der teurer war als die anderen Kleidungsstücke, die die anderen anhatten. Und den bekam ich für etwa 4.000 Dollar. Aber am Ende habe ich auch den einfach behalten. Vielleicht war das der Moment, in dem ich anfing, ein Sammler zu werden.

BM: Ich habe festgestellt, dass mir das tatsächlich Spaß macht. Das ist es, was ich bin. Und die Leute assoziieren mich plötzlich damit! Ernstzunehmende Leute, wie der CEO des Time Magazine, begannen mir zu folgen und mit mir zu sprechen. Da habe ich gemerkt: Das ist eine Identität, und es geht um mehr als nur um Spaß im Internet. Ich sammle Dinge, die für ernsthafte Menschen auf der ganzen Welt von Bedeutung sind. Das war etwa Ende 2022. Die „Bored Apes“ schossen auf 600.000 Dollar pro Stück in die Höhe und die „CryptoPunks“ lagen bei 300.000 bis 400.000 Dollar. Ich wollte erst wechseln, aber dann bin ich bei den „Bored Apes“ geblieben. Ich brauchte meine Geschichte viel mehr als die Punks. Und ich war außerdem mit meiner Entscheidung für die „Bored Apes“ schon ziemlich bekannt.
Und ja, ich spreche von „Identifizierung“ im Sinne der Zugehörigkeit zu einer Gemeinschaft, die sofort erkennbar durch das entsprechende Profilbild ist. Und im Falle des NFT kann man sich den digitalen Fußabdruck einer Person anhand der Aktivitäten auf der Blockchain ansehen: Was hat diese Person gesammelt, verkauft, gehandelt. Es ist sowohl sehr anonym als auch sehr genau nachvollziehbar, wie engagiert man sich für seine digitale Identität einsetzt.

BM: Ich habe nie etwas Bedeutendes aus diesen Werten gemacht. Aber in der Ethereum-Welt habe ich mit diesen beiden Affen angefangen. Und wenn man die NFTs eine Weile behält, bekommt man noch ein paar Extras. Das wird für Leute, die sich nicht auskennen, sehr dumm klingen, aber neben den Affen haben sie, die Erfinder Affen, uns zunächst Hunde gegeben. Sie haben gerade bekannt gegeben, dass man für jeden Affen einen Begleithund bekommt, und zwar kostenlos. Der Hund kostete etwa 4.000 Dollar. Kostenloses Geld dachte ich, danke. Ich habe die Hunde immer noch. Und sie kosteten irgendwann um die 40.000 Dollar pro Stück. Und dann gaben sie uns eine Art Impfserum, kostenlos für jeden Affen, also bekam ich zwei davon. Dann konnte man auf die Webseite gehen und seinen Affen mit einem dieser Serums paaren – und so einen mutierten Affen erschaffen. Ich behielt den ursprünglichen Affen, aber das Serum wurde zerstört und daraus entstand dieser mutierte Affe. Ich hatte also zwei „Bored Apes”, zwei Hunde und zwei mutierte Affen (die Mutanten kosteten zur Hochzeit jeweils 200.000 Dollar). Außerdem kündigten sie an, dass sie ein Spiel mit dem Namen Metaverse machen – sie brachten den Token „Ape Coin” auf den Markt, der ein fungibler Token ist, also kein NFT mehr. Und sie haben mir Tokens im Wert von etwa 700.000 Dollar gegeben, nur weil ich zwei Affen, zwei Hunde und zwei mutierte Affen in meiner Wallet hatte. Für die anfängliche Investition von 8.000 Dollar für die zwei Affen habe ich etwa 2 Millionen Dollar an Geschenken bekommen. Wenn du verkaufst, entgehen dir vielleicht die künftigen Extras. Und mir ging es sowieso nicht um das Geld. Also habe ich als Beweis meines Commitments bis heute alles behalten.

BM: Ich und ein Freund wollten diese kulturelle Rivalität zwischen den Gemeinschaften der „Bored Apes” und „CryptoPunks” schlichten. Die „CryptoPunks” tragen keine Kleidung, man sieht nur das Gesicht, die „Bored Apes” zeigen ihre Schultern und ein wenig die Brust. Wir haben einige dieser Kleidungsstücke im Stil der „CryptoPunks” und der gepixelten Kleidung neu gezeichnet und einige der Köpfe der „CryptoPunks” draufgesetzt. Es war eine Mischung aus beiden Typen, und wir nannten sie „Bored Punks”. Wir haben sie dann auf der Plattform Opensea veröffentlicht. Es war als Aufruf zum Frieden, zum Waffenstillstand gedacht. Jeder Affe kostete genau ein Zehntel von dem, was ein „Bored Ape“ bei der Markteinführung kostete.
Das Ziel war, ein Drittel der Sammlung zu verkaufen, um ein neues iPhone oder ein iPad davon zu kaufen. Aber dann war die Kollektion tatsächlich innerhalb von sechs oder sieben Minuten ausverkauft und brachte uns 25.000 Dollar ein. Das war der Wahnsinn und wurde natürlich zu einem sehr ernsthaften Projekt. Aber dann begann Opensea, der damals seriöseste NFT-Marktplatz, Menschen aus dem Iran zu sperren. Die Kollektion erzielte auf dem Sekundärmarkt irrsinnige Preise, und wir konnten nicht von den Royalties für diese NFTs profitieren, mit denen wir auf dem Sekundärmarkt fünf Prozent für jeden Verkauf gemacht hätten. Das wäre das Fünf- oder Sechsfache dessen gewesen, was wir mit dem Erstverkauf verdient hatten. Es war seltsam, dass Opensea so vorgegangen ist. Wir waren aktive Teilnehmer in diesem Bereich und sie haben einfach prinzipiell unsere Sammlung ausgeschlossen. Opensea verstößt meiner Ansicht nach gegen das Prinzip der Inklusivität, sie meinen damit nur bestimmte Gruppen, die schwarze Community in den USA oder homosexuelle Amerikaner, LGBQ-Menschen etc. Aber alle Iraner:innen sind aus Prinzip ausgeschlossen. Es ist seltsam, das zu sagen, aber ich war dennoch gar nicht unglücklich darüber, dass dieses Projekt beendet wurde. Ich wollte nie, dass es mich definiert, und so konnte ich andere Sachen machen.

BM: Jetzt bin ich hauptsächlich bei Superrare. Superrare hat als erster Marktplatz  Smart Contracts eingeführt, die die Künstler:innen einsetzen können. Davor waren die Unterschrift und der Name des Künstlers nur ein Merkmal, das das NFT hatte. Es hieß „Künstler” und diese Kategorie war der Name. Aber der Token war Teil dieses riesigen gemeinsamen Vertrags zwischen allen Künstler:innen. Superrare hat das geändert. Nun konnte man den eigenen, unabhängigen Vertrag auf Superrare verwenden. Selbst wenn Superrare eines Tages beschließen sollte, dich zu sperren, hättest du immer noch volle Autonomie über deine Werke.

BM: Als Damien Hirst ankündigte, dass er die Kollektion machen will, waren wir einfach nur froh, dass ernstzunehmende Künstler den Raum betreten. Ich habe nicht in Erwägung gezogen, selbst eins zu kaufen. Sie kosteten 2.000 Dollar, als sie auf den Markt kamen, und es gab ein seltsames Kartenzahlungssystem. Also habe ich mich nicht am Erstverkauf beteiligt.
Jedes einzelne dieser 10.000 Werke, physisch hergestellte und dann als NFT digitalisiert, ist von Damien Hirst individuell benannt worden. Es sind ja nur zufällig mit Punkten bedeckte Gemälde, aber sie sind benannt. Ich habe mir diese Kollektion lange nach ihrer Veröffentlichung angesehen, sie war schon viel teurer. Sie kostet mittlerweile 12.000 oder 13.000 Dollar pro Stück. Ich fand eines, das To prove you wrong hieß. Und ich dachte, das ist die Essenz dessen, was ich mit NFTs mache. Also habe ich es gekauft. Ich meine, ich hatte eine Menge magisches Internet-Geld in meinen Taschen. Ich konnte es mir mit dieser Währung leisten, die ich sowieso nicht für irgendetwas anderes benutze, also habe ich es einfach gemacht. Und wieder, ähnlich wie bei meinen „Bored Apes”, dachte ich mir, vielleicht bietet Hirst eine physische Version an, und was mache ich dann? Es wäre ja sehr dumm, das NFT im Austausch für die physische Version zu zerstören.
Das Prinzip war: Wer ein Kunstwerk von „The Currency” erwirbt, hat ein Jahr Zeit, sich für das physische Original oder das NFT zu entscheiden. Also dachte ich, ich besorge mir ein weiteres Exemplar, und das andere wird dann zerstört. Um eines als NFT, eines als physisches Original zu haben. Am Ende habe ich beide als NFTs behalten. Man erhält einen Download-Link für diese Bilder mit einem sehr hochauflösenden Scan beider Seiten des Kunstwerks, die Datei ist jeweils größer als 100 Megabyte. Und es war sehr schön zu sehen, dass Hirst selbst seinen gesamten Vorrat verbrannt hat. Er hatte eintausend für sich behalten. Ursprünglich wollte er nur 10 Prozent davon als NFT aufbewahren und 900 im physischen Original. Aber am Ende der Reise, durch diese soziokulturell neue, verrückte Gemeinschaft, die sich um diese Kunstwerke herum gebildet hat, hat er beschlossen, alle 1000 als NFT zu behalten. Ich erinnere mich, dass wir uns auf Discord mit ihm unterhalten haben. Er verdiente bereits eine Menge Geld mit seinen Verkäufen, den Tantiemen usw. und wie ein Kind, wie alle von uns, kam er in den Chat und stellte seine neue NFT-Kollektion vor. Er zeigte seinen neuen „Bored Ape”. Damien Hirst hat geflext.

BM: Ich bin weniger eingeschränkt. Zunächst einmal lebe ich im Iran. Ich habe keinen Zugang zu den meisten großen (westlichen) Märkten. Ich muss reisen, um an diese physischen Waren zu kommen. Ich habe keinen Zugang zu Gemeinschaften von Menschen, die ebenso besessen sind wie ich von diesem speziellen Sammlerstück. Und ich habe auch nicht wirklich ein Ventil, um mich als jemand, der ein Interesse am Sammeln dieser Dinge hat, auszudrücken oder zu präsentieren, zumindest kann ich mein Interesse an ihnen nicht authentifizieren. Ich kann Fotos von Autos teilen, aber ich kann nicht wirklich beweisen, dass ich ein Autosammler bin, es sei denn, ich besuche Autoshows. Jetzt kann ich all dies von meinem Zuhause in Teheran aus tun.

BM: Diese „Ich bin ein engagierter, digitaler Spinner, der einen Großteil seines Geldes in komische Zeichentrick-Affen investiert hat“-Erzählung wurde geändert in „Du bist ein brillanter Kopf und hattest die Intuition, all diesen Leuten voraus zu sein“. Und plötzlich bist du Clubkamerad von Snoop Dogg, Eminem, Madonna und Jimmy Fallon. Ich mochte das nie. Ich wollte nicht, dass der Affe zu einem Rolex-Symbol wird.  

BM: Taschen veröffentlichte es auf einer Konferenz in Paris im Rahmen einer größeren Veranstaltung für NFTs im Februar 2024. Es umfasst Künstler und Projekte, die im Bereich der NFT- und der digitalen Kunst einflussreich waren. Aber es gibt zwei Probleme: Es ist ein sehr, sehr teures Buch. Das Basismodell kostet 750 Euro. Und was auch eine Menge Kontroversen auslöste, war das, was einige Leute auf X den „Taschen-Effekt“ nannten – einige der enthaltenen Kunstwerke waren zu unverschämten Preisen gelistet. Dieser Preis war als „unverkäuflich“ gedacht, nicht als wirklicher Preis, den irgendjemand bezahlt hätte.
Aber als das Buch dann in Paris an einem Stand einsehbar war, und die Leute es dort durchblätterten, begannen viele dieser Kunstwerke tatsächlich zu diesen verrückten Preisen verkauft zu werden, die das Drei-, Vier- oder Siebenfache der ursprünglichen Preise der anderen Werke dieser Künstler:innnen hatten. Das ist ein interessanter Effekt, denn die NFT-Welt versucht ja immer so zu tun, als würde sie sich der traditionellen Kunstwelt, die das Geld verdient, entgegenstellen. Sie will demokratischer sein und die Intermediäre der Kunstwelt abschaffen oder umgehen. Der Anspruch ist: Wir machen die Strukturen transparent. Wir ermöglichen es den Künstler:innen, direkt mit ihren Sammler:innen und ihrem Publikum in Kontakt zu treten. Und: Wir brauchen keine Institutionen, denn Institutionen sind möglicherweise böse und die Kunstwelt ist böse. Die Kunstwelt ist eine Mafia. Doch dann fängt die Kunstwelt, die böse Mafia, tatsächlich an, ein Buch über NFTs zu drucken.

Das Gespräch wurde am 25.02.2024 online zwischen Frankfurt und Teheran geführt.

Zitiervorschlag

Schönfelder, Konstantin (2024): „Die Kunstwelt ist eine Mafia“. In: Verantwortungsblog. https://zevedi.de/verantwortungsblog/xxx [15.05.2024].