Kategorien
Akzentfarbe: orange Autoren: Davor Löffler & Oliver Schlaudt Verantwortungsblog

Was bedeutet der digitale Wandel menschheitsgeschichtlich betrachtet

Was bedeutet der digitale Wandel menschheitsgeschichtlich betrachtet? Ein Blick aus der Deep History in eine ungewisse Zukunft

Wandel ist nicht gleich Wandel, misst man ihn wirklich an seinen Folgen. Zuletzt haben die Sprünge in der Leistungsfähigkeit von KI-Systemen zu Spekulationen Anlass gegeben: Wie ist das einzuordnen, was sich vor unseren Augen abspielt? Handelt es sich um ein neues Zeitalter, wie das industrielle? Um eine anthropologische Revolution, wie die neolithische? Entsteht gar vor unseren Augen eine neue, nicht-menschliche Intelligenz? In den Blicken in die Zukunft kann der Phantasie weitgehend freier Lauf gelassen werden. Aber wie erscheinen KI und Digitalisierung, wenn man sie in die Perspektive der Deep History einordnet?

Von Davor Löffler & Oliver Schlaudt | 12.06.2024

Ein Netzwerk zwischen Punkten.
Erstellt mit Adobe Firefly. Prompt: „painting in the style of expressionism: a geometric network; colors: black, yellow, orange“

Künstliche Intelligenz konnte man vor kurzer Zeit für eine reine Laborphantasie halten. Plötzlich ist sie da und in unserem Alltag präsent – mal spielerisch, wie etwa bei ChatGPT, mal durchaus ernst, etwa wenn Übersetzungsprogramme unsere Arbeitsroutinen verändern, mal sogar in beängstigender Weise, etwa wenn wir von ihrer Verwendung in militärischen Drohnen lesen. Konnte die damalige Kanzlerin Angela Merkel 2013 – freilich zum Spott der community – das Internet als „Neuland“ bezeichnen, ist heute allen klar, wie dramatisch die Digitalisierung das Leben verändert, und dies in allen Bereichen: Arbeit, Privatleben, aber auch politische Verfasstheit unseres Gemeinwesens. Wobei noch niemand weiß, welche Auswirkungen die neuen Technologien auf die Demokratie haben werden. Die Dramatik der aktuellen Entwicklungen liegt somit auf der Hand. Und trotzdem kann es sein, dass wir sie immer noch gehörig unterschätzen. Tatsächlich stellen sich weitreichende Fragen, wenn wir die aktuelle technologische Revolution aus der Perspektive der „Deep History“, also der gesamten Menschheitsgeschichte betrachten.

Wir wissen heute, dass Menschheitsgeschichte auch immer — und in einem wesentlichen Sinne — Technikgeschichte ist. Schon vor mindestens 3,5 Millionen Jahren haben unsere Vorfahren Werkzeuge hergestellt. Die Technik hat tatsächlich unsere Gattung nicht nur schon immer begleitet, sondern war bereits ihr Geburtshelfer, denn man muss das Entstehen unserer Spezies als das Ergebnis einer verschränkten biologischen und kulturell-technologischen Evolution begreifen. Die Technik hat unsere Spezies regelrecht geformt. Der Werkzeuggebrauch eröffnete den Zugang zu neuen Ressourcen und Nischen, die wiederum neue Anpassungsleistungen erforderten und Entwicklungsräume boten. Zum Beispiel erschlossen sich durch Schlag- und Schneidewerkzeuge, später dann Wurfwaffen oder den Feuergebrauch neue Nahrungsquellen, was nicht nur zu einer Veränderung unseres Skeletts, des Muskelapparats und des Verdauungssystems führte, sondern auch erst die Energien bereitstellte, die für die Entwicklung des großen menschlichen Gehirns notwendig waren. Die frühe Technik beginnt mithin zwar als Hilfswerkzeug der Hand, führt dann aber darüber hinaus und wird zunehmend selbst zum Gehäuse und Habitat, an das sich unsere Körper anpassten. Es entsteht ein künstlicher Kokon, oder anders ausgedrückt: eine in die Biosphäre hineinverschachtelte „Technosphäre“.

In diesem Zusammenhang wurde auch die menschliche Kooperation zu einem Hauptschauplatz der weiteren Entwicklung: Mit der technischen Bearbeitung der Natur bildeten sich auch genuine Techniken des sozialen Miteinanders heraus.Denn die zunehmend komplexen Instrumente und neuen Lebenswelten waren nur noch durch gezielte Koordination der menschlichen Handlungen zu handhaben, also durch Arbeitsteilung. Die in der Technisierung wurzelnde Notwendigkeit zur Koordination und Arbeitsteilung beförderte auch die Ausweitung und Verfeinerung der Kommunikationsfähigkeiten. Es bildeten sich Medien heraus: Sprache, Kunst, Symbole, Zeichen sind selbst als Werkzeuge zu verstehen, die es erlauben, die soziale Koordination zu verbessern, effizienter zu machen und auszubauen. Sprache erlaubt die Kommunikation über Abwesendes, Zeichen die Kommunikation mit Abwesenden. Beide erweitern die Sinne über die Raumzeit hinweg. Zunehmend werden Medien auch Hilfswerkzeuge des Denkens, da sie das Gedächtnis entlasten und eine Stütze für die Erkenntnis werden, wie etwa die frühe Entstehung von Zahlzeichen oder Aufzeichnungen von Himmelsbeobachtungen belegt.

Die kurze Skizze zeigt: wir sind durch und durch „technische Wesen“. Körper, Geist, Subjektivität und Sozialität sind technisch geformt. Und am Prozess dieser Formung hat eine Entwicklung ihren Anteil, die als „kulturelle Evolution“ bezeichnet wird. Kultur meint dabei jedes erlernte Verhalten, das nicht lediglich genetisch (oder als „Instinkt“) angelegt ist. Auch kulturelles Verhalten entwickelt sich und evolviert: Erfindungen und Wissen werden untereinander weitergegeben, neue Erfindungen und neues Wissen bauen auf dem alten auf (kumulativ oder „exaptiv“, d.h. zweckentfremdend, s. dazu Henrich 2016; Schlaudt 2022). Zu solchen Erfindungsketten zählen nicht nur die Weisen der technischen Umweltbeherrschung (etwa vom Faustkeil zum Automobil), sondern auch die Arten der sozialen Organisation, politische Institutionen, Normen und Weltbilder (etwa von Häuptlings- oder Clangesellschaften hin zur Institution der Vereinten Nationen; animistisches oder naturalistisches Weltbild). So, wie wir zunehmend lernten, durch Technologie in die Naturumwelten einzugreifen und sie zu gestalten, so mussten wir zugleich auch lernen, in uns selbst „einzugreifen“ (Selbstdomestikation) und unsere Gesellschaften zu organisieren (Sozialevolution). Im Kern menschlich-kultureller Entwicklung steht also die Fähigkeit lernen zu können und gelernt zu haben, wie sich Werkzeuge herstellen und verwenden, Handlungen und Handelnde koordinieren lassen, gegenüber der Naturumwelt und untereinander. Drei grundlegende Aspekte dieser kulturellen Evolution lassen sich auf diese Weise identifizieren: die Auslagerung von Handlungsfähigkeit (agency) in das Werkzeug, die Auslagerung von Gedächtnis-, Wahrnehmungs- und Denkfähigkeiten in die Medien (Exogramme, externalized knowledge representations, extended mind) und die Kooperation basierend auf der flexiblen Koordination von Akteuren aller Art (die auch als „Ultrasozialität“ bezeichnet wird). Die drei Aspekte beeinflussen sich in der Entwicklung gegenseitig. Es gibt also eine Koevolution von technischer Umweltbeherrschung, Gesellschaftsorganisation und Denken (für die Frühgeschichte siehe Haidle et al. 2015: 46ff).

Damit zu Digitalisierung und Künstlicher Intelligenz. Beides erscheint uns heute als etwas ganz Neuartiges und Hypermodernes. Aus einer kulturevolutionären und anthropologischen Perspektive verhält sich das nicht ohne Weiteres so. Einerseits erkennen wir auch in derartig modernen Phänomenen eine bloße Fortführung und neueste Etappe einer allgemeinen Auslagerungstendenz, die die gesamte Geschichte unserer Gattung charakterisiert – dass Technik immer komplexere Leistungen in automatisierter Form übernimmt, ist nichts grundsätzlich Neues. Andererseits handelt es sich bei der Gattungsgeschichte aber um eine Geschichte, die neben solchen Kontinuitäten eben auch durch Revolutionen gekennzeichnet ist, die aus den kontinuierlichen, kumulativen Entwicklungen resultierten. Wir haben auch schon andeutungsweise gesehen, wie tief diese Revolutionen in das Menschenleben eingreifen, nämlich nicht nur in unsere Technologie, sondern auch die Formen unseres Zusammenlebens und unseres Denkens. Man denke an Waffentechnik, an Medizintechnik, an den Buchdruck. Die Frage, die sich uns heute stellt, ist die, auf welcher Skala die digitale Revolution einzuordnen sein wird. Welches werden ihre sozialen und institutionellen Folgen sein? Erleben wir gerade eine der „großen“ Revolutionen der Menschheitsgeschichte?

Um diese Fragen zu beantworten, mag ein vergleichender Blick auf frühere Revolutionen hilfreich sein. Das prominenteste Beispiel ist das epochale Ereignis der Sesshaftwerdung, die sogenannte „Neolithische Revolution“, die vor etwa 10.000 Jahren geschah (auch wenn diese in Wahrheit weder abrupt noch bloß an einem Ort auftrat, sondern sich vielmehr in verschiedenen Weltregionen parallel und unabhängig voneinander über mehrere Tausend Jahre hin entwickelte – ein Beispiel für „konvergente Evolution“ in der Zivilisationsentwicklung (Morris 2003; McGhee 2011)). Diese Zäsur der Geschichte ist jüngst verstärkt in den Fokus der Forschung gerückt (s. zur Übersicht Paul 2023; IGZA 2023), allerdings oftmals in einer pessimistischen bis apokalyptischen Tonlage: Wann ist der Mensch falsch abgebogen – in Richtung Ungleichheit, Ausbeutung und Naturzerstörung (Scott 2017: 1ff)? Wir werden hier hingegen danach fragen, was sich an dem Übergang zur Sesshaftigkeit – und im Folgenden an einigen weiteren solcher Zäsuren – für die digitale Transformation lernen lässt.

Entgegen der Intuition zeigen Berechnungen, dass auch das Leben von Wildbeutern keinesfalls karg ist: Sammeln und Jagen weisen tatsächlich eine deutlich höhere Produktivität pro Arbeitsstunde auf als die Agrikultur der Sesshaften (erst mit der Verbreitung von Eisenwerkzeugen nach 1300 v.u.Z. zuerst in Indien und etwas später in Griechenland und China überstieg die landwirtschaftliche Arbeitsproduktivität pro Stunde die der Wildbeuterei). Jedoch liegt die Produktivität pro Fläche in der agrikulturellen Bodenbewirtschaftung 1000-mal höher (IGZA 2023: 73f). Dies ist der wesentliche Grund für die allmähliche Verstetigung der Sesshaftigkeit. Denn so hervorgebrachte Überschüsse sorgten für ein kontinuierliches Bevölkerungswachstum, womit sesshafte Kulturen in dieser Lebensweise quasi einrasteten und rein zahlenmäßig die Wildbeuter verdrängten und ablösten (darum kam es global auch so gut wie nie zu einer Rückkehr zur Wildbeuterei). Befördert wurde die Produktivität von mitlaufenden technologischen Innovationen, etwa allerlei Werkzeugen zur Bodenbearbeitung, Gefäßen, Zäunen, Kornspeichern oder Bewässerungsanlagen. Zur selben Zeit entstanden auch die ersten festen Wohnsiedlungen. Die Sesshaftigkeit bot auf lange Sicht mehr Nahrung und Nahrungssicherheit, mehr Schutz gegen natürliche Gefahren und Feinde sowie weniger Risiko.

Allerdings hatten diese Vorzüge ihren Preis, denn die zunehmende Abkapselung von natürlichen Umwelten und die Notwendigkeit zur arbeitsteiligen Bodenbewirtschaftung erzeugte Gefahren und neuartige Zwänge. Sehr folgenreich war die vermehrte Anfälligkeit für Krankheitserreger, die sich besonders aufgrund der verdichteten Tierhaltung verstärkt bildeten, also wortwörtlich für „Zivilisationskrankheiten“. In der Folge entwickelten sich Hygienemaßnahmen, die sich auch in rigiden Verhaltensnormen niederschlugen, die in vielen Kulturen auch heute noch praktiziert werden oder gar sakralen Status haben (viele Teile der Bibel und kanonischer Werke anderer Religionen lassen sich unter diesem Aspekt lesen (van Shaik/Michel 2016)). Darüber hinaus musste die grundsätzlich arbeitsteilige Lebensweise auch durch moralische, politische und ökonomische Strukturen gestützt werden, die wie unsichtbare Gehäuse unsere Verhaltensräume umzirkeln und Interaktionen regulieren. In diesem Zusammenhang dürfte die soziale Zuschreibung von Eigentum entstanden sein, d.h. die Verfügungsmacht über Produkte, Boden und Überschüsse, und damit einhergehend die Mittel der Landeinteilung und -verteilung, Erbschaftsregelungen, Arbeitsrollen und deren Organisation, die Trennung von häuslicher und öffentlicher Ökonomie, Geschlechterrollen (Patriarchat, Matriarchat), ortsgebundene und zeitüberdauernde Gruppenidentitäten – also ganz allgemein entsprechende kodifizierte Rechtsordnungen, Machthierarchien und politische Funktionen sowie soziale Differenzierung.

Dies alles hat medialer Hilfsmittel bedurft: Statussymbole, Rollen- und Identitätskennzeichen, rituelle und religiöse Kunst auf der Seite sozialpsychischer Organisation. Auf der verwaltungstechnischen Seite sind es (vorschriftliche) Zeichensysteme, darunter vor allem Zahlen, Maßeinheiten und Messysteme, später auch symbolische Tauschmittel, also Währungen. Da Saat- und Erntezeiten bestimmt, Speicherung und Verteilung der Erträge geplant werden müssen, erlangten Modellierungen und Prognosen von Naturzyklen wesentliche Bedeutung. So entstanden bereits früh Vorrichtungen zur Himmelsbeobachtung, in denen die regelmäßigen Bewegungen der Gestirne verzeichnet und in Modellen nachgebildet werden konnten, prominent etwa in der Megalithstätte Stonehenge. Dies führte nicht nur zu Kalendern, die als Taktgeber für Arbeits-, Fest- und Rituszeiten dienten, sondern auch zum weiteren Ausbau der Mathematik, die zunehmend auch in anderen Bereichen Anwendung fand (allgemein hierzu Renn 2022). Immer mehr Dinge, Ereignisse und Vorgänge in der Wirklichkeit werden also in mathematisch-geometrischen Rastern einfassbar, die von der Gesellschaft aus auf die Welt projiziert werden. Diese Raster dienen der Koordination kollektiver Handlung in zunehmend komplexen sozialen Strukturen (Löffler 2019: 320ff). Komplexe Zivilisationen aller Art sind ohne diese Koordination von Handlungssequenzen und der hierfür notwendigen Mittel nicht zu denken. Und je komplexer Gesellschaften, ihre Technologien und Formen der Arbeitsteilung sind, desto mehr muss sich auch die zeitliche und räumliche Organisationstiefe des integrierenden Rasters ausweiten – und dies bis heute.

Die Zäsur der Sesshaftwerdung illustriert zwei Umstände mit Bedeutung für unsere Frage nach der Digitalen Transformation. Zum einen verdeutlicht sie das Prinzip der Koevolution: Technologiestrukturen, Produktionsketten, Medienarten, politische Institutionen, Erkenntnis- und Denkfähigkeiten entwickeln sich im Wechselspiel und stehen in einem inneren Zusammenhang miteinander. Solche Wechselseitigkeiten und strukturellen Zusammenhänge – wir sprechen von „Formzusammenhängen“ (Bammé 2011: 52-76; Löffler 2019: 376; Pahl 2021: 102ff) – in den Blick zu nehmen ist auch für Diagnosen und Prognosen aktueller Entwicklungsprozesse unabdingbar: Kein Bereich kann isoliert betrachtet werden, tiefe Veränderungen in einer Domäne lassen andere nicht unberührt. Zum anderen erkennt man, dass sich schon in den frühen sesshaften Kulturen ohne Abstriche von der Entstehung von „Datenpunkten“ sprechen lässt. Die mit den neolithischen Gesellschaften einsetzende Arbeitsteilung bedarf zur Steuerung und Koordination einer relativ exakten medialen Nachbildung von Ereignissen, Vorgängen und Kausalitäten in der Natur sowie auch der Gesellschaft. Die Mathematisierung dieser Modelle macht Wirklichkeiten berechenbar und ermöglicht es, Handlungen einzelner Akteure oder ganzer Kollektive zu planen und punktgenau zu setzen. Eine Rasterung der Welt in Datenpunkte, Polaritäten, Metriken, diskrete Skalen und abstrakte Koordinatensysteme nimmt hier ihren Anfang. Sie entsteht koevolutionär zur Notwendigkeit, Sequenzen von Handlungen und Kausalitäten miteinander zu koordinieren. Auch Digitalisierung und künstliche Intelligenz dienen nichts anderem: Phänomene in Symbole fassen (Datenerfassung), Vorgänge modellieren, Muster erkennen, Kausalitäten berechenbar machen, Diagnosen stellen, Prognosen treffen, und schließlich: Handlungen informieren.

Kulturevolutionäre Phasen und Zäsuren (v.u.Z.)Struktur der Wissensproduktion und Modellbildung  Medienformen und Kulturtechniken der Rasterung
Entwicklung visueller Kultur (-130.00-40.000)Entkörperung des WissensMedien: Symbole, Zeichen, Mengenmarkierungen  
Neolithische Revolution (~ -8.000)Modellierung des WissensKosmosmodelle (Kalenderarchitekturen), Anzahlmodelle (Zahlzeichen)
Hochkulturen / hierarchisch-imperiale Staaten / Bronzezeit (~ -3000)Verschriftlichung des Wissens  Schrift, formale Zahlensysteme, Operationszeichen, Formeln, Geometrie, kategoriale Listen  
Axialkulturen / Eisenzeit (Griechenland, China, Indien) (~ -800)Formalisierung des Wissens, Methodologisierung der Wissensproduktion  Alphanumerische Zeichen, Logik, Schlussregeln, Argument, Beweis, Universalienbestimmung  
Neuzeit / Maschinenkulturen (Europa) (~ 1400)Mathematisierung des Wissens, Mechanisierung der WissensproduktionEmpirisierung, Experiment, wissenschaftlich Methode, euklidisches Modellierungsraster, 
Quantifizierung, Geometrisierung, Buchdruck  
Globale, elektrifizierte Industrienationen (~ 1940)Automatisierung und Autonomisierung der WissensproduktionBit, automatisierte Datenverarbeitung, Mustererkennung und Modellbildung
Tab. 1 Etappen der Wissens- und Medienevolution

Digitalisierung, Kybernetik und KI sind, wie wir nun erkennen, keineswegs nur das neueste Mittel zur Steigerung kapitalistischer Ausbeutung, wie derzeit oft argumentiert wird (Zuboff 2018; Pasquinelli 2023). Vielmehr schreiben diese neuen Technologien zugleich die sehr alte Geschichte der immer feinkörnigeren Rasterung der Welt in Daten- und Koordinationspunkte fort. Die Digitalisierung stellt eindeutig eine eigene Etappe der Medienevolution und Auslagerung von Wahrnehmungs-, Denk-, Entscheidungs- und Steuerungsprozessen dar: In einem weiteren Abstraktionsschritt werden bisher „von Hand“ (bzw. intellektuell) auszuführende Kulturtechniken der Rasterung nun automatisiert durchgeführt, reichen dabei in neue Tiefen der Raumzeit und übersteigen darin das bisher Menschenmögliche (zu dieser Phase siehe Löffler 2019: 559-599). Gehen wir davon aus, dass Etappen der Technikentwicklung immer mit der Entstehung neuartiger sozialer Strukturen einhergingen, dann ist zu erwarten: Auch die Geschichte der Koevolution schreibt sich fort.

Die Einsichten der Kulturevolutionsforschung rufen somit dazu auf, sowohl historisch als auch über klassische Theorieangebote hinaus den Blick auf Digitalität zu weiten. Möglich ist es so auch, neuartige Richtungen kritischer und gestalterischer Reflexionen über die Digitalisierung und ihre möglichen Folgen aufzuzeigen. Wir nennen exemplarisch zwei solcher Richtungen:

  1. Jede Medientechnologie ging immer auch mit der Ausbildung neuer sozialer Einheiten einher. Zum einen entstehen neue Spezialistengruppen für die Bedienung der neuen Technologien, die alte Gruppen ablösen und neuartige Funktionen verkörpern (etwa Hohepriester, Mathematiker, Philosophen, Buchgelehrte, Ingenieure, Bankiers). Zum anderen bilden sich mit neuen medialen Infrastrukturen notwendig auch neuartige Gemeinschaften und Kollektive aus, wie sie etwa der Buchdruck oder das Internet hervorgebracht haben: Neue Gemeinschaftsvorstellungen, Identitäten und Subjektivitätsformen gehen damit einher. Dieses Auftreten neuer Gesellschaftsgruppen und Subjektivitäten – absehbar bald auch künstlicher oder anderer nichtmenschlicher Akteursentitäten – muss zur Ausbildung neuartiger Institutionen und Rechtsstrukturen führen. Die unsere Gesellschaft charakterisierenden Institutionen sind vor etwa 250 Jahren entstanden, und zwar in einem aus heutiger Sicht antiquierten soziotechnischen Regime und unter einer ebenso antiquierten Medienstruktur. Hier gilt es in unserer Gegenwart weit hinauszudenken über die lediglich reaktive Anpassung der bestehenden Institutionen an die technologisch-medialen Entwicklungen, wie sie heute maßgeblich betrieben wird. Denn wenn der digitale Wandel eine der skizzierten makrohistorischen Zäsuren ist, dann liegt die Herausforderung nicht darin, einfach nur einen „cultural lag“ auszugleichen, also das Hinterherhinken der sozialen Normen und Institutionen gegenüber den stets sich beschleunigenden Technikinnovationen. Vielmehr erscheint es angebracht, im Zuge koordinierter Forschung antizipativ die Möglichkeitsräume der mit dieser Zäsur nun entstehenden Beziehungsformen und Gesellschaftsformationen auszuloten. Aus unserer Sicht sollte diese Möglichkeit auch ergriffen werden. Forschungsfragen dürfen sich also nicht darauf beschränken, wie sich die Auswüchse der Digitalisierung gegenüber den gegenwärtig bestehenden Institutionen und Normen einhegen ließen. Es muß vielmehr gefragt werden, welche historisch neuartigen Institutionen und Normen aus der Digitalisierung hervorgehen können.
  2. Die Tatsache, dass Computer, Kybernetik und KI parallel auch in nichtkapitalistischen Staaten wie der Sowjetunion entwickelt und angewandt wurden, zeigt umgekehrt, dass diese Technologien in verschieden gearteten ökonomisch-politischen Systemen Funktionen erfüllten und erfüllen konnten, die jenseits der heute dominierenden Anwendungsfelder liegen. Anders ausgedrückt: Die Digitalisierung enthält einen bereits in ihrer historischen Genese verbrieften Funktionsüberschuss, dessen Facetten und Potenziale für die Gesellschaftsgestaltung noch lange nicht erkundet sind. Wie bei jeder vorherigen Technologie auch, ist damit zu rechnen, dass sie erst in den kommenden Jahrzehnten „exaptiv“ freigelegt werden (Schlaudt 2022: 192ff). So verdeutlichen beispielsweise die vielfältigen, oft noch experimentellen staatlichen Anwendungen digitaler Technologien in China, wenngleich sie sehr kritisch beobachtet werden müssen, zumindest wie unerschlossen die vielschichtigen Vernetzungs- und Nutzungsmöglichkeiten dieser neuen Medientechnologie noch sind und welche Entwicklungsräume sich dadurch auftun können. Besonders hinsichtlich der ökologischen Krise, die sich nur in globaler Kooperation wird bewältigen lassen, scheint sich die Digitalisierung als (vielleicht einziges und letztes) Mittel anzubieten, das den komplexen Anforderungen etwa des Umweltmonitorings oder auch der Bewältigung der zivilisatorischen Effekte der Klimakrise entsprechen kann. Auf Basis von Sensoren und automatisierter Datenverarbeitung (Algorithmen, KI) erweitert sich jedenfalls der Umfang der Erfassung und Integration von Prozessen in das kulturell-zivilisatorische Raster: In der Perspektive einer „Planetarisierung“ (Bammé 2016; Löffler 2018; Bratton 2021) umfasst das Feld des potenziell Rasterbaren den gesamten Erdball mitsamt seinen Myriaden an Systemen, inklusive der sozio-ökonomischen, und ermöglicht vielleicht eine neue Balance zwischen den verschiedenen Stoffwechselprozessen (etwa der ökonomischen Ressourcennutzung und den ökologischen Stoffkreisläufen) herzustellen – eben das, was die heutigen Institutionen und verwendeten Mittel nicht vermögen, wo sie nicht gar selbst Problemursache sind. Auch hier stehen wir erst am Anfang einer neuen Etappe der Medienevolution, also am Anfang der Erkundung einer neuen raumzeitlichen Tiefe der Modellierungen, Steuerungen und Eingriffe in Natur- und Gesellschaftsprozesse.

Der digitale Wandel könnte also nicht nur ein tiefer, sondern ein sehr tiefer Einschnitt sein. Ein verantwortungsvolles Herangehen an die Folgen eines solchen technologischen Innovationsschubes sollte sich nicht auf reaktive Maßnahmen wie die Verlagerung klassischer Prozesse ins Digitale oder auf bloße industriepolitische Anreize beschränken. Es gilt vielmehr, die Gesamtheit des vorhandenen Wissens – auch über andere große Transformationsprozesse – zu berücksichtigen.

Die Deep History lehrt uns, in langfristigen Entwicklungen zu denken, die Pfadabhängigkeiten, in denen wir verharren, zu erkennen und auch die Möglichkeiten des Einschlagens neuer Pfade zu identifizieren. Die skizzierten Einblicke in die technologische und kulturelle Evolution regen dazu an, sich proaktiv, antizipativ, auch in policies und Gesetzgebung, den vielfältigen, noch unbekannten oder undenkbaren, aber latent angelegten Möglichkeiten von Digitalisierung und KI für die Gesellschafts- und Weltgestaltung zu öffnen. Ein historisch informierter Blick in eine tiefere Zukunft der Technosphärenentwicklung wird gebraucht. Von hier aus auf die Gegenwart zuzugehen könnte uns dabei helfen, auch die aktuellen Probleme besser zu durchdringen.

Bammé, Arno (2011): Homo occidentalis. Von der Anschauung zur Bemächtigung der Welt. Zäsuren abendländischer Epistemologie. Weilerswist: Velbrück Wissenschaft.

Bammé, Arno (2016): Geosoziologie. Gesellschaft neu denken. Marburg: Metropolis.

Bratton, Benjamin (2021): The Revenge of the Real. London: Verso.

Haidle, Miriam N./Bolus, Michael/Collard, Mark et al. (2015): The nature of culture: an eight-grade model for the evolution and expansion of cultural capacities in hominins and other animals. In: Journal of Anthropological Sciences, Jg. 93, S. 43-70.

Henrich, Josef P. (2016): The Secret of Our Success. How Culture is Driving Human Evolution, Domesticating Our Species, and Making Us Smarter. Princeton: Princeton University Press.

Institut für die Geschichte und Zukunft der Arbeit (IGZA) (Hrsg.): Matrix der Arbeit. Materialien zur Geschichte und Zukunft der Arbeit. Bd. 2. Die Agrikulturepoche, Berlin: J. H. W. Dietz Nachfolger 2023.

Löffler, Davor (2018): Distributing potentiality. Post-capitalist economies and the generative time regime. In: Identities. Journal for Politics, Gender and Culture, Jg. 15, Nr. 1–2, S. 8-44.

Löffler, Davor (2019): Generative Realitäten I: Die Technologische Zivilisation als neue Achsenzeit und Zivilisationsstufe. Eine Anthropologie des 21. Jahrhunderts. Weilerswist: Velbrück Wissenschaft.

McGhee, George (2011): Convergent Evolution. Limited Forms Most Beautiful. Cambridge, MA/London: MIT Press.

Morris, Simon Conway (2003): Life’s Solution. Inevitable Humans in a Lonely Universe. Cambridge: Cambridge University Press.

Pahl, Hanno (2021): Geld, Kognition, Vergesellschaftung. Soziologische Geldtheorie in kultur-evolutionärer Absicht. Wiesbaden: Springer VS.

Pasquinelli, Matteo (2023): Eye of the Master. A Social History of Artificial Intelligence. London: Verso.

Paul, Axel (2023): Wie revolutionär war die „neolithische Revolution“? Über die naturalen und sozialen Voraussetzungen der Agrikultur in der Levante. In: Historische Anthropologie, Jg. 31, Nr. 2, S. 211–241.

Renn, Jürgen (2022): Die Evolution des Wissens. Eine Neubestimmung der Wissenschaft für das Anthropozän. Berlin: Suhrkamp.

Schlaudt, Oliver (2022): Das Technozän. Eine Einführung in die evolutionäre Technikphilosophie.  Frankfurt am Main: Vittorio Klostermann.

Scott, James C. (2017): Against the Grain. A Deep History of the Earliest States. New Haven/London: Yale University Press.

van Schaik, Carel/Michel, Kai (2016): Das Tagebuch der Menschheit. Was die Bibel über unsere Evolution verrät. Reinbek: Rowohlt.

Zuboff, Shoshana (2018): The Age of Surveillance Capitalism: The Fight for a Human Future at the new Frontier of Power. London: Profile Books.

Löffler, Davor/Schlaudt, Oliver (2024): Was bedeutet der digitale Wandel menschheitsgeschichtlich betrachtet? Ein Blick aus der Deep History in eine ungewisse Zukunft. In: Verantwortungsblog. https://zevedi.de/was-bedeutet-der-digitale-wandel-menschheitsgeschichtlich-betrachtet/ [12.06.2024].
https://doi.org/10.60805/qv23-y178

Kategorien
Akzentfarbe: hellblau Autor: Georg Fischer Uncategorized Verantwortungsblog

Verantwortung im Zeitalter digitaler Kopien

Verantwortung im Zeitalter digitaler Kopien

Als Walter Benjamin seinen nun berühmt gewordenen Aufsatz zur technischen Reproduzierbarkeit veröffentlichte, konnte er unmöglich vor Augen gehabt haben, wie konkret sich sein Anliegen in unserer Zeit ausdifferenziert hat. Technische Reproduzierbarkeit bedeutet zunächst — eine Entfernung eines Objekts von seinem Ursprung, dem Hier und Jetzt, so nannte es Benjamin seinerzeit schon. Diese Entfernung wirkt durch diverse entkoppelnde Prozesse auf den Ebenen der Repräsentation, Replikation und Referenzierung. Dabei bilden sich neue Formen von Verantwortlichkeiten, besonders in den informellen Zonen des digitalen Raumes. Eine Analyse.

Von Georg Fischer | 28.05.2024

Ein Stabel von Papieren.
Erstellt mit Adobe Firefly. Prompt: „illustration of a pile of digital copies, light blue background, style: mechanistic“

Als Walter Benjamin in den 1930er Jahren seinen Aufsatz Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit verfasste, hatte er vor allem die Fotografie und den Film als Medientechnologien vor Augen. Von digitalen Kopien, Mashups, Memes und Remixes, aber auch von softwaregestützter Datenanalyse, large-language models sowie weltumspannender Vernetzung durch das Internet konnte er zu seiner Zeit nichts wissen. Benjamins Beobachtungen sind berühmt geworden und haben eine Vielzahl an medienwissenschaftlichen Ansätzen nach sich gezogen, in der Mehrheit vor allem mit den Fragen nach Aura und Originalität befasst. Bemerkenswerterweise hat es jedoch Benjamin versäumt, eine präzise Definition von dem zu geben, was er technische Reproduzierbarkeit nannte.

Im Anschluss an Benjamin möchte ich das Stichwort der technischen Reproduzierbarkeit analytisch zergliedern und damit für eine empirisch orientierte und gleichermaßen theoretisch fundierte Erforschung von Verantwortung in der digitalen Transformation aufbereiten. Technische Reproduzierbarkeit lässt sich verstehen als gesellschaftliche Verfügbarkeit solcher Technologien, mit denen sich Kopien anfertigen, verbreiten und bearbeiten lassen. Natürlich ist das Kunstwerk, wie Benjamin auch selbst und gleich zu Beginn seines Aufsatzes schreibt, immer schon reproduzierbar gewesen: Münzen etwa, über handwerkliche Methoden des Gießens oder Prägens. In der Moderne ändern sich aber Charakter und Qualität der Reproduzierbarkeit erheblich. Denn ihr Technisierungsgrad erhöht sich maßgeblich und in der Folge auch die Möglichkeit zur Automatisierung.

Beispielsweise ermöglichte die Erfindung der Fotografie im 19. Jahrhundert, Szenen relativ schnell medial festzuhalten und das in einer Abbildungstreue, die Zeichnungen oder ähnliche manuelle Verfahren nicht zuließen. Auch die Aufnahme und Speicherung von Klängen, die sich ab dem Ende des 19. Jahrhunderts etablierten, stellten eine Steigerung technischer Reproduzierbarkeit dar: Aufgenommene Musikstücke, Klänge, Geräusche und andere Töne konnten zuerst in Form von Wachswalzen, später auch mit Schallplatten oder Tonbändern gespeichert, mitgenommen und an anderer Stelle wieder abgespielt werden.

Darüber hinaus wurden die – als Kopien aufgezeichneten – originalen Schall- und visuellen Ereignisse für weitere Bearbeitung geöffnet, etwa durch Schneiden und Zusammenführen verschiedener Kopien. Das eröffnete die Möglichkeit, Kopien ausschnittsweise und in re-arrangierter Form zueinander in Beziehung zu setzen. Schließlich sind Reproduktionsverfahren zu nennen, die die gespeicherten Inhalte erneut auf Trägermedien bannen konnten, um Vervielfältigung zu erzielen. Der weitaus früher eingeführte Buchdruck dürfte dafür das augenscheinlichste Beispiel sein, da er es über das Lettern-Verfahren ermöglichte, Vervielfältigungen von Texten in ähnlicher Qualität in Serie zu produzieren. Mit dem Aufkommen digitaler Aufnahme-, Speicher- und Verbreitungsverfahren steigerte sich die technische Reproduzierbarkeit etwa seit der Jahrtausendwende noch einmal erheblich.

Ich schlage folgende Gedankenfigur vor, die die medialen Verfahren technischer Reproduzierbarkeit in drei analytischen Ebenen differenziert und damit auch die wechselseitigen Steigerungstendenzen erfassen kann. Die Unterteilung ist grundsätzlich auf handwerkliche, mechanische, industrielle, digitale und andere denkbare Formen technischer Reproduzierbarkeit anwendbar. Im Digitalen zeigen sich wegen der vielfältigen technischen Möglichkeiten die einzelnen Ebenen besonders deutlich.

Technische Reproduzierbarkeit wirkt – wie heute besonders gut zu erkennen ist – auf drei verschiedenen Ebenen: als Repräsentation von Wirklichkeit (1), als Replikation von Objekten (2) und als Referenz zwischen Kontexten (3).

(1) Zunächst zur Repräsentation: Hier ist das tatsächlich in seiner Funktion dokumentarische Aufnehmen und Festhalten von Wirklichkeit gemeint. Per Foto-, Video- oder Audioaufnahme lässt sich beispielsweise eine Szene festhalten, in der ein Raubvogel seine Beute ergreift. Besonders in visuell festgehaltener Form ist das eine reizvolle Szene, die in zahlreichen filmischen Naturdokumentationen vorkommt: zum Beispiel mit Teleobjektiv aus der Ferne herangezoomt und in Zeitlupe wieder abgespielt. Auch viele journalistische Formen des Abbildens zielen darauf, zu zeigen was (wie) war. Die Möglichkeit, ein Ereignis aus der Wirklichkeit – als Abbildung oder auf auditiver Ebene als Tonaufnahme – auf ein Medium zu bannen, in bestimmter Qualität zu speichern und zu einem späteren Zeitpunkt wieder abzurufen, bezeichne ich als Repräsentation.

(2) Eine gebannte Repräsentation lässt sich replizieren, also vervielfältigen und zwar je nach Speichertechnologie mit oder ohne Qualitätsverlusten. Ist die Repräsentation als digitale Datei gespeichert, kann diese in exakt gleicher Qualität auf einen anderen Datenträger übertragen werden (z.B. von einem USB-Stick auf eine Festplatte oder einen Server). Bei einem solchen Replikationsverfahren bleibt die Ausgangsqualität der Repräsentation bestehen. Lädt man das Video allerdings bei YouTube oder ein Foto bei Instagram hoch, kann sich die Qualität der Repräsentation verändern, da (abhängig von der technischen Umgebung) Kompressionsverfahren zur Minderung der Dateigröße zum Einsatz kommen.

(3) Auf der Ebene der Referentialität stehen Praktiken im Vordergrund, die neue Bezüge zur Kopie entstehen lassen – zumeist, indem man diese auch materiell nochmals anreichert. Nehmen wir wieder die Repräsentation mit dem Raubvogel: Sie könnte zum Beispiel mit einer neuen Tonspur unterlegt werden, die die Naturszene ins Lächerliche zieht, humorvoll kontextualisiert oder mit einer Chopin-Melodie in Moll zu einem Trauerspiel verwandelt. Die Szene könnte auch als Remix, Collage oder durch Montagetechniken, also mit Replikationsverfahren, in ein bestimmtes Licht gerückt werden, etwa indem ein Ausschnitt als Loop wiederholt, rückwärts abgespielt oder zerschnitten und rearrangiert wird. Auch eine einfache Betitelung kann die Naturszene mit neuen Bezügen, Bedeutungen, Kontexten etc. – kurz: mit neuen Referenzen – versehen.

Allen drei Ebenen ist gemeinsam, dass sich in ihnen – auf Grundlage von Verfahren technischer Reproduzierbarkeit – Entfernungen zum Original ereignen: die Repräsentation bildet das Objekt A als A¹ ab; die Replikation vervielfacht das Einzelobjekt B hin zu B¹, B², B³ usw.; und die Referenz schafft neue Bedeutungskontexte, indem ein Objekt C neue Bezüge zu C¹ oder C² usw. erhält. Wer sich dafür interessiert, könnte beispielsweise das „Wandern“ einer Kopie durch den (digitalen) Raum anhand von Reproduktionsverfahren näher untersuchen, um die stufenweise(n) Entfernung(en) zwischen Original und Reproduktionen zu beleuchten. Wichtig ist auch der Hinweis, dass mit jedem qualitativ bedeutsamen Schub technischer Reproduzierbarkeit typischerweise Diskurse entstehen, etwa um Originalität, um die Grenzen des Werk- oder Veröffentlichungsbegriffs, um Autor- bzw. Urheberschaft, um die Funktionalität bestehender ökonomischer Verwertungsgefüge sowie um die Zulässigkeit, Kontrollierbarkeit und Verantwortungszuordnung bei der Erstellung von Kopien.

Was lässt sich aus der analytischen Dreigliederung für das Verständnis von Verantwortung im Digitalen lernen? Ich versuche, meine Antwort anhand mehrerer aussagekräftiger Fälle und Phänomene zu formulieren, die den skizzierten drei Ebenen Rechnung tragen und gleichsam Benjamin mit Fragen der digitalrechtlichen Urheberschaft verbinden.

Digitale Reproduktionsverfahren ziehen, vor allem wenn sie in gesellschaftlicher Breite angewendet werden, praktische Verfahren zur Bearbeitung von Verantwortung nach sich. Ich schlage vor, diese unter den Gesichtspunkten der Individuation, Distribution und Delegation von Verantwortung heuristisch zu gliedern. Es ist offensichtlich, dass die definitorische Trennung dieser drei Gesichtspunkte nicht perfekt ist, aber sie sollte dabei helfen, den Blick für die verschiedenen Modi der Verantwortungsverarbeitung in der digitalen Welt zu schärfen.

Als sich um die Jahrtausendwende herum digitale Tauschbörsen für Musik, Filme und digitale Dateien etablierten, reagierte die Medienindustrie mit Kampagnen und juristischer Einflussnahme. Es ging ihr darum, die Verantwortung für das potentiell weltweite digitale Replizieren von urheberrechtlich geschützten Werken möglichst zu individuieren, also auf Einzelpersonen individuell zuzuordnen und damit juristisch verfolgbar und schließlich ökonomisch verwertbar zu machen. Vor allem die technisch affinen Jugendlichen und jungen Erwachsenen hatten zuvor von einem doppelten Schub technischer Reproduzierbarkeit profitiert, denn sie mussten nicht mehr in Plattenläden oder Videotheken gehen, um die Angebote der Unterhaltungsbranche zuhause zu konsumieren. Stattdessen konnten sie – ausgestattet mit Internetanschluss und entsprechender Peer-to-Peer-Software wie beispielsweise Napster – Musik, Filme, Fotos etc. auf den eigenen Rechner herunter- und selbst auch in die Netzwerke hochladen. Technische Kompressionsformate wie das berühmt-berüchtigte MP3 für Audiospuren oder auch MP4, Pendant für audiovisuelle Inhalte, machten es fortan möglich, musikalische und filmische Repräsentationen in akzeptabler Dateigröße zu speichern. Ob sie es merkten oder nicht – mit der Benutzung von Napster und Co. wurden zahlreiche Jugendliche gleichzeitig zu öffentlichen Anbieterinnen und Sendern von urheberrechtlich geschützten Werken, die sie in handlichen Datenpaketen im Internet replizierten – und damit auch zum Ziel der auf Online-Piraterie gerichteten Strafverfolgung.

Die Diskussion um urheberrechtlich relevante Datenspuren nahm in den Folgejahren auch mit avancierteren Sharing-Technologien nicht ab. Unter derartige Spuren fielen auch solche, die auf dem sogenannten BitTorrent-Protokoll basieren, das es ermöglicht, eine Datei aus mehreren, auch unvollständigen Quellen vollständig zu replizieren. Das hieß in der Konsequenz: Eine BitTorrent-Nutzerin musste nicht einmal mehr das komplette Werk als Datei besitzen. Es reichten auch einzelne Datenpakete, um sie zur Senderin des Werks zu machen. Schon mit der partiellen Kopie galt das Werk als technisch reproduziert. Die durchaus fragwürdigen Praktiken der Strafverfolgung kamen erst dann in der Breite zum Erliegen, als die großen Häuser der Medienindustrie teilweise oder vollständige Kontrolle über Streaming-Technologien und damit über die verbundenen Verwertungsgefüge erlangten.

Heute stellt sich die Situation etwas anders dar: Digitale Social-Media-Plattformen wie Facebook, Twitter oder TikTok haben nach ihrem bemerkenswerten Siegeszug in den 2010er Jahren bis heute einen gewaltigen Raum digitaler Reproduzierbarkeit für die Öffentlichkeit geschaffen. Die medientechnischen Kopiervorgänge auf den Plattformen erscheinen uns heute so selbstverständlich, dass wir sie oft gar nicht mehr als Akte technischer Reproduzierbarkeit wahrnehmen, etwa wenn wir ein Selfie aufnehmen (Repräsentation), es von unserem Smartphone dort hochladen (Replikation) und es in humorvoller Absicht mit Filtern, Stickern oder anderen Elementen schmücken oder aber im Kontext interaktiver Internet-Trends (Memes, Remixes, Challenges etc.) veröffentlichen (Referenz). Zugleich hat sich auch die Vorstellung des Kopierens von der Annahme bestimmter technischer Vollzüge, die den Kopier-Akt „ausmachen“, ein Stück weit gelöst.

Wer heute für die in den Sozialen Medien erscheinenden Inhalte verantwortlich ist, darüber gibt es divergierende Vorstellungen. Einerseits dominieren (vor allem kulturell-ethisch geformte) Vorstellungen von individueller Verantwortlichkeit. Andererseits hat sich beispielsweise mit dem Inkrafttreten des Urheberrechts-Diensteanbieter-Gesetz (UrhDaG) im Jahr 2021 oder mit der seit 2019 geltenden Datenschutz-Grundverordnung (DS-GVO) der „Ballast“ der Verantwortung teilweise in Richtung Plattformen oder anderer „Diensteanbieter“ verschoben, was der Individuation von Verantwortung entgegenläuft. Nach dem UrhDaG etwa stehen diverse Plattformen nun selbst in der Verantwortung, Inhalte zu filtern (mehr oder weniger juristisch erzwungen durch die sog. „Upload-Filter“ mit automatisierter Bild-, Sprach- und Texterkennung). Und nach der EU-weit verpflichtenden DS-GVO dürfen die auf Plattformen gewonnenen personenbezogenen Nutzungsdaten nur im Rahmen bestimmter Regeln erhoben, verarbeitet und weitergesendet werden.

Dazu tritt eine neue Generation von Software-Unternehmen (wie beispielsweise OpenAI), die durch ihre Technologien sog. Künstlicher Intelligenz den etablierten Medienindustrien bei der Produktion von Musik, Text, Bildern und Videos Konkurrenz machen. Durch den kürzlich in Kraft getretenen AI-Act werden die Randbedingungen hierfür in der EU teilweise reguliert. Die sog. large-language models (LLM’s) operieren, wenn sie vorhandene Werke nutzen, vor allem auf der Ebene der Referentialität, da sie auf Basis großer, oftmals illegal zusammengetragener Quellen und ausgefeilter statistischer Methoden neue, plausibel oder ästhetisch wirkende Inhalte wie Texte, Bilder oder Musik generieren können. Automatisiert von GPT generierte Texte etwa basieren aber nicht auf Wahrheit oder auch nur semantischen Zusammenhängen in einem strengen, geprüften und „abbildbaren“ Sinne, sondern lediglich auf statistischen Wahrscheinlichkeiten, nach denen der nächste Buchstabe, das nächste Wort oder der nächste Satz errechnet werden. Auch anhand dieses aktuellen Schubs technischer Reproduzierbarkeit lässt sich beobachten, wie die Zurechnung von Verantwortung individuiert wird: So geben sich wissenschaftliche Einrichtungen etwa neue Regelungen (Richtlinien, Leitbilder, Policies), die den Umgang mit KI-Technologien durch die Forschenden deutlicher transparent machen sollen. Gefordert wird auch, genau anzugeben, welche Inhalte Autorinnen und Autoren in welcher Weise mit KI-Technologien erstellt oder bearbeitet haben.

Eine mögliche Antwort auf überbordende Reproduktionsmöglichkeiten ist der Verzicht auf klassische Urheberschaft und auch aufs Original. Im Kontext distribuierter Verantwortung aufgrund gesteigerter technischer Reproduzierbarkeit habe ich zunächst die Online-Enzyklopädie Wikipedia vor Augen. Ihre Funktionsweise liegt im kollektiven Zusammentragen, Schreiben, Editieren und Verbessern von Inhalten auf Grundlage digitaler Werkzeuge. Nutzende tragen Repräsentationen (Fotos, Videos, Klangaufnahmen, Musik etc.) zusammen, laden diese als Dateien in die Wikipedia (Replikation) und referenzieren die verschiedenen Inhalte nach bestimmten Regeln und Mustern miteinander (durch Verlinkungen, Zitate, Einbindungen etc.). Die Wikipedia ist freilich nur ein Beispiel für die vielfältigen Wiki-Praktiken, die auch in anderen Kontexten Anwendung finden. So bietet die Freie Universität Berlin1 allen Angehörigen den Zugang zu ihrem Wiki an, um eine gemeinsame Wissenssammlung zu universitätsbezogenen Vorgängen zu erhalten. Dahinter steht ein quasi-organisches Organisationsprinzip: Die Verantwortung, einen Eintrag in der Wikipedia zu erstellen und zu veröffentlichen, ist nicht auf eine einzelne Person oder Gruppe beschränkt, sondern auf eine große Menge an Personen distribuiert, die sich durch kleinteilige Aushandlungsprozesse darüber einig werden (müssen), wer welche Inhalte beiträgt, sichtet, verbessert etc.

Für das Gelingen der Wikipedia sind offene Lizenzen elementar (in der Regel von Creative Commons), da diese die offene Nutzung, nachträgliche Bearbeitung und Einspeisung der Inhalte erlauben. Offenheit heißt hier: auf allen drei Ebenen technischer Reproduzierbarkeit möglichst uneingeschränkt operieren zu können. Die kollaborativ verfassten Texte stehen meines Wissens alle unter der Lizenz CC BY-SA.2 Diese erlaubt es pauschal, dass Interessierte den Text unter Nennung der Quelle und der Lizenz ohne Mengenbeschränkung replizieren und sogar verändern dürfen (gedeckt durch das sogenannte BY-Modul). Das SA-Modul (Abkürzung für „share alike“) schreibt vor, dass etwaige Veränderungen wiederum unter der gleichen Lizenz veröffentlicht werden müssen. Das soll zukünftige repräsentative, replizierende und referentielle Arbeit so einfach wie möglich machen. Viele andere in der Wikipedia auffindbaren Inhalte, darunter zahlreiche Bilder und Videos, stehen unter der etwas liberaleren Lizenz CC BY,3 also ohne SA-Modul. Weiter sind dort viele gemeinfreie Inhalte zu finden. Gemeinfrei bedeutet, dass der Urheberrechtsschutz abgelaufen ist (englisch: Public Domain) oder die Erstellenden sämtlich darauf verzichten, ihre Urheberrechte an dem Werk geltend zu machen. Das stellen sie etwa über die in der Wikipedia beliebten Lizenz CC0 („CC Zero“)4 sicher, die einen pauschalen Rechteverzicht zum Ausdruck bringt und einen der Gemeinfreiheit gleichgestellten Status der Werke bewirkt.

Interessant ist in diesem Zusammenhang zu bemerken, dass die CC-Lizenzen – von CC0 einmal abgesehen – aufgrund ihrer lizenzrechtlichen Konstruktion nicht ohne individuelle Zurechnung auskommen. Verletzt ein Nutzer die Vorgaben, etwa weil er das genutzte Werk als sein eigenes ausgibt und damit das BY-Modul missachtet, kann ihm das als Urheberrechtsverstoß ausgelegt werden. Entscheidend ist aber der Vertrauensvorschuss, den Lizenzgebende durch Creative-Commons-Lizenzen prinzipiell zu geben bereit sind: Sie signalisieren mit der CC-Lizenz, nicht individuell um Erlaubnis gebeten werden zu müssen, wenn jemand das Werk gemäß der Lizenzvorgaben nachnutzen will – vielmehr geben sie zu erkennen, dass sie auf persönliche urheberrechtliche Kontrolle zu Gunsten ihnen unbekannter Nutzungskontexte zu verzichten.

Es gibt weitere Beispiele aus der digitalen Welt, die im Grenzbereich von distribuierter und delegierter Verantwortung liegen und je nach Fall eher zur einen oder anderen Seite neigen.

Diverse Online-Foren etwa fungieren als digitale Selbsthilfegruppen und nehmen dabei großen Unternehmen ein Stück weit die Arbeit ab. Oft handelt es sich um Foren zu technischen Fragen bei Anbietern von Internet-Tarifen und Mobilfunk. Vodafone bietet beispielsweise ganz offiziell ein großes Forum für die „Vodafone-Community“5 an, in dem Nutzende Fragen stellen, beantworten und damit ihre fachliche Expertise unter Beweis stellen können. Das Forum funktioniert nach dem Prinzip von Nutzerin zu Nutzerin. Für Vodafone dürfte das günstige Effekte haben: der Konzern bekommt auf diese Weise bequem ein „Ohr auf die Schiene“, kann also die individuellen Bedarfe und Anregungen, aber auch dirty little tricks zur Problemlösung der eigenen Kundschaft ohne ausufernde Kosten für Marktumfragen oder ähnliches beobachten und – falls sinnvoll – aufgreifen.

Noch etwas anders gelagert ist das Beispiel akademischer Schattenbibliotheken. Das sind illegale oder zumindest urheberrechtlich fragwürdige Sammlungen von wissenschaftlichen Texten. Sie sind nicht nur Ausdruck lebendiger und einfallsreicher Internet-Kultur – sie beheben auf informelle oder illegale Weise auch das Problem der wissenschaftlichen Informationsversorgung, das im Zuge der Zeitschriftenkrise entstanden ist. Denn mehrheitlich stehen die betreffenden Texte – sofern nicht von Anfang an im Open Access veröffentlicht – hinter den Bezahlschranken der wissenschaftlichen Verlagshäuser. Den Zugang zu solchen Texten erwerben entweder Einzelpersonen oder wissenschaftliche Bibliotheken im Abonnement – das bedeutet in der Realität, dass nicht jeder Forscher von jeder Universität Zugang zu jedem gewünschten Aufsatz bekommen kann. Abhilfe schaffen hier digitale Schattenbibliotheken und -praktiken. Verschiedene Formen lassen sich unterscheiden: Zum einen große, aggregierte Sammlungen mit Anspruch auf größtmögliche Vollständigkeit wie SciHub, Libgen oder Anna’s Archive, die oft aus jahrelangen Sammelaktivitäten oder Leaks hervorgegangen sind und sich durch anspruchsvolle, robuste Technologie mit Redundanzen und Verschleierungen erfolgreich am Leben erhalten. Daneben gibt es kleinere, thematisch spezialisierte Gruppen wie AAARG („Artists, Architects und Activists Reading Group“) oder studentisch organisierte Social-Media-Kanäle auf Telegram, in denen auf Zuruf ein bestimmter Text von einer Benutzerin freigeschaltet wird. Interessant ist auch der Twitter-Hashtag #ICanHazPDF,6 über den man einen Wunsch nach einem Text formulieren kann und dann hoffen muss, dass ein freundlicher Kollege ihn zusendet. Hierfür hat sich eine Online-Etiquette etabliert, die abermals an die individuelle Verantwortung der Nutzenden appelliert: Die Regelung soll verhindern, dass Texte mehrfach besorgt und verschickt werden oder es gar zu juristischen Verwicklungen kommt. Gemäß der Etiquette sollen die Anfragenden ihren Tweet wieder löschen, sobald sich ihre Anfrage erledigt hat. Die Slang-Schreibweise geht übrigens auf das Internet-Meme „I Can Has Cheezburger“7 zurück.

Schließlich möchte ich die sog. Content Moderation als Beispiel für Delegation von Verantwortung im digitalen Raum anführen. Damit sind Organisationen gemeint, die im Auftrag großer Social-Media-Plattformen die von Nutzenden hochgeladenen Inhalte prüfen und dann freigeben oder löschen. Einer größeren Öffentlichkeit bekannt wurde das Verfahren etwa durch den Dokumentarfilm „The Cleaners“,8 der den Alltag von Facebooks Content Moderators zeigte und eindrücklich vor Augen führte, wie Facebook die sehr unangenehme und belastende Aufgabe in Niedriglohn-Länder des Globalen Südens auslagert. Oftmals müssen die sogenannten Cleaner mehrere Bilder pro Minute sichten und über deren Rechtmäßigkeit auf der Plattform entscheiden. Dabei bekommen sie massenhaft Repräsentation von furchtbaren Verbrechen wie Gewaltpornografie, Enthauptungen, Misshandlungen oder Folterungen zu Gesicht, die auf die Plattform hochgeladen werden und von Nutzenden als unzulässig gemeldet werden. Während die überwiegende Anzahl der Nutzenden von Facebook nur den Feed und die dortigen Funktionen kennen, macht der Film die notwendige Arbeit sichtbar, um den Feed möglichst sauber von unzulässigen Darstellungen zu halten und damit das werbebasierte Geschäftsmodell von Facebook nicht zu gefährden. Die psychischen Schäden, die Facebook bei den Content Moderators anrichtet, ist mit Geld nicht aufzuwiegen, denn die Betroffenen tragen die ausgelösten Traumata oft jahrelang oder für ihr ganzes Leben mit sich herum.

Die verschiedenen dargestellten Phänomene, die allesamt auf Steigerungen technischer Reproduzierbarkeit in den genannten drei Ebenen zurückzuführen sind, lassen erkennen, mit welchen diversen Praktiken und Motivlagen und von welchen verschiedenen Gruppen und Akteuren Verantwortung im Digitalen nachgekommen wird. Technische Reproduzierbarkeit bedeutet dabei in erster Linie eine Entfernung eines Objekts von seinem Ursprung, dem Hier und Jetzt, wie Benjamin es seinerzeit schon nannte. Diese Entfernung wirkt durch entkoppelnde Prozesse auf den Ebenen der Repräsentation, Replikation und Referenzierung. In bestimmten Konstellationen wird das als Kontrollverlust, im oben genannten Beispiel der CC-Lizenzen sogar als gezielter Kontrollverzicht wahrgenommen. Dennoch löst sich das Band zwischen dem, was jemand nutzt, und einer Herkunft, die es zur Kopie macht, nicht völlig auf. Das Internet ist bislang kein Reich der völligen Beliebigkeit geworden, und auch formlose Regeln der Weitergabe von Kopien können Bestand gewinnen. Verantwortung heißt in diesem Zusammenhang also, für das eigene Handeln eine Reaktion, gewissermaßen eine Antwort, vorzuhalten, und zwar möglichst so, dass die Antwort den ausgelösten Effekten, zu befürchteten Konsequenzen oder zu erwarteten Folgehandlungen gerecht wird. Die Darstellung zeigte dabei auch, wie vielfältig das Spektrum der Verantwortungsübernahme aussehen kann: durch Individuation, Distribution oder Delegation.

  1. Freie Universität Berlin (2024): Wikis an der Freien Universität [Webseite], https://www.cedis.fu-berlin.de/services/systeme/wikis/index.html [08.05.2024]. ↩︎
  2. Creative Commons (2024): CC BY-SA 4.0 DEED [Webseite],  https://creativecommons.org/licenses/by-sa/4.0/deed.de, [08.05.2024]. ↩︎
  3. Creative Commons (2024): CC BY 4.0 DEED [Webseite], https://creativecommons.org/licenses/by/4.0/deed.de, [08.05.2024]. ↩︎
  4. Creative Commons (2024): CC0 1.0 DEED [Webseite], https://creativecommons.org/publicdomain/zero/1.0/deed.de, [08.05.2024]. ↩︎
  5. Vodafone (2024): Vodafone Community [Webseite], https://forum.vodafone.de/t5/Mit-Vertrag-Tarife-Rechnung/bd-p/2001, [08.05.2024]. ↩︎
  6. X (2024): #IcanHazPDF,  https://twitter.com/search?q=%23icanhazpdf&src=typed_query&f=live, [08.05.2024]. ↩︎
  7. Wikipedia (2024): I Can Has Cheezburger,  https://en.wikipedia.org/wiki/I_Can_Has_Cheezburger%3F, [08.05.2024]. ↩︎
  8. The Cleaners (2018) von Hans Block & Moritz Riesewieck [Film], http://www.thecleaners-film.de/, [08.05.2024]. ↩︎

Fischer, Georg (2024): Verantwortung in Zeiten digitaler Kopien. In: Verantwortungsblog. https://zevedi.de/verantwortung-im-zeitalter-digitaler-kopien [28.05.2024].
https://doi.org/10.60805/3xe4-e007

Kategorien
Akzentfarbe: grün Autor: Petra Gehring Uncategorized Verantwortungsblog

Versuch über das V-Wort

Versuch über das V-Wort

Man muss es schon zugeben: „Verantwortung“ ist zwar schnell gesagt, aber eigentlich kann niemand rasch mal angeben, was der Ausdruck wirklich meint. Auch die Philosophie tut sich mit dem Wort schwer. Zu wuchtig, irgendwie zeigefingerhaft – und eben: trotzdem kaum auf den Punkt zu bringen.

Von Petra Gehring | 15.05.2024

Ein digital anmutender Safe.
Erstellt mit Adobe Firefly. Prompt: „illustration of safe digital technology, mechanistic; grey, green, and black colors; minimalistic, cubism“

Versuchen Sie es mal. Oder suchen Sie nach einer überzeugenden Definition. Im Historischen Wörterbuch der Philosophie finden Sie die Unterscheidung einer auf Rechenschaftslegung abstellenden Form des Verantwortungsdenkens, für welches die Maßstäbe eines Gegenübers (auf die wir „antworten“ müssen) ausschlaggebend sind, von einer „ethischen“ Verantwortungsdiskussion. Letztere umfasse Aspekte wie Rollenbilder (es gibt Amts- oder berufstypische Verantwortung), die Sorge um einen Gegenstand (für den Verantwortung übernommen werden muss) sowie Verantwortlichkeiten im Großmaßstab, denn auch kollektiv kann Verantwortung entstehen (vgl. Holl u.a. 2001). Wikipedia macht es uns etwas einfacher und stellt ab auf Psychologie: Verantwortung ist die richtige Einschätzung unserer Fähigkeit, ein bestimmtes Ziel zu erreichen und uns darauf dann auch zu verpflichten – also sagen wir mal: die Fähigkeit nicht zu viel zu versprechen, eine Art planerische Kompetenz. Zudem sei Verantwortung ein „Gefühl“ (vgl. o.A. 2004).

So oder so hat der digitale Wandel die Verantwortung zum Zauberwort gemacht. Verantwortungsvoll, verantwortungsbewusst – das meint dann etwa: zentriert auf den Menschen, rechtlich abgesichert, Vermeidung unerwünschter Technikfolgen. Ethikgremien entwickeln hierzu „Prinzipien“, so nennt beispielsweise 2019 eine KI-Expertengruppe der EU „respect for Human Autonomy”, „Prevention of harm“, „Fairness”, „Explicability” und hält zuvor fest, KI habe „lawful, ethical and robust“ zu sein. Denn: „It is our individual and collective responsibility as a society to work towards ensuring that all three components help to secure Trustworthy AI” (AI-HELG 2019: 12, 5 –Hervorhebung von mir).

Auch auf Unternehmenswebseiten finden sich Bekenntnisse in Sachen Digitalverantwortung, denn „CDR“, Corporate Digital Responsibility ruft ebenfalls oft „Prinzipien“ auf. Sieben Stück sind es etwa in einem „CDR-Manifest“ von 2021, initiiert durch den (so stellt er sich vor) „Digital Transformation Influencer“ Rob Price (2021). Die Deutsche Telekom stellt auf ihrer Webseite sogar ein ganzes „Haus der Verantwortung“ vor (Deutsche Telekom 2004a). „Es ist unsere Digitale Verantwortung“, kann man dort lesen, „sich (sic!) […] an der Diskussion um Ethik zu beteiligen und die Entwicklung ethischer Rahmenbedingungen für unsere Technologien zu fördern. Unsere Werte und die bewusste Entscheidung, den Mensch in den Mittelpunkt zu stellen, geben uns die Richtung im digitalen Raum vor“ (Deutsche Telekom 2004b). Die Unternehmensberatung pwc wiederum ordnet der Verantwortung weniger die Diskussionsbeteiligung und die Förderung von Rahmenbedingungen zu, als vielmehr die Forderung, Ethik auch wirksam werden zu lassen:

„Digitale Ethik ist die strategische Ausrichtung nach dem richtigen Handeln in der Digitalisierung und Digitale Verantwortung fordert, dieses Handeln nach gesellschaftlichen, ökologischen und ökonomischen Nachhaltigkeitsanforderungen umzusetzen.“ (pwc Deutschland 2024)

Und das Beratungsunternehmen Swiss Insights, das ein digitalethisches Fairness-Label vertreibt, hält fest:

„Digitalisierung fordert von Unternehmen Wertebewusstsein und verantwortungsvolles Handeln – nur so kann die Akzeptanz der Gesellschaft für neue Technologien und Geschäftsmodelle erreicht werden.“ (Swiss Insights 2024) 

Die Reihe der Beispiele ließe sich fortsetzen. Insbesondere stellt die Rede von Verantwortung oder Verantwortungsübernahme irgendwie auch aufs Handeln ab. Von daher könnte man es glatt bei dieser Minimalbedeutung des V-Wortes lassen: Bloßes Geschehenlassen reicht nicht aus.

Bliebe „Verantwortung“ im Diskurs um Digitaltechnologie damit also kaum mehr als ein unbestimmtes Signalzeichen – wie: „Macht endlich!“ oder auch: „Bitte nicht zu krass“? Oder: „Don’t be evil“? Oder wäre der Ausdruck sogar in dieser Hinsicht leer und stünde somit lediglich für die Versicherung, derjenige, der Verantwortung beschwört, sehe zwar Gefahren, bringe aber gute Absichten mit?

Immerhin ist zumindest der Ruf nach Verantwortung kein Spaß. Nicht nur Unternehmen, sondern auch besorgte Bürgerinnen und Bürger, Medienschaffende, Wissenschaftler und auch Parlamentarierinnen setzen Hoffnungen in das Wort. Sie verbinden damit eine ähnlich dringliche Erwartung, der Digitale Wandel müsse gestaltbar sein – dürfe also nicht aus dem Ruder laufen und solle vielleicht sogar in gewissen Punkten klare Grenzen haben – wie es hinsichtlich der Biodiversitäts- und Klimakrise der Fall ist und wie es auch angesichts der Atomkraft seit Tschernobyl und Fukushima auf der Hand liegt. Fast scheint es, als könne man neuen Technologien kaum mehr etwas anderes in den Weg stellen als das V-Wort. Das nur bitte endlich mal jemand mit Macht hereinschieben soll, damit es bewirkt, was es meint. Wir sind in der Defensive – das spüren wir, wenn der Ruf nach Verantwortung erklingt.

Verantwortung werde uns „aufgezwungen“ – das ist auch die Sicht des Technikphilosophen Hans Jonas, der (noch nicht am Beispiel des Digitalen) „Furcht“ für den besseren Ratgeber hält als ein Technikvertrauen, demzufolge man das Verantwortungsproblem auf später verschieben kann. 1 Jonas macht den rigiden Vorschlag, neue Technologien müssten erst den Erweis ihrer Harmlosigkeit erbringen, bevor man sie politisch zulässt (und Neuerungen mit Restrisiko müssten zudem rückholbar bleiben). Leider schlägt auch Jonas nur Maximen vor, an die wir uns bei der Zulassung gefährlicher neuer Technologien halten sollen, hantiert aber mit dem Verantwortungsbegriff, als sei dessen Kern im Grunde klar.

Versuchen wir dennoch, digitalpolitische und digitalethische Verantwortungskonzepte zu sortieren. Recht klar lassen sich nämlich ein juristischer Zuschreibungsbegriff, demgemäß Verantwortung die Zuweisung einer rollenbedingten Zuständigkeit (mit Rechenschaftspflichten und gegebenenfalls auch Haftung) meint, von einem moralischen Selbstverpflichtungssignal unterscheiden, das gerade die Freiwilligkeit und auch das Bemühenshafte der Verantwortungsübernahme herausstellt. Im ersten Fall muss sich jemand kümmern (und auch dafür einstehen). Im zweiten Fall ist Verantwortung eine Sache der Selbstfestlegung und damit auch der guten Absicht: jemand will aus freien Stücken moralisch sein, stellt dies heraus und wirbt hinsichtlich der Glaubwürdigkeit dieses Schrittes um öffentliches Vertrauen.

In einem dritten Verständnis (und hier sind wir dann sehr dicht bei der Defensive und beim Zwang) kippt Verantwortung um und wird ein Forderungsbegriff, ein Ausdruck nämlich, der Auge-in-Auge einem potenziellen Verantwortungsträger gegenüber den Appell formuliert, jemandem – sei es den Schwächsten, sei es der Natur, sei es kommenden Generationen oder gar der Menschheit insgesamt – werde die Übernahme von Verantwortung geschuldet. Verantwortung wird in diesem dritten Fall also eingeklagt. Dabei kann entweder eine bereits bestehende Verpflichtung ins Feld geführt werden (Fall 1 – die Verantwortung existiert in unbestreitbarer Weise) oder aber die Erwartung zielt darauf ab, jemanden zum Schritt in die Verantwortung zu bewegen (Fall 2 – eine bislang noch offene Verantwortlichkeit gälte es zu übernehmen). Wer möchte, kann die erste Konstellation dem Recht zuordnen und die zweite der Moral, was allen, die Verantwortung als Forderungsbegriff nutzen wollen (Fall 3), die Machtfrage vor Augen führt: Wo Verantwortung nur „ethisch“ ist, hängt man von der Bereitschaft derjenigen ab, die man in die Pflicht nehmen will. Und auch Umfang, Dauer, Zumutbarkeit etc. von Verantwortung bleiben im Zweifel bestreitbar. Das Hauptproblem ist freilich, wo es um Verantwortung für neue Technologien geht, ein anderes. Das nämlich, dass „wir“ fast immer sowohl in der Rolle desjenigen, der Verantwortung schon hat als auch derjenigen, die sie zu übernehmen hätte, als auch in der Rolle jener sind, die Verantwortung möglichst dringlich einfordern möchten.

Anders gesagt: Nur, wo er überhaupt ein echtes, ein auf andere Weise als sich selbst zum Handeln berufenes Gegenüber findet, hat der „Ruf“ nach Verantwortung überhaupt Sinn. Die Mehrwertigkeit der Verantwortung wird zur Falle, wo Verpflichtung (Fall 1), Eigenverantwortung (Fall 2) und Inpflichtnahme (Fall 3) nicht mehr wirklich trennbar sind. Auch aus diesem Grund müssen klassische Ethiken an der Dimensionierung neuer Technologien scheitern: Die Bewältigung gesamtgesellschaftlicher Herausforderungen lassen sich umso schlechter einem Verantwortungsträger zuschreiben, je diffuser der öffentliche Diskurs die Herausforderungen eigentlich bei sich selbst zu suchen hätte und je stärker es der Konsumwillen aller ist, der die Technologieentwicklung treibt – und dies zu Lasten nicht sinnfälliger Weise der Natur (wie im Rahmen der ökologischen Frage), sondern ‚lediglich‘ zu Lasten zivilisatorischer Errungenschaften wie Bildung, Frieden oder Demokratie. Verantwortung bedarf zwar des Nachdenkens – und in der eigenen Person kann man Rollen-, Eigen- und vielleicht sogar Menschheitsverantwortung verbinden. Aber Verantwortungssemantik, die politisch etwas bewirken will, verträgt keinen Kurzschluss ihrer drei Versionen. Diese bittere Einsicht geht über Jonas hinaus, der sich noch an einen „Staatsmann“ richtet, der den Einsatz von Technik als ein „Mittel“ vor sich sieht, auf das er auch verzichten kann.2 Gebraucht werde „Macht über die Macht“ (Jonas 1979: 254) – auch das legt eher das Umsteuern eines Staatsapparates nahe als Formen der Bändigung einer Technologieentwicklung, die sich aus der Gesellschaft selbst heraus ergibt. 3

Ich schwenke zurück zum digitalethischen Feld, wo sich in der Tat das V-Wort vor allem dann bewährt, wenn es auf eine haftungsrechtliche Verantwortlichkeit abzweckt. So hat eine 2018 zunächst im Bundesministerium für Justiz und Verbraucherschutz, inzwischen beim Bundesumweltministerium und einem mit diesem kooperierenden „Institut für Verbraucherpolitik“ (vgl. ConPolicy 2024) verortete CDR-Initiative einen Kodex mit neun Prinzipien formuliert, von denen eines „Verantwortlichkeit“ heißt:

Prinzip 8: Verantwortlichkeit. Wir stellen sicher, dass die Verantwortung für die Gestaltung und den Einsatz unserer technischen Systeme in letzter Instanz bei eindeutig definierten menschlichen Verantwortungsträgern liegt.“ (Corporate Digital Responsibility Initiative 2024: 3)

Eindeutig definierte natürliche Personen – da ist Haftung nicht weit. Auch die KI-Gesetzgebung der Europäischen Union scheint den Weg einzuschlagen, einer Verantwortungsdiffusion für die Folgen der neuen Technologie durch Anmeldepflichten der Marktteilnehmer im europäischen Rechtsraum sowie durch eine hinreichend griffige Form der Herstellerhaftung entgegenwirken zu wollen. Etwas seltsam wirkt es, wenn die EU High-Level Expert Group 2019 ausdrücklich festhält, auch KI-Experten hätten sich an Recht und Gesetz zu halten:

„[I]t is the responsibility of AI practitioners to ensure that they comply with their legal obligations, both as regards horizontally applicable rules as well as domain-specific regulation.” (AI HLEG 2019: 15)

Man fragt sich: Ja was denn sonst? Immerhin aber schließt hier hinreichend deutlich ein Verantwortungsbegriff hartes Recht nicht aus, sondern ein. Auch „Accountability“, also Zurechenbarkeit konkreter Technikfolgen auf jemanden, dem man dann Verantwortlichkeit nachweisen kann, gehört zu den Anforderungen der EU4.

Ein Beispiel für eine konsequent lediglich als eine moralische Selbstbindung ausgelegte Verantwortungsübernahme liefern die 2017 formulierten, 2019 erneuerten Asilomar AI Principles des Future of Life Institute. Zu den Mitgliedern dieser Vereinigung gehören prominente Softwareentwickler und Pop-Akteure wie der auf Investitionen in transformative Technologien spezialisierte Konzernchef Elon Musk oder der technikbegeisterte Physiker Stephen Hawking. In Sachen Verantwortung springt in den Asilomar-KI-Prinzipien der neunte Leitsatz ins Auge:

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications. “ (Future of Life Institute 2017a)

Die deutsche Übersetzung lautet – durch das Entfallen der Wendung von den „Stakeholders“ – nicht ganz identisch:

„9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.“ (Future of Life Institute 2017b)

In beiden Versionen der Aussage ist deutlich: Erstens geht es um Moral, genauer sogar um „moralische Folgen“ der neuen Systeme (was auch immer das genau sein mag). Und zweitens sehen sich die Produzenten der Technologie als Beteiligte, an welche lediglich als moralische „Stakeholder“ appelliert werden kann, im Deutschen sogar als Leute, die lediglich „mitbestimmen“. Eine Allein- oder Vollverantwortung anzuerkennen, sieht anders aus.

Im März 2023 veröffentlicht das Future of Life Institute den offenen Brief Pause Giant AI Experiments, in welchem ausgerechnet im fraglichen Feld auf aggressive Weise unternehmerisch tätige KI-Entwickler die Weltöffentlichkeit vor den möglicherweise verheerenden Folgen ihre Produkte warnen und nach staatlichen Regeln sowie Kontrollen rufen:

Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.“ (Future of Life Institute 2023a)

Das klingt fast ein wenig nach Hans Jonas. Obzwar der Verantwortungsbegriff nicht fällt, handelt es sich doch um eine Geste der Bereitschaft zur Verantwortlichkeit. Die Verfasser des Briefs bringen sogar den Gesetzgeber ins Spiel, den sie um eine Art Moratorium bitten. Der Duktus der Verantwortungsübernahme kann allerdings kaum darüber hinwegtäuschen, dass mit der Adressierung des Statements etwas nicht stimmt. Eine Gruppe mächtiger Lobbyisten maßt sich hier in eigener Sache an, im Namen der Menschheit zu allen Regierungen der Welt zu sprechen – und dies um ihnen Pflichten aufzuerlegen, an die sie sich gewissermaßen selbst erinnern.5 Was ebenfalls auffällt: In keiner Weise erwägen die Verfasser des offenen Briefes, ob die mit vielen Fragezeichen geschilderte gefahrvolle Entwicklung nicht heute schon bestehendes Recht bricht. Denn KI-Systeme wie das große Sprachmodell „GPT“ sind zwar nicht völlig im Geheimen entstanden. Jedoch stellt weder die augenscheinlich bedenkenlose Beschaffung von Trainingsdaten für das System noch dessen von PR begleitete weltweite Freischaltung ein Interesse an existierenden rechtlichen Regeln unter Beweis. Vielmehr hat Open AI das Produkt freigesetzt, ohne sich um existierendes Recht zu scheren.

Den Verfassern des Briefs muss man wiederum zugutehalten: Sie nutzen das V-Wort im April 2023 in einem Empfehlungspapier Policymaking in the Pause tatsächlich im Sinne der juristischen Rechenschaftslegung und Haftung:

„Key among measures to better incentivize responsible AI development is a coherent liability framework that allows those who develop and deploy these systems to be held responsible for resulting harms.“

Der Gesetzgeber habe umgehend ein „framework for the liability for AI derived Harms” zu schaffen (vgl. Future of Life Institute 2023b: 4).

Großbegriffe, deren Bedeutungsstränge sich dauerhaft verfilzen, richten Schaden an und verkommen zur leeren Hülse. Für „Ethik“ im Ganzen mag das gelten, aber auch um die „Verantwortung“ ist es nicht gut bestellt – zumal, wenn die Vermutung zutrifft, dass sich einfach auch keine rechte Adressierung mehr für die Appellfunktion des V-Worts findet. Dabei ist der dritte Gebrauchsfall ja vielleicht der politisch wichtigste der drei: der Fall des Aufrüttelns, um Verantwortung dort zu mobilisieren, wo nicht rechtlich bereits alles klar ist.

Wird das Wort also unbrauchbar? Sollte man die verwickelte Auseinandersetzung um Digitaltechnologien besser ganz ohne Rekurs auf „Verantwortung“ führen? Es gibt in der Tat eine Verantwortungskritik, die ungefähr das besagt: Der Ausdruck bemäntele mehr schlecht als recht, dass Ethik die Falschen in die Pflicht nimmt (man bürdet der Gesellschaft und konkret den Bürgerinnen und Bürgern, etwa in der Medizin, Verantwortung auf (vgl. Illich 2019: 232 f.) während sie denjenigen, denen Recht und Moral ohnehin gleichgültig ist, zusätzliche rhetorische Spielräume bietet. Und zahlungskräftige Unternehmen machen sich diese flugs zu eigen. Mittels Ethik-PR. Ein Kritiker nicht der Digital- aber der Bioethik streicht die „Verantwortung“ aufgrund solcher Inanspruchnahme mit dem folgenden Statement aus seinem Vokabular: „Die Natur, Die Humanität, Das Leben, Die Würde der Frau, Die Menschenrechte, Der Kosmos, DieVernunft, Die Wissenschaft, Die Verantwortung, Die Moral und so fort. Alles zu Markenzeichen verkommene Ideen – Markenzeichen, mit denen sich die Oberschicht der (redenden und schreibenden) Konsumenten der Macht identifiziert. Die Macht steckt eben nicht in den Markenzeichen, aber sie wird durch den Gestus des Tragens solcher Zeichen abgesichert. […] ‚Verantwortung‘ und ‚Ethik‘ sind, so wie sie heute in Gebrauch sind, Aufkleber, die über Preis und Qualität des Beklebten nur vermeintlich etwas aussagen.“ (Patze 1988: 28)

Den gegenteiligen, aber auch auf die Verzichtbarkeit des Worts zulaufenden Weg wählt die Politik, wenn sie Verantwortung einfach mit Umsicht und Klugheit gleichsetzt. Denn damit nimmt man ihr – diesseits der geschilderten drei Stoßrichtungen des Wortes – nahezu jeglichen Stachel, den Pflichtaspekt und auch den Charakter der Handlungsaufforderung. Der Bericht der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz von 2020 wählt jedoch diesen Weg. Es wird definitionsartig angesetzt, aber schon die Überschrift – „6.2.5 Verantwortung (Gutes tun, Akteure, Zusammenarbeit)“ – löst jede Kontur auf. Die angebotene Begriffsbestimmung gibt die Verantwortung einer (ohnehin) moralischen Handlung nur noch wie eine Art Zusatz bei. Als vernünftige Vorausschau auf mögliche Folgen:

„Der Begriff der Verantwortung macht darauf aufmerksam, dass es ein wichtiges Kennzeichen einer moralischen Handlung ist, die Folgen seiner eigenen Handlung abzusehen und zu bewerten und sein Handeln dann evtl. auch zu verändern. Handeln gemäß einer klugen und vernünftigen Einschätzung der Folgen des eigenen Handelns unter Hinzuziehung von moralischen Kriterien (Werten, Normen, Prinzipien, Maximen) – das kann man mora­lisch verantwortliches Handeln nennen.“ (KI Enquete-Kommission 2020: 85)

Kann man, muss man aber nicht. Denn Verantwortung reduziert sich damit auf ein der Moralität nachgeschaltetes Zusatzkalkül.

Lässt sich das V-Wort noch retten? Es verknäuelt Bedeutungen, lässt sich zu PR-Zwecken verflachen und ist nicht wirklich durch Theorietraditionen gesichert. Es gleicht eher einer Metapher oder einem Akkord mit vielen Unter- und Nebentönen. Immerhin bleibt da die eingangs beschriebene Wucht. Das Gestische. Das Moment des Eintretens für eine Norm. Wird die Rede von der „Verantwortung“ nicht nebelhaft-allgemein verwendet, sondern mit Namen, konkreten Gefahrenlagen – und idealerweise: mit Rechtsfolgen bis hin zur Haftung auch für lange Folgenketten, die Betroffene einklagen können – verbunden, erschließt sich so etwas wie ein Ebenenwechsel: Einfach nur machen und auf den Fortschritt vertrauen, reicht dann nicht mehr.

Ebenso kommt das ins Spiel, was der Soziologe Niklas Luhmann (1984: 515 f.) als den Unterschied zwischen gegenwärtiger Zukunft und künftiger Gegenwart beschreibt: Technologen verschieben das heute Widersprüchliche auf künftige Gegenwarten, weil sie hoffen, bis dahin ließen sich die Probleme, auch dank erst noch zu erfindender neuer Technologien, irgendwie schon abarbeiten. Wir schieben heute daher einen Berg wohlmöglich unlösbarer Aufgaben vor uns her. Zudem stellen wir uns eben auch nur vor, was aus einer neuen Technologie alles an zu bewältigenden Folgen hervorgehen könnte. Wirklich wissen (und wirklich zu bewältigen haben) werden es erst die Menschen von morgen. 

Von daher … bewahren wir das V-Wort. Ja: um des Ebenenwechsels willen, sprechen wir es ab und zu aus und wiederholen es nötigenfalls auch. Solange wir nichts besseres haben, kann es eines der weniger schlechten unter den schlechten Werkzeugen sein. Und wenn wir es nicht aufgeben: vielleicht entwickelt die Verantwortung doch noch klare Konturen. Wo die Gefahr wächst, wächst auch die Präzision.

  1. Jonas hebt auf die unabsehbaren – das menschliche Entscheiden überfordernden – Folgen und Fernwirkungen neuer Technologien ab. Die tägliche Sphäre sei heute „überschattet von einem wachsenden Bereich kollektiven Tuns, in dem Täter, Tat und Wirkung nicht mehr dieselben sind wie in der Nahsphäre, und der durch die Enormität seiner Kräfte der Ethik eine neue, nie zuvor erträumte Dimension der Verantwortung aufzwingt.“ (Jonas 1979: 26)  ↩︎
  2. Vgl. Jonas 1979, S. 80: „[S]elbst zur Rettung seiner Nation darf der Staatsmann kein Mittel verwenden, das die Menschheit vernichten kann.“ ↩︎
  3. Immerhin appelliert Jonas in dem Sinne an den Überlebenswillen der breiten Bevölkerung, dass er den Bürgern das Recht auf ein im Ergebnis fatales Wegsehen von Problemen abspricht: „Über das individuelle Recht zum Selbstmord läßt sich reden, über das Recht der Menschheit zum Selbstmord nicht.“ (Jonas 1979: 80) ↩︎
  4. Vgl. noch einmal das Papier der AI Ethics High-Level Expert Group, es postuliert: „mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.“ (AI HLEG: 15). ↩︎
  5. Vorbild solcher Briefe ist das von Benjamin Russell, Albert Einstein und anderen formulierte Pugwash-Manifest vom 9. Juli 1955 für eine nuklearwaffenfreie Welt, das aber eben als Brief an öffentlichen Universitäten tätiger Grundlagenforscher geschrieben wurde und nicht etwa von (mutmaßlich am Umsatz beteiligten) Personen aus Entwicklung und Management kommerziell tätiger Tech-Unternehmen. Ebenso verlangten Russell und Einstein nicht, dass man ihnen selbst ein Verbot auferlegen sollte, sondern sie forderten den Waffenverzicht von der Politik (wie auch der Wirtschaft). ↩︎

AI HLEG [= Independant High-Level Expert Group on Artificial Intelligence der EU] (2019): Ethics Guidelines for Trustworthy AI. Brüssel: EU, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf [19.3.2024].

Deutsche Telekom (2004a): Cororate Digital Responsibility [Webseite], https://www.telekom.com/de/konzern/digitale-verantwortung/cdr [19.3.2024].

ConPolicy, Institut für Verbraucherpolitik (2024): Corporate Digital Responsibility, https://www.conpolicy.de/themen/corporate-digital-responsibility [17.3.2024].

Corporate Digital Responsibility Initiative (2024): Corporate Digital Responsibility-Kodex. Freiwillige Selbstverpflichtung mit Bericht, https://cdr-initiative.de/uploads/files/2024-01_Kodex_CDR-Initiative.pdf [19.3.2024].

Deutsche Telekom (2004b): Deutsche Telekom (2004b): Ein Blick auf unsere Handlungsfelder – Digitale Ethik. https://www.telekom.com/de/konzern/digitale-verantwortung/cdr/details/ein-blick-auf-unsere-handlungsfelder-digitale-ethik-1007518 [19.3.2024].

Future of Life Institute (2017a): Asilomar AI Principles [11.8.2017], https://futureoflife.org/open-letter/ai-principles/ [19.3.2024].

Future of Life Institute (2017b): Asilomar AI Principles [11.8.2017] https://futureoflife.org/open-letter/ai-principles-german/ [19.3.2023].

Future of Life Institute (2023a): Pause Giant AI Experiments. An open Letter [22.3.2023], https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [19.3.2024].

Future of Life Institute (2023b): Policymaking in the Pause. What can Policymakers do now to combat Risks from advanced AI Systems? [19. April 2023] https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf [17.4.2024].

Holl, Jann /Red. [Teil I] und Lenk, Hans/Maring, Matthias (2001) [Teil II]: Art. „Verantwortung“. In: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie Bd. 11. Basel: Schwabe, Sp. 566–575.

Illich, Ivan (2019): Die Substantivierung des Lebens im 19. und 20. Jahrhundert – eine Herausforderung für das 12. Jahrhundert. In: Klaus Jörk/Bernd Kaufmann/Rocque Lobo/Erica Schuchardt (Hrsg.): Was macht den Menschen krank? 18 kritische Analysen. Basel, Boston, Berlin: Birkhäuser, S. 225–234.

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Suhrkamp 1984.

KI Enquete-Kommission (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, ökologische und soziale Potenziale. In: Deutscher Bundestag: Drucksache 19/27300 vom 28.10.2020.

Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main 1985.

o.A. (2024): Art. „Verantwortung“. In: Wikipedia, https://de.wikipedia.org/wiki/Verantwortung [19.3.2024].

Patze, Bernd (1988): Markenzeichen der Macht. Wissenschaft, Ethik und DAS GANZE. In: Wechselwirkung 10, Nr. 87, S. 24–28.

Price, Rob (2021) The International CDR Manifesto. https://corporatedigitalresponsibility.net/cdr-manifesto [19.3.2024].

pwc Deutschland (2024): „Unser Verständnis von Digitaler Ethik & Verantwortung“ [Webseitentext], https://www.pwc.de/de/risk-regulatory/risk/so-lassen-sich-digitale-ethik-und-verantwortung-wirkungsvoll-verankern.html [19.3.2024].

Swiss Insights (2024): Label Data Fairness. https://swiss-insights.ch/label-data-fairness/ [19.3.2024].

Gehring, Petra (2024): Versuch über das V-Wort. In: Verantwortungsblog. https://zevedi.de/versuch-ueber-das-v-wort/ [15.05.2024].
https://doi.org/10.60805/0cv4-e997

Kategorien
Akzentfarbe: beige Autor: Daniel Martin Feige Verantwortungsblog

Künstliche Intelligenz im Kontext der Kunst

Künstliche Intelligenz im Kontext der Kunst
Am Beispiel der Musik

Was leistet generative KI nicht? Sind wird bald alle – nach den manuell nun auch die Wissens- und Kreativarbeitenden – überflüssig? Kann KI nun auch Kunst? Irgendwie ja? Trotz der beeindruckenden Fortschritte der KI sollten wir nicht übersehen, welche Daten – darunter auch Kunstwerke – zum Training der KI-Modelle genutzt werden. Und es sind weitere kritische Fragen an diese Nutzung zu richten. Nicht zuletzt: was daran wäre wohl Kunst?

Von Daniel Martin Feige | 15.05.2024

Eine Maschine, die Instrumente spielt.
Erstellt mit Adobe Firefly. Prompt: „illustration of a mechanical device making jazz music, in the colors black, white, red, yellow, purple, in the style of cubism, minimal“

Mit Hilfe künstlicher Intelligenz können nicht allein (mehr oder weniger) sinnvolle Texte produziert werden, sondern auch Bilder und Musik. Programme wie ,Midjourney‘ und ,Dall-E‘ auf der einen Seite und ,Suno‘ und ,Udio‘ auf der anderen Seite scheinen den Gedanken zu widerlegen, dass das Hervorbringen von ästhetischen Gegenständen und Kunstwerken allein dem Menschen vorbehalten ist. Wenn sich mit Hilfe von ,Udio‘ für Laien vom Original ununterscheidbare Bossa Nova Tracks ebenso wie Songs im Stile bestimmter Popbands der 1980er Jahre erstellen lassen: Spricht das nicht dafür, dass man selbst hochstehende geistige Fähigkeiten und Tätigkeiten durch KIs und damit in einem bestimmten Sinne maschinelle Verfahrensweisen nachbilden könne?

Ich werde im Folgenden dafür argumentieren, dass das nicht der Fall ist. Ich beginne mit einer Beschreibung der jüngst vieldiskutierten KIs zur Erstellung von Musik (I). Daraufhin werde ich die argumentativen Grundlagen der These, dass wir KIs geistige Fähigkeiten zuschreiben können, kritisch beleuchten (II). Abschließend frage ich auf der Grundlage des Gedankens, dass KI keine Kunst produzieren kann, welche produktive Rolle KIs im Kontext der Kunst zugeschrieben werden könnte (III).

Jüngst sind vor allem Suno und Udio im Kontext musikproduzierender KIs in den Fokus der Aufmerksamkeit gerückt. Hier lassen sich mit wenigen Klicks musikalische Tracks erstellen, auf Wunsch auch mit Gesang und KI generierten Texten. Suno und Udio basieren wie alle jüngst diskutierten Beispiele auf den Architekturen der zweiten Welle der KI-Forschung. Vereinfacht gesagt war das Vorgehen in der ersten Welle der KI-Forschung, der KI festverdrahtete logische Schlussregeln zu implementieren, mit denen dann sinnvolle Sätze und Texte ausgegeben werden sollten. Dies stieß schnell an praktische Grenzen (unter anderem durch den hier vorausgesetzten verarmten Begriff der Sprache).1 Der Paradigmenwechsel in der KI-Forschung lässt sich wie folgt fassen (Boden 2018 und Rosengrün 2021): KI ist heute statistische Generalisierung über sehr großen Datenmengen. Das erklärt, warum die Ergebnisse von KIs zugleich seltsam vertraut und gleichzeitig fremd sind (unter anderem, weil das, was die KIs ausgeben, nicht länger anhand von dichotomen Zuständen wie wahr oder falsch beschreibbar ist, sondern aufgrund von Wahrscheinlichkeiten zustande kommt).

Wie bereits im Falle der Bildgenerierungsprogramme lassen sich auch Suno und Udio nicht in die Karten schauen. Was bei den erstellten Songs auffällt, ist nicht allein die Tatsache, dass sich offenkundig solche Formen von Musik besonders lebensnah reproduzieren lassen, die bereits selbst stark standardisiert sind (bei einigen Arten von Popmusik wie Schlagern klappt es gut und selbst Funktracks grooven überraschenderweise, bei Neuer Musik und Modern Jazz kommt hingegen nur Unsinn heraus). Es fällt vor allem auf, dass man doch die Datengrundlagen sehr deutlich hört (Music Business Worldwide 2024). Suno ist hier generischer, etwas weiter weg von den Vorlagen, bei Udio glaubt man etwa eine sinnlose Variante von Miles Davis’ Trompetenspiel und Bill Evans’ Klavierspiel zu hören, wenn man richtig promptet. Wie auch den Ergebnissen der Chatbots merkt man den musikgenerierenden KIs an, dass sie nicht wissen, wovon sie sprechen.2 Überdies gilt: Das Datentraining dieser KIs ist rechtlich fragwürdig. Das Vorgehen der hinter diesen KIs operierenden Unternehmen lässt sich so beschreiben, dass sie das geistige Eigentum dritter einspeisen, um Ergebnisse zu produzieren, die zwar im juristischen Sinne keine ,Schaffenshöhe‘ zeigen, deren Ergebnisse aber in frappierender Weise mitunter sogar Personalstilen zuzuordnen sind (Für musikalisch geschulte Hörer:innen ist offensichtlich, dass Udio nicht nur mit Miles Davis, sondern auch mit David Gahan trainiert worden ist). Die Diskurse um einen Abbau des Gatekeepings und die Demokratisierung der Kunst; die Diskurse um das Versprechen, dass nun jeder in die Lage versetzt werden können soll, Musik zu machen (ohne sich in solch zeitaufreibenden geistigen wie sinnlichen Tätigkeiten wie das Lernen eines Instruments oder der Beschäftigung mit Musiktheorie zu verlieren) sind in jedem Fall Augenwischerei: Entsprechende Unternehmen zielen mittelbar darauf ab, den Musikmarkt gewissermaßen zu übernehmen und ihn zu einem proprietären Markt zu machen.3

Aber wie kommt man angesichts solch simulakrenhafter wie parasitärer Ergebnisse, die Suno und Udio produzieren, überhaupt auf die Idee, dass das Hervorbringen von ästhetischen Gegenständen und Kunstwerken jetzt keine Domäne menschlicher Tätigkeit mehr sei? Natürlich, die Ergebnisse der musikgenerierenden KIs sind (wenn sie nicht wie im Fall des Modern Jazz oder Neuer Musik sinnwidrig sind) zumindest in dem minimalen Sinne kreativ, dass sie eine Form der neuen Anordnung bekannter Elemente darstellen.4 Die meisten überraschten Reaktionen auf die mit Suno und Udio produzierten Tracks basieren aber auf dem Gedanken, dass man das hörbare Ergebnis im Einzelfall nicht von Menschenhand gemachter Musik unterscheiden kann. Das ist offenkundig ein epistemisches Kriterium; es setzt voraus, dass der Höreindruck hier die relevante Frage darstellt. Eine solche Position ist gleichwohl nicht haltbar. Arthur C. Danto hat geltend gemacht, dass man, wenn man „ein Bronzerad mit Nocken, genau wie das Kettenrad eines Fahrrads, bei Ausgrabungen in Tibet [fände], [es] ungeachtet seiner Identität als Artefakt kein frühzeitiges Fahrrad-Kettenrad sein [könnte].“ (1991: 174) Dieses Argument macht geltend, dass Wissen um die Entstehungsbedingungen eines Gegenstandes wie um die Absichten, die wir in der Entstehung sinnvoll zuschreiben können, einen Unterschied machen für unsere Antworten auf die Frage, um was es sich hier handelt.5 In diesem Sinne ist es tatsächlich eine Information, wenn man erfährt, dass ein Track, den man beim oberflächlichen Hören für einen generischen Popsong der Gegenwart hält, nicht durch Absichten der beteiligten Musiker:innen am Instrument oder bei der Produktion im Studio zustande kam, sondern durch statistische Generalisierungen über große Datenmengen. Wir können dann durchaus noch erstaunt darüber sein, wie ähnlich so ein Song den Vorlagen klingen mag (was zugleich etwas über die standardisierte Natur vieler Arten populärer Musik aussagt). Aber wir würden z.B. nicht länger die Frage stellen, warum sich der Komponist oder die Komponistin entschieden hat, diesen oder jenen Akkordwechsel einzubauen oder warum er sich für diese oder jene Instrumentierung entschieden hat – wir müssten hier über die konkreten Verfahrensweisen der KI sprechen. In diesem Sinne können Dinge, die phänomenal ähnlich sind, kategorial vollständig unterschiedenen Gegenstandsbereichen angehören.

Die phantasmatische Überhöhung der KI im Bereich des Hervorbringens von ästhetischen Gegenständen und Kunstwerken und darüber hinaus basiert auf einer Verwechslung einer epistemischen mit einer ontologischen Frage (und damit einer Verwechslung der Frage, ob ich unter bestimmten Bedingungen einen Unterscheid erkennen kann, mit der Frage, was der Unterschied zwischen zwei Dingen ist). Maßgeblich für diese Veränderung der Fragestellung ist der Turing-Test. Er geht auf Alan Turing zurück und besagt (Turing 1950: 433-460), dass eine Maschine das ,Imitationsspiel‘ dann gewinnt, wenn der menschliche Spieler zu dreißig Prozent falsch rät. Was Turing hier betreibt, lässt sich im Kontext jüngster fachphilosophischer Diskussionen als ,Conceptual Engineering‘ bezeichnen.6 Darunter werden Diskussionen darüber gefasst, welchen Aufgaben die Definition eines Begriffs dienen soll. So kann man die Bedeutung etwa des Begriffs des ,Geistes‘ oder des Begriffs des ,Denkens‘ gemäß der Art und Weise, wie wir diese Begriffe im Alltag und/oder in den Wissenschaften verwenden, aufklären. Oder – und das tut Turing – man gibt einem Begriff eine neue Bedeutung, die einer bestimmten praktischen Agenda dient. Turing hat Begriffe wie ,Geist‘ und ,Denken‘ so neugefasst, dass sie rechnergestützten Tests zugänglich werden. Er hat aber – und das ist der zentrale Punkt – damit nicht etwa einen Bedeutungskern oder einen minimalen Sinn des Begriffs des ,Geistes‘ gefunden. Er hat, so könnte man auch sagen, eigentlich den alten Begriff gegen einen neuen ausgetauscht und das alte Wort dabei bestehen lassen. Warum wir dieses Spiel auch und gerade mit Blick auf die Kunst nicht mitspielen sollten – dazu in gebotener Kürze Überlegungen im letzten Teil dieses Beitrags.

Ich hatte bereits angemerkt, dass die musikgenerative KI nicht als neutrales Tool oder kreatives Hilfsmittel zu begreifen ist, dass zudem noch dem Abbau eines als falsch gewerteten Gatekeepings diene. Vielmehr ist die Praxis generativer KI mit der Frage verbunden, welchen Tech-Unternehmen diese Technologien gehören, in die massenhaft Material gespeist wird, das offenkundig nicht von ihnen stammt. Und ich hatte darauf verwiesen, dass sich besonders stark standardisierte Musik dafür eignet, durch generative KI hervorgebracht zu werden (wozu gar nicht allein Popmusik zählen muss, sondern etwa auch bestimmte Arten der Barockmusik gehören könnten). Abschließend möchte ich in einem Zusammendenken dieser beiden Thesen ausweisen, dass die Frage danach, ob KI Kunst kann, dann falsch gestellt ist, wenn sie als Frage danach verstanden wird, ob KI-Gemälde im Stile Van Goghs, Musik im Stile von Depeche Mode oder Texte im Stile von Eichendorf produzieren kann. Selbst wenn sie das könnte, wäre damit für die Kunstfrage nicht allein aufgrund der Argumentation im zweiten Teil wenig gewonnen. Dazu sind einige kursorische Festlegungen hinsichtlich des Kunstbegriffs nötig.

Im Anschluss an die mit Baumgarten ansetzende, über Kant und Hegel verlaufende und bis zu Adorno und Danto und darüber hinaus sich vollziehende philosophische Tradition des Nachdenkens über Ästhetik und Kunsttheorie ist zu erläutern,7 dass man bisher Kunst und das philosophische Denken stets in einer entfernten Nähe gesehen hat. Denn auch die Kunst ist zu Leistungen in der Lage, die oftmals der Philosophie zugeschrieben worden sind: Sie kann uns Relevantes über uns zeigen, tut das aber anders als die Philosophie: nicht im Medium des Begriffs, sondern vielmehr im Medium eigensinniger Konstellationen von künstlerischen Materialien (Worte, Klänge, Töne, Pixel, Bewegungen, Farben usf.). Kunst lässt sich damit als eine spezifische Weise der Reflexion unserer wesentlichen Orientierungen verstehen für die gilt, dass jedes Werk der Kunst eine solche Reflexion dadurch leistet, dass es ein sich in spezifischer Weise selbst reflektierter Gegenstand ist: Ein Drama Goethes verwendet seine Worte nicht nur, es konstituiert sie in der Verwendung; ein Spielfilm Hanekes gebraucht die filmischen Mittel nicht allein, sondern stellt diesen Gebrauch zugleich immer auch aus. Diese zwei genannten Arten von Werken machen deutlich, dass das historisch in je unterschiedlicher Weise geschieht (und wie Adorno gezeigt hat, ist der Motor dieser Transformation zugleich das andere der Kunst, die gesellschaftliche Realität). Unter der Ägide des Vordringens generativer KI in unterschiedliche gesellschaftliche Bereiche wie auch in die Kreativindustrie transformiert sich nun aber auch der Sinn dessen, was hier Reflexion heißt: Ein Werk der Kunst wird nicht durch den Gebrauch von KI hergestellt, sondern ist nichts anderes als eine in spezifischen materialen und medialen Formen vollzogene kritische Reflexion unserer Gebrauchsweisen von KI. Eine solcher Aufweis des Denkens im Vollzug und aus den Gebrauchsweisen heraus muss keineswegs immer in Form einer Unterbrechung geschehen, sondern kann auch durch die Integration von KI-Akteuren auf der Bühne (wie in einigen Arbeiten Sandeep Bhagwatis) geschehen.8 Kunst wird damit nicht durch KI hervorgebracht, sondern KI fordert Kunst derart heraus, dass sie in jüngsten Arbeiten kritisch auf etablierte und scheinbar selbstverständliche Gebrauchsweisen von KI in ihrem Medium (und zugleich auf ein verkürztes Verständnis von Kunst) reflektiert.

Wir sollten also weniger Angst davor haben, dass uns Maschinen geistig überlegen sein könnten. Vielmehr sollten wir Sorge tragen, dass eine solche These nicht zu einer Verkürzung im Begriff des Geistes, der Kunst und der Kritik führt.

  1. Vgl. als klassische Studie dazu Dreyfus 1972. ↩︎
  2. Vgl. dazu Smith 2019. ↩︎
  3. Vgl. dazu Staab 2019. ↩︎
  4. Das ist einer der Sinne, die Magaret Boden als zentrale Dimensionen der Kreativität bestimmt. Vgl. Boden 2011. ↩︎
  5. Die Rolle des Autors hat Catrin Misselhorn auch ausgehend von Danto jüngst überzeugend mit Blick auf den Unterschied von Kunstwerken und mit KI hervorgebrachten Gegenständen verteidigt. Vgl. Misselhorn 2023. ↩︎
  6. Vgl. v.a. Burgess/Cappelen/Plunkett 2020. ↩︎
  7. Eine ausgezeichnete Skizze der Genese der Ästhetik findet sich mit Scheer 1997. ↩︎
  8. Eine instruktive Rekonstruktion der Rolle der KI in gegenwärtigen kunstmusikalischen Praktiken findet sich mit Grüny 2022: 174-203. ↩︎

Boden, Margaret A. (2018): Artificial Intelligence. A very short introduction. Oxford: Oxford University Press.

Boden, Magaret A. (2011): Creativity and Art. Three Roads to Surprise. Oxford: Oxford University Press.

Burgess, Alexis/Cappelen, Herman/Plunkett, David (Hrsg.), Conceptual Engineering and Conceptual Ethics. Oxford: Oxford University Press 2020.

Smith, Brian Cantwell (2019): The Promise of Artificial Intelligence. Reckoning and Judgment. Cambridge/Mass.: MIT Press.

Danto, Arthur C. (1991): Die Verklärung des Gewöhnlichen. Eine Philosophie der Kunst. Frankfurt am Main: Suhrkamp.

Dreyfus, Hubert L. (1972): What Computers can’t do. New York: MIT Press.

Grüny, Christian (2022): Seltsam attraktiv. KI und Musikproduktion. In: Schnell, Martin W./ Nehlsen, Lukas (Hrsg.): Begegnungen mit künstlicher Intelligenz. Intersubjektivität, Technik und Lebenswelt. Weilerswist: Velbrück Wissenschaft, S. 174-203.

Misselhorn, Catrin (2023): Künstliche Intelligenz – das Ende der Kunst? Stuttgart: Reclam.

Music Business Worldwide: “Suno is a music AI company aiming to generate $120 billion per year. But is it trained in copyright recordings?” [Webseitentext 2024],  https://www.musicbusinessworldwide.com/suno-is-a-music-ai-company-aiming-to-generate-120-billion-per-year-newton-rex/?fbclid=IwZXh0bgNhZW0CMTEAAR3CnKkKRMw5vh1Rl4i0CCUBj5OJxFixk_DtHdc_BeppehNRc7RWuUxzwMg_aem_Afdhv_QM32hirGr_ZFhQ4NnmhcmXRrdIvwsn_FJWIUe8VtfxEcegsiP0KKa_1qiZp3STlp59WXO3yUlWmj7LsMVz [28.4.2024].

Rosengrün, Sebastian (2021): Künstliche Intelligenz zur Einführung. Hamburg: Junius.

Scheer, Brigitte (1997): Einführung in die philosophische Ästhetik. Darmstadt: WBG.

Staab, Philipp (2019): Digitaler Kapitalismus. Markt und Herrschaft in der Ökonomie der Unknappheit. Berlin: Suhrkamp.

Alan Turing (1950): Computing Machinery and Intelligence. In: Mind 236, S. 433-460.

Feige, Daniel Martin: Künstliche Intelligenz im Kontext der Kunst. Am Beispiel der Musik. In: Verantwortungsblog. https://www.zevedi.de/kuenstliche-intelligenz-im-kontext-der-kunst-am-beispiel-der-musik/ [15.05.2024].
https://doi.org/10.60805/3bph-tg76

Kategorien
Akzentfarbe: rot Autor: Eneia Dragomir Verantwortungsblog

Eine App namens Blockchain

Eine App namens Blockchain
Schwierigkeiten der Tokenizierung von Bürgerbeteiligungsprozessen

Eine Lösung auf der Suche nach einem Problem – so eine Kritik an der Blockchain-Technologie. Mehr als eineinhalb Jahrzehnte nachdem die erste Blockchain an den Start ging, ist der Hype verflogen – und kann die Suche nach zu lösenden Problemen in größerer Ruhe vor sich gehen. Ist die Bürgerbeteiligung ein solches Problem? Das wollte das Forschungsprojekt „BBBlockchain – blockchain-basierte Stadtentwicklung“ herausfinden.

Von Eneia Dragomir | 15.05.2024

Blöcke, auf denen Menschen stehen und die durch eine Kette verbunden sind.
Erstellt mit Adobe Firefly. Prompt: „illustration of digital blocks, connected by chain; style minimalistic; colors yellow and red“

Blockchain – wer überhaupt davon gehört hat, wird den Begriff vermutlich mit Bitcoin, der ersten „Kryptowährung“ in Verbindung bringen. Der erste Anwendungsfall der verteilten Datenbank sollte ein Online-Bezahlsystem sein, das ohne vermittelnde Dritte, wie Privat- oder auch Zentralbanken, funktionieren sollte. Vertrauen müssen sollte man allein dem Code. Enthusiast:innen sahen nach 2008, nach der größten Finanzkrise seit den 1930er-Jahren, nicht nur die Revolutionierung des Finanzsystems kommen. Immer weitere Felder schienen vor einer blockchain-basierten Transformation zu stehen: die Verwaltung von Immobilien, das Management von Lieferketten, die Datenverwaltung im Gesundheitswesen oder die Durchführung von Wahlen. Das Internet selbst sollte sich zum blockchain-basierten „Web3“ weiterentwickeln und durch eine radikale Dezentralisierung das von großen Plattformen dominierte „Web2“ umkrempeln. Auch wenn sich die Blockchain-Technologie seitdem weiterentwickelt hat, ist die Revolution – bislang zumindest – ausgeblieben. Selbst im Finanzwesen. Warum?

Der Abschlussbericht des Forschungsprojekts BBBlockchain – blockchain-basierte Stadtentwicklung gibt einen detaillierten Einblick darin, was einer Übertragung des vielversprechenden Blockchain-Ansatzes aus dem Feld der Kryptowährungen in einen sozialpolitisch brisanten Bereich im Wege steht. Es eignet sich damit als Beispiel dafür, was passiert, wenn die Blockchain und ihre Narrative mit der Realität konfrontiert werden.

BBBlockchain war ein interdisziplinäres Projekt der Forschungsgruppen „Urban Resilience and Digitalization“ und „Distributed Security Infrastructure“, die am Einstein Center Digital Futures bzw. an der Technischen Universität Berlin angesiedelt waren. Es fand in Kooperation mit zwei landeseigenen Berliner Wohnungsgesellschaften statt. Ziel des Projekts war es, eine blockchain-basierte Lösung für die Probleme der Bürgerbeteiligung zu entwickeln bzw. die Möglichkeiten und Grenzen des Einsatzes der Blockchain in Beteiligungsprozessen zu erforschen. (Ietto, Muth, Rabe, Tschorsch o.J.: 46, 30. Alle weiteren Verweise auf den Bericht nur noch mit Seitenangabe) Ausgangspunkt war folgende Beobachtung:

„In the past, numerous urban participation processes suffered from a loss of trust. This caused a decline in citizens’ participation and trust. However, Blockchain technologies have attracted attention because they promise to be able to ensure trusted processes between untrusted parties.“ (14)

Der Bericht zeichnet ein gemischtes Bild: Aufgrund des Verlusts von Vertrauen gehe die Teilnahme an Prozessen der Bürgerbeteiligung zurück. Gleichzeitig sei weithin anerkannt, dass die Beteiligung der Bürger:innen essenziell sei für die Verbesserung der Demokratie. Verwiesen wird auch darauf, dass staatliche Stellen solche Prozesse mit Nachdruck implementieren, um ihre Offenheit für ihre Bürger:innen zu demonstrieren. (14f) Und dennoch:

„in practice, planning processes are often influenced by corporate and political actors whose interests differ largely from the democratic values of participatory planning. Distrust and the image of corruption have therefore become the default citizens‘ perception of urban development projects“. (15)

Diese Problemanalyse legt den Fokus auf den Vertrauensverlust, den herkömmliche, analoge Formen der Bürgerbeteiligung erlitten hätten. Das Narrativ des Vertrauensverlusts stand schon am Beginn der Blockchain-Geschichte: der Verlust des Vertrauens in das Geldsystem, nachzulesen im White Paper des sagenumwobenen Satoshi Nakamoto. Es liegt folgerichtig nahe, zur Lösung dieses Problems eine Technologie einzusetzen, die verspricht, auf technischem Wege Vertrauen zwischen Parteien zu schaffen, die einander nicht über den Wegtrauen: Vertrauen durch Verfahren oder, wie es im Bericht auch heißt: „automatic trust“. (16) Doch wie genau soll die Blockchain das leisten?

BBBlockchain wurde als dezentralisierte Ethereum-App entwickelt, die sowohl auf mobilen Geräten als auch in Desktop-Browsern läuft – also schlicht: als blockchain-basierte App. Genutzt wurde zunächst ein Ethereum-Testnetzwerk und nicht das Hauptnetz, da für Aktivitäten auf der Blockchain Gebühren anfallen, das Testnetz aber kostenfreie „Test-Coins“ ausgab. So konnte gebührenfrei mit der Gestaltung der App experimentiert werden. Dass eine geschlossene Gruppe von „Minern“, also eine Gruppe von Rechnern, die der Blockchain neue Blöcke anfügen kann, Manipulationen hätten vornehmen können, wurde von den Forschenden als geringe Gefahr eingestuft. Man vertraute schlicht darauf, dass sie nicht die Absicht hätten, „blockchain principles“ aufzugeben. 2020 wurde das Testnetz „geforked“: da das Testnetz instabil wurde und keine freien Test-Coins zu bekommen waren, wurde eine alternative Verzweigung des Netzes angelegt. Schließlich wurde eine eigene Blockchain aufgebaut, da das Testnetz 2022 geschlossen wurde. Dazu musste jedoch die gesamte alte Blockchain kopiert werden – ein erheblicher, aber notwendiger Mehraufwand, weil jede Veränderung bestehender Blöcke automatisch als Manipulation angezeigt wird.

Die „mining power“, also die Berechtigung, der Kette neue Blöcke anzufügen, wurde unter den wichtigsten Stakeholdern des Forschungsprojekts aufgeteilt: einen Miner betrieb das Forschungsteam und die beiden beteiligten landeseigenen Wohnungsgesellschaften betrieben ebenfalls je einen Miner. Nur diese drei „nodes“ konnten neue Blöcke erstellen und eine Manipulation bestehender Blöcke war nur mit einer zweidrittel Mehrheit möglich. (19) Offensichtlich vertrauten die Forschenden darauf, dass die Wohnungsgesellschaften Blöcke nicht manipulieren wollen würden. Auch hier also: weniger „automatic trust“ als schlichter Pragmatismus.

Schon beim Design der Blockchain trat allerdings ein Problem auf, ein Trade-off: Zwar kann man Blockchains so gestalten, dass darauf veröffentlichte Informationen zu jeder Zeit für alle zugänglich sind. Jedoch kann die technische Komplexität der Blockchain für technisch unerfahrene Nutzer:innen eine Hürde darstellen, die Information also wiederum unzugänglich machen. Die Lösung? Die Blockchain wurde hinter einer vertrauten Benutzeroberfläche versteckt: „BBBlockchain interface design keeps blockchain details hidden through an API sothat users are confronted with technical detail as little as possible.” (38)

Für Benutzerinnen wirkte BBBlockchain also wie irgendeine App. Das war intendiert. Die App stellte Informationen im „timeline view“ dar, die neueste Information zuoberst. Damit orientierte man sich am „concept of a social media feed“. Nicht nur Mieterinnen und Anwohnerinnen, sondern auch den Nutzergruppen mit Schreibrechten (die man aus Furcht vor Missbrauch der App durch die beteiligten Bürgerinnen nur selektiv gewährte) mutete man Blockchain-Spezifika nicht zu. (20)

Vor der blockchain-basierten Transformation der Bürgerbeteiligung bedurfte es einer Übersetzung bzw. Tokenizierung. Das Forschungsprojekt orientierte sich am IAP2 Spectrum Of Public Participation der International Association for Public Participation, das von öffentlichen Stellen verwendet werde und fünf Stufen der Partizipation vorsieht: Information der Öffentlichkeit (1), Befragung der Öffentlichkeit (2), aktiver Einbezug der Öffentlichkeit (3),
Kollaboration mit der Öffentlichkeit (4) und in der letzten Stufen das „Empowerment“ der Öffentlichkeit, „where decision-making power is handed over to the public“. (15)

Die blockchain-basierte Information der Öffentlichkeit war der erste Anwendungsfall, der im Pilotprojekt Kietzer Feld im Bezirk Treptow-Köpenick getestet wurde. Dort fand in zwei Projektphasen eine Nachverdichtung statt, im Zuge derer 301 Wohnungen sowie eine Tiefgarage und eine Kindertagesstätte entstehen sollten. Neben dem Forschungsteam, der Wohnungsgesellschaft und den Mieter:innen waren der Bezirk und der Mieterrat weitere Stakeholder des Pilotprojekts. Außer den Mieter:innen hatten alle Gruppen Schreibrechte. 39 der 45 Einträge, die im Rahmen des Pilotprojekts erfolgten, wurden von der
Wohnungsgesellschaft erstellt. Alle anderen Gruppen mit Schreibrechten verfassten lediglich je zwei Einträge. (Eine partizipative Unwucht, die wohl nur schwerlich mit den „blockchain principles“ zu vereinen war.) Die mit dreizehn Einträgen häufigste Kategorie waren organisatorische und administrative Sachverhalte, wie Zeit und Ort von Veranstaltungen, Einladungen oder Grußworte. Zehn Einträge betrafen bereits gefallene Entscheidungen, wie Verträge, Genehmigungen oder die Ankündigung, dass Bäume gefällt werden. (26f)

Wie sollte die Blockchain nun Vertrauen herstellen? Informationen, wie Nutzungspläne, Genehmigungen, Verträge etc., auf einer Blockchain abzulegen habe den Vorteil, dass sie für alle jederzeit zugänglich seien. Zudem würden die Informationen mit einem eindeutigen Zeitstempel (einem kryptografischen Hashwert) versehen und Änderungen wären nur als neue Einträge möglich. Jede Änderung bestehender Blöcke würde automatisch als Manipulation angezeigt. So könne sichergestellt werden, dass die auf der Blockchain abgelegte Information unverändert ist, wodurch sich eine lückenlose Rückverfolgbarkeit der Vorgänge ergeben würde. „This should improve the transparency per se“, so die Annahme. Verantwortlichkeiten würden sich so leichter klären lassen, vor allem im Konfliktfall. (22)

Der blockchain-basierte Feldversuch bestätigte sie jedoch nicht. Die automatisierte Transparenz hatte unerwünschte Effekte – wiederum ein Trade-off: Zwar hatten Mieter:innen ein Bedürfnis nach Transparenz, die öffentliche Verwaltung hingegen ein Bedürfnis nach Vertraulichkeit. Schon aus rechtlichen Gründen konnten Informationen, wie urheberrechtlich geschütztes oder lizenziertes Material, persönliche Daten und Ähnliches, gerade nicht ohne Weiteres auf der Blockchain veröffentlicht – und unveränderlich gespeichert werden. (43) Vor allem die
Unveränderlichkeit der abgelegten Information zeitigte ungewünschte Auswirkungen auf die Verfügbarkeit von Informationen, denn Stakeholder, wie die Wohnungsgesellschaften oder die öffentliche Verwaltung, hätten Informationen selektiver geteilt. (38) Da das Blockchain-Prinzip der maximalen Transparenz sich also in der Realität negativ auf die Transparenz auswirkte, wird im Bericht dazu geraten, das Ziel maximaler Transparenz durch die Bestimmung eines „angemessenen Levels an Transparenz“ zu ersetzen. (31, 38)

Das war die Empfehlung. Konkret wurde dann tatsächlich die Offenheit der Blockchain eingeschränkt: Die Blockchain war zwar öffentlich einsehbar, es hatten jedoch nicht alle Schreibrechte und sie lief auf einem privaten Netzwerk, dessen drei „main nodes“ durch die Stakeholder mit Schreibrechten repräsentiert wurden. Diese Abweichungen vom Blockchain-Ideal war nötig, „to reduce the housing associations’ fear of losing control“. (44)

Die zweite Stufe des gewählten Partizipationsmodells, Befragung der Öffentlichkeit, wurde als Umfragen tokenisiert, die zu verschiedenen Zeiten im Verlaufe des Projekts stattfanden. Die dritte und vierte Stufe des Modells, der aktive Einbezug sowie die Zusammenarbeit mit der Öffentlichkeit, wurden als blockchain-basierte Abstimmungen tokenisiert. Dieser zweite BBBlockchain-Anwendungsfall wurde im Pilotprojekt „Bülow90“ in Kooperation mit einer anderen landeseigenen Wohnungsgesellschaft durchgeführt. Neben den Mieter:innen wurden auch Anwohner:innen (im Umkreis von einem Kilometer) in dieses Experiment einbezogen. (27f)

Blockchain-Technologien würden Abstimmungs- und Wahlvorgängen größere Legitimität verleihen, insofern sie den daran Teilnehmenden ermöglichen, eine größere Rolle bei der Kontrolle des Vorgangs zu spielen, so die Theorie. Im Laufe des Pilotprojekts wurden drei Abstimmungen durchgeführt. Votieren konnte man, ob es eine Werkstatt, einen Waschraum, einen Fahrradparkplatz, einen Dachgarten oder eine Paketstation geben sollte oder, ob in einem Kiosk Alkohol und Zigaretten verkauft werden. (28)

Der Abstimmungsvorgang wurde als „Smart Contract“ angelegt, also als Script, das automatisch eine Aktion ausführt, wenn bestimmte Bedingungen erfüllt sind.1 Jede Stimme wurde auf der Blockchain gespeichert, ohne dass eine Instanz zwischengeschaltet werden musste und die Abstimmenden konnten unmittelbar überprüfen, ob ihre Stimme korrekt gezählt wurde. (22) Sie konnten die Blockchain dazu nutzen, mussten jedoch nicht, denn die Abgabe der Stimme sowie die Überprüfung, dass sie korrekt gezählt wurde, war über die App möglich. (41) Die Blockchain selbst blieb also auch bei diesem Anwendungsfall weitgehend „hidden“.

Doch schon auf der konzeptuellen Ebene ergaben sich Probleme, vor allem im Hinblick auf die Feststellung der Berechtigungen. Zur eindeutigen Identifizierung hätten sensible Informationen auf der Blockchain gespeichert werden müssen – unveränderlich, bzw. unlöschbar. Die Unveränderbarkeit einmal veröffentlichter Daten gehört ja zu den Grundprinzipien der Blockchain. Die Datenschutzgrundverordnung (DSGVO) sichert jedoch jeder Person ein „Recht auf Vergessenwerden“ (Art. 17) zu, also den Anspruch, dass personenbezogene Daten gelöscht und nicht weiterverbreitet werden. Zwar könne man durch Hashfunktionen personenbezogene Daten anonymisieren. Ob diese kryptografische Anonymisierung eine Löschung im Sinne der DSGVO darstelle, sei allerdings umstritten, so der Bericht. (22f) Ein weiterer Trade-off.

Um das Problem zu entschärfen, wählte man den Weg, dass sich zur Abstimmung Aufgerufene mit einer E-Mail-Adresse verifizieren konnten. Dadurch wurde jedoch in Kauf genommen, dass Aufgerufene mehrere E-Mail-Adressen einreichen und mehrfach abstimmen oder auch Personen teilnehmen, die nicht berechtigt waren. (23) Um das Datenschutzproblem zu entschärfen, riskierte man also die Integrität des Abstimmungsvorgangs. (42)

Gegenwärtig seien blockchain-basierte Abstimmungen, die verlässlich, transparent und anonym sind, nicht realisierbar, so der Bericht,

„because of a number of issues presented by the intrinsic nature of blockchain technologies which include the complexity of the technology, an uncertain legislative context, public stakeholder needs, citizens and institutional resistance.” (42)

Die fünfte Stufe des Partizipationsmodells, Empowerment, wurde als „participatory budget“, als Bürgerhaushalt, tokenisiert – und näherungsweise durch die Ausgabe von Token abgebildet. Das war der dritte Anwendungsfall des Forschungsprojekts. Der ausgegebene Token ermächtigte jedoch zu nicht viel mehr als zum Bezug eines Kaffees. Token werden im Bericht als „digital, countable and transferable assets” definiert, die ohne zentrale Akteure, wie Banken, gemanagt werden. (24) Der berühmteste und erste Krypto-Token ist der Bitcoin. In der Blockchain-Welt lassen sich die zu den Chains gehörigen Token tatsächlich als ein „participatory budget“ begreifen, insofern der Besitz von Token zur Mitbestimmung an der Ausgestaltung der jeweiligen Blockchain berechtigt – mit allen Problemen, die sich aus diesem Partizipationsmodell ergeben, nicht zuletzt der höchst ungleichen Verteilung der Token, die Kritiker:innen der Technologie immer wieder monieren. Im Rahmen des BBBlockchain-Projekts sollte mit den Token lediglich ein Anreiz zur Teilnahme an den Abtimmungen gesetzt werden. Es war also gar nicht beabsichtigt, den Token-Mechanismus als Mittel zur Übertragung von „decision-making power“ zu nutzen. Man könnte hier der Meinung sein, dass emanzipatorisches Potential verschenkte wurde, wo es tatsächlich vorhanden war.

Eine Gefahr sahen die Forschenden darin, dass die Ausgabe eines Tokens mit monetärem Wert mit Sicherheitsrisiken verbunden ist: Dieser Wert wäre ein Grund für Angreifer:innen, die Blockchain zu hacken. Solche Angriffe durchziehen die Blockchain-Geschichte wie eine dichte Kette, wie die Krypto-Kritikerin Molly White auf ihrer Webseite Web3 is Going Just Great dokumentiert. Es hätten sich außerdem auch Fragen in Bezug auf die Geldwäschegesetzgebung ergeben.

Man entschied sich daher, nur „non-fungible tokens“, NFTs, auszugeben, also nicht übertragbare Token, die, sobald eingelöst, auf der Blockchain gesperrt wurden. Diese Token konnten nur in den jeweiligen Beteiligungsprojekten und Nachbarschaftstreffen eingelöst werden bzw. in einem beteiligten Café. (24) In der Kosten-Nutzen-Rechnung der Bürger:innen fiel der Anreiz offensichtlich durch: Insgesamt erhielten 81 Teilnehmende einen NFT, den nur sechs Prozent von ihnen einlösten. (43)

Am Anfang des Forschungsprojekts BBBlockchain – blockchain-basierte Stadtentwicklung stand das Versprechen, auf technologischem Wege Vertrauen zwischen Akteuren zu schaffen, die einander nicht trauen. Die Vertrauensfrage war offensichtlich komplizierter: Weil die Forscher:innen nicht darauf vertrauten, dass sich die Benutzer:innen die Blockchain-Technologie aneignen, versteckten sie sie hinter einer Benutzeroberfläche, die einem Social-Media-Feed glich. Auch wenn BBBlockchain eine blockchain-basierte App war, war es offensichtlich dieses vertraute Konzept, welches in den Umfragen überwiegend als leicht und intuitiv zu bedienen eingestuft wurde – Schlüsselwort: intuitiv. Das sind Blockchains immer noch nicht. Daher auch die abschließende Feststellung im Bericht: „such results are regardless of the fact that our App was built on blockchain“. (45)

Auch in der Interaktion zwischen Mieter:innen und Wohnungsgesellschaft brachte die Blockchain nicht automatisiertes Vertrauen, sondern eher technisch-induziertes Misstrauen. Die Mieter:innen, um deren Partizipation es doch ging, wurden zwar im ersten Pilotprojekt informiert, erhielten aber aus Furcht vor Missbrauch der App keine Schreibrechte – als einzige Stakeholdergruppe. Man misstraute ihnen, doch was stand zu befürchten? Schlechte Rückmeldungen? Kritik? Auch auf der Seite der Wohnungsgesellschaften führte die Blockchain nicht zu offenerer Kommunikation, sondern zu mehr kommunikativer Vorsicht. Das lag vor allem an einem Feature der Blockchain: der Unveränderbarkeit der einmal veröffentlichten Information. Durch dieses Blockchain-Feature ergab sich auch ein möglicher Konflikt mit der DSGVO: Wenn die Blockchain so funktioniert, wie sie soll, dann gibt es kein „Recht auf Vergessen“. Man kann da ansetzen und überlegen, ob nicht nur dieses Recht, sondern auch die Möglichkeit der Korrektur etwas ist, dass nicht vorschnell als Manipulation diskreditiert werden sollte. Die Blockchain hat jedenfalls, auch aufgrund der im Realversuch notwendig gewordenen Abweichungen von den „blockchain principles“ , nicht zu mehr kommunikativer Partizipation geführt, sondern zu weniger. Das Ergebnis: „the BBBlockchain platform was little used by all stakeholder groups involved.”

Was fehlte? „(A)n appropriate communication culture among the stakeholders“. (46) Es scheint also, als würde die Blockchain nicht automatisch eine solche Kommunikationskultur herbeiführen. Nach der Lektüre des Berichts wird deutlich: Sie muss zwischen den Akteuren ausgehandelt werden – ganz offensichtlich auf dem traditionellen Weg: Verantwortlichkeiten müssen bestimmt, mitunter auch erkämpft und die Frage muss geklärt werden, wer durch wen in welcher Form zur Verantwortung gezogen werden kann. Dabei hilft die Blockchain wenig.

Kritiker:innen werfen der Blockchain vor, eine Lösung auf der Suche nach einem Problem zu sein. Die Bürgerbeteiligung gehört nicht zu diesen Problemen. Die Suche geht also weiter.

  1. Der Ethereum-Gründer Vitalik Buterin empfiehlt von „persistent scripts“ zu sprechen, da diese weder „smart“ noch „contracts“ seien, sondern ein Set automatisierter Regeln, die ohne menschliches Zutun funktionieren, vgl. dazu O’Dwyer 2023: 95, 284. ↩︎

Ietto, Beatrice/Robert Muth/Jochen Rabe/Florian Tschorsch (o.J.): BBBlockchain: Blockchain-based Participation in Urban Development. Final Report, o.O.

O’Dwyer, Rachel (2023): Token. The Future of Money in the Age of the Platform, London: Verso.

Dragomir, Eneia (2024): Eine App namens Blockchain. Schwierigkeiten der Tokenizierung von Bürgerbeteiligungsprozessen. In: Verantwortungsblog. https://www.zevedi.de/eine-app-namens-blockchain-schwierigkeiten-der-tokenisierung-von-buergerbeteiligungsprozessenk/ [15.05.2024].
https://doi.org/10.60805/fjam-gy97

Kategorien
Akzentfarbe: beige Autor: Borna Mohajer Verantwortungsblog

„Die Kunstwelt ist eine Mafia”

„Die Kunstwelt ist eine Mafia”

In den Hype-Jahren wurden NFTs im Wert von 17 Milliarden US-Dollar gehandelt. Die Goldrauschstimmung ist zwar vorüber, aber die NFTs sind geblieben. Für einen iranischen Sammler sind die JPGs sein Leben. Konstantin Schönfelder hat darüber mit ihm gesprochen.

Borna Mohajer im Gespräch mit Konstantin Schönfelder | 15.05.2024

Die Buchstabenfolge NFT.
Erstellt mit Adobe Firefly. Prompt: „illustration of the letters N F T in brown tones, cubism, minimalism; abstract; modern art“

Die Welt der NFT’s hat sich für eine breitere Öffentlichkeit vor allem als Spekulationsphantasie dargestellt. Ein „NFT“, ein Non-Fungible Token, ist im Gegensatz zu Kryptowährungen ein singulärer und nicht teilbarer Wert auf der Blockchain, eine Art Sigel oder Zertifikat. Als wichtigstes Anwendungsgebiet dafür hat sich bislang digitale Kunst entwickelt: Sobald die Datei eines Kunstwerks auf einer Blockchain „geminted“ wird, ist das NFT auf einem öffentlichen Konto einsehbar. Wer den Token besitzt, ist der Eigentümer des digitalen Kunstwerks, das nun zwar weiterhin kopiert und vervielfältigt werden kann, aber eben ohne dabei aber das im Token festgeschriebene Eigentumsverhältnis zu berühren. In den Hype-Jahren 2021/22 wurden NFTs im Wert von 17 Milliarden US-Dollar gehandelt. Die JPEGs – etwa von stilisierten Affen und Pinguinen – wurden von zahlreichen Prominenten gehandelt, der Hype damit noch weiter befeuert. Der Wert der digitalen Artefakte und die Innovation hinsichtlich der Eigentümerschaft ist jedoch, wie das Meiste in der Krypto-Welt, extrem volatil: Die „CryptoPunks”, eine Kollektion mit 10.000 einzigartigen menschenähnlichen Figuren, die zu den ersten Kollektionen des NFT-Goldrausches zählt, wurden mitunter im zweistelligen Millionenbereich gehandelt, pro Stück. Sie verfügen mittlerweile allerdings nur noch über einen Bruchteil dieses Wertes, der zudem in starker Abhängigkeit zur ihrerseits schwankenden Kryptowährung Ether steht. Nun scheint die ungebrochene Faszination etwas abgeklungen, die Welt digitaler Kunstsammler:innen normalisiert sich. Der Taschen-Verlag hat für das Jahr 2024 eine erste monographische Kuration von NFTs vorgelegt und die 101 „einflussreichsten“ Künstler:innen zwischen zwei Buchdeckeln gebündelt. Das Buch kostet, je nach Ausführung, zwischen 750 und 4.000 Euro. Im Interview spreche ich mit einem Sammler digitaler NFT-Kunstwerke, der den Hype hinter sich hat, für NFTs aber dennoch eine Zukunft sieht.

Borna Mohajer: Das war im März 2021, als Beeple seine „Everydays: the First 5000 Days“ für 69 Millionen Dollar bei Christie’s verkaufte. Und nur eine Woche später wurde bei Christie’s ein Haufen „CryptoPunks” für 12 Millionen verkauft. Das war der Boom der NFTs. Und ich wusste noch nichts davon. Ich wusste nichts über Krypto. Ich wusste nur, dass es etwas namens Bitcoin gab, das man „minen” konnte. Ich habe vor ein paar Jahren versucht, Bitcoin zu minen, aber mit meinen Laptops und Desktop-PCs konnte ich nur ein Millionstel Bitcoin pro Jahr damit bekommen. Das war es nicht wert. Aber da ich als Fotograf arbeitete, war das erste, was ich über NFTs dachte, dass ich meine Fotos verkaufen kann. Also begann ich, meine Fotos als NFTs zu vermarkten, und versuchte, sie auf Twitter zu promoten. Aber das ging schief, niemand hat sich dafür interessiert.

BM: Damals gab es eine Twitter-Diskussion um die Rivalität zwischen den „CryptoPunks“, die im Grunde die Großväter der gesamten NFT-Szene waren, und dieser neuen Sammlung, den „Bored Apes“. Das hat mich fasziniert. Diese „Bored Apes“ wurden für etwa 180 bis 200 Dollar pro Stück verkauft, und viele neue Leute kauften sie und stiegen so in die NFT-Welt ein. Ich verfolgte das, und mochte diese Affen wirklich – diese seltsamen Individuen, die diese Art von gegenseitiger Rivalität haben. Zu derZeit, als ich begann, mich ernsthaft mit ihnen zu beschäftigen, kosteten die billigsten Affen etwa 3.000 Dollar. Aber alles, was ich hatte, waren etwa 10.000 Dollar, das war mein gesamtes Vermögen. Zugleich mochte ich diese seltsame Kultur rund um diese Affen und Avatare wirklich sehr. Natürlich gefielen mir die Punks besser, aber ich hatte kein Geld, um die Punks zu kaufen, also kaufte ich schließlich einen „Bored Ape”. Ich hatte keine Ahnung von seinem tatsächlichen Wert. Es war mir auch egal. Ich habe jedenfalls 3.000 Dollar bezahlt. Vielleicht wollte ich einfach nur cool und schräg sein und den Leuten eine lustige Geschichte erzählen können. Wenn mich das nächste Mal jemand fragt: „Und was machst du? “, kann ich antworten: „Ich habe 3.000 Dollar für dieses JPEG bezahlt“. Ich hatte keine weitergehenden Pläne, aber ich habe mich sofort damit identifiziert.

„Bored Ape 5136, im Besitz von bornosor.eth“

BM: Als ich die ersten Angebote erhielt, wurde mir klar, dass dies eine Art Investition war. 2000 Dollar, 2500 Dollar wurden mir kurz darauf geboten. Und fünf Tage später bekam ich ein Angebot über 3600 Dollar, was mehr war, als ich dafür bezahlt hatte. Zuerst habe ich gar nicht verstanden, was da passiert ist. Es ist ein Secondhand-Affe. Warum sollte jemand mehr dafür bezahlen wollen? Ich verstand die Idee von Sammlerstücken nicht und wie sie funktionieren. Alles, was ich bis dahin gekauft hatte, verlor an Wert: Ich kaufte eine Kamera, benutzte sie und sie wurde entwertet. Aber ich wollte diesen Affen ja gar nicht verkaufen. Also habe ich stattdessen einen neuen Affen gekauft, den ich für das Doppelte verkaufen wollte, was eine weitere coole Geschichte wäre, die man beim Abendessen erzählen könnte. Und wenn mich das nächste Mal also jemand fragt, was ich mit meinem Leben anstelle, antworte ich: „Ich habe dieses JPEG für 4.000 Dollar gekauft und für 10.000 Dollar verkauft“. Also habe ich versucht, einen mit seltenen Merkmalen zu bekommen: Er trug einen coolen Tweed-Mantel im Gangster-Stil, der teurer war als die anderen Kleidungsstücke, die die anderen anhatten. Und den bekam ich für etwa 4.000 Dollar. Aber am Ende habe ich auch den einfach behalten. Vielleicht war das der Moment, in dem ich anfing, ein Sammler zu werden.

BM: Ich habe festgestellt, dass mir das tatsächlich Spaß macht. Das ist es, was ich bin. Und die Leute assoziieren mich plötzlich damit! Ernstzunehmende Leute, wie der CEO des Time Magazine, begannen mir zu folgen und mit mir zu sprechen. Da habe ich gemerkt: Das ist eine Identität, und es geht um mehr als nur um Spaß im Internet. Ich sammle Dinge, die für ernsthafte Menschen auf der ganzen Welt von Bedeutung sind. Das war etwa Ende 2022. Die „Bored Apes“ schossen auf 600.000 Dollar pro Stück in die Höhe und die „CryptoPunks“ lagen bei 300.000 bis 400.000 Dollar. Ich wollte erst wechseln, aber dann bin ich bei den „Bored Apes“ geblieben. Ich brauchte meine Geschichte viel mehr als die Punks. Und ich war außerdem mit meiner Entscheidung für die „Bored Apes“ schon ziemlich bekannt.
Und ja, ich spreche von „Identifizierung“ im Sinne der Zugehörigkeit zu einer Gemeinschaft, die sofort erkennbar durch das entsprechende Profilbild ist. Und im Falle des NFT kann man sich den digitalen Fußabdruck einer Person anhand der Aktivitäten auf der Blockchain ansehen: Was hat diese Person gesammelt, verkauft, gehandelt. Es ist sowohl sehr anonym als auch sehr genau nachvollziehbar, wie engagiert man sich für seine digitale Identität einsetzt.

BM: Ich habe nie etwas Bedeutendes aus diesen Werten gemacht. Aber in der Ethereum-Welt habe ich mit diesen beiden Affen angefangen. Und wenn man die NFTs eine Weile behält, bekommt man noch ein paar Extras. Das wird für Leute, die sich nicht auskennen, sehr dumm klingen, aber neben den Affen haben sie, die Erfinder Affen, uns zunächst Hunde gegeben. Sie haben gerade bekannt gegeben, dass man für jeden Affen einen Begleithund bekommt, und zwar kostenlos. Der Hund kostete etwa 4.000 Dollar. Kostenloses Geld dachte ich, danke. Ich habe die Hunde immer noch. Und sie kosteten irgendwann um die 40.000 Dollar pro Stück. Und dann gaben sie uns eine Art Impfserum, kostenlos für jeden Affen, also bekam ich zwei davon. Dann konnte man auf die Webseite gehen und seinen Affen mit einem dieser Serums paaren – und so einen mutierten Affen erschaffen. Ich behielt den ursprünglichen Affen, aber das Serum wurde zerstört und daraus entstand dieser mutierte Affe. Ich hatte also zwei „Bored Apes”, zwei Hunde und zwei mutierte Affen (die Mutanten kosteten zur Hochzeit jeweils 200.000 Dollar). Außerdem kündigten sie an, dass sie ein Spiel mit dem Namen Metaverse machen – sie brachten den Token „Ape Coin” auf den Markt, der ein fungibler Token ist, also kein NFT mehr. Und sie haben mir Tokens im Wert von etwa 700.000 Dollar gegeben, nur weil ich zwei Affen, zwei Hunde und zwei mutierte Affen in meiner Wallet hatte. Für die anfängliche Investition von 8.000 Dollar für die zwei Affen habe ich etwa 2 Millionen Dollar an Geschenken bekommen. Wenn du verkaufst, entgehen dir vielleicht die künftigen Extras. Und mir ging es sowieso nicht um das Geld. Also habe ich als Beweis meines Commitments bis heute alles behalten.

BM: Ich und ein Freund wollten diese kulturelle Rivalität zwischen den Gemeinschaften der „Bored Apes” und „CryptoPunks” schlichten. Die „CryptoPunks” tragen keine Kleidung, man sieht nur das Gesicht, die „Bored Apes” zeigen ihre Schultern und ein wenig die Brust. Wir haben einige dieser Kleidungsstücke im Stil der „CryptoPunks” und der gepixelten Kleidung neu gezeichnet und einige der Köpfe der „CryptoPunks” draufgesetzt. Es war eine Mischung aus beiden Typen, und wir nannten sie „Bored Punks”. Wir haben sie dann auf der Plattform Opensea veröffentlicht. Es war als Aufruf zum Frieden, zum Waffenstillstand gedacht. Jeder Affe kostete genau ein Zehntel von dem, was ein „Bored Ape“ bei der Markteinführung kostete.
Das Ziel war, ein Drittel der Sammlung zu verkaufen, um ein neues iPhone oder ein iPad davon zu kaufen. Aber dann war die Kollektion tatsächlich innerhalb von sechs oder sieben Minuten ausverkauft und brachte uns 25.000 Dollar ein. Das war der Wahnsinn und wurde natürlich zu einem sehr ernsthaften Projekt. Aber dann begann Opensea, der damals seriöseste NFT-Marktplatz, Menschen aus dem Iran zu sperren. Die Kollektion erzielte auf dem Sekundärmarkt irrsinnige Preise, und wir konnten nicht von den Royalties für diese NFTs profitieren, mit denen wir auf dem Sekundärmarkt fünf Prozent für jeden Verkauf gemacht hätten. Das wäre das Fünf- oder Sechsfache dessen gewesen, was wir mit dem Erstverkauf verdient hatten. Es war seltsam, dass Opensea so vorgegangen ist. Wir waren aktive Teilnehmer in diesem Bereich und sie haben einfach prinzipiell unsere Sammlung ausgeschlossen. Opensea verstößt meiner Ansicht nach gegen das Prinzip der Inklusivität, sie meinen damit nur bestimmte Gruppen, die schwarze Community in den USA oder homosexuelle Amerikaner, LGBQ-Menschen etc. Aber alle Iraner:innen sind aus Prinzip ausgeschlossen. Es ist seltsam, das zu sagen, aber ich war dennoch gar nicht unglücklich darüber, dass dieses Projekt beendet wurde. Ich wollte nie, dass es mich definiert, und so konnte ich andere Sachen machen.

BM: Jetzt bin ich hauptsächlich bei Superrare. Superrare hat als erster Marktplatz  Smart Contracts eingeführt, die die Künstler:innen einsetzen können. Davor waren die Unterschrift und der Name des Künstlers nur ein Merkmal, das das NFT hatte. Es hieß „Künstler” und diese Kategorie war der Name. Aber der Token war Teil dieses riesigen gemeinsamen Vertrags zwischen allen Künstler:innen. Superrare hat das geändert. Nun konnte man den eigenen, unabhängigen Vertrag auf Superrare verwenden. Selbst wenn Superrare eines Tages beschließen sollte, dich zu sperren, hättest du immer noch volle Autonomie über deine Werke.

BM: Als Damien Hirst ankündigte, dass er die Kollektion machen will, waren wir einfach nur froh, dass ernstzunehmende Künstler den Raum betreten. Ich habe nicht in Erwägung gezogen, selbst eins zu kaufen. Sie kosteten 2.000 Dollar, als sie auf den Markt kamen, und es gab ein seltsames Kartenzahlungssystem. Also habe ich mich nicht am Erstverkauf beteiligt.
Jedes einzelne dieser 10.000 Werke, physisch hergestellte und dann als NFT digitalisiert, ist von Damien Hirst individuell benannt worden. Es sind ja nur zufällig mit Punkten bedeckte Gemälde, aber sie sind benannt. Ich habe mir diese Kollektion lange nach ihrer Veröffentlichung angesehen, sie war schon viel teurer. Sie kostet mittlerweile 12.000 oder 13.000 Dollar pro Stück. Ich fand eines, das To prove you wrong hieß. Und ich dachte, das ist die Essenz dessen, was ich mit NFTs mache. Also habe ich es gekauft. Ich meine, ich hatte eine Menge magisches Internet-Geld in meinen Taschen. Ich konnte es mir mit dieser Währung leisten, die ich sowieso nicht für irgendetwas anderes benutze, also habe ich es einfach gemacht. Und wieder, ähnlich wie bei meinen „Bored Apes”, dachte ich mir, vielleicht bietet Hirst eine physische Version an, und was mache ich dann? Es wäre ja sehr dumm, das NFT im Austausch für die physische Version zu zerstören.
Das Prinzip war: Wer ein Kunstwerk von „The Currency” erwirbt, hat ein Jahr Zeit, sich für das physische Original oder das NFT zu entscheiden. Also dachte ich, ich besorge mir ein weiteres Exemplar, und das andere wird dann zerstört. Um eines als NFT, eines als physisches Original zu haben. Am Ende habe ich beide als NFTs behalten. Man erhält einen Download-Link für diese Bilder mit einem sehr hochauflösenden Scan beider Seiten des Kunstwerks, die Datei ist jeweils größer als 100 Megabyte. Und es war sehr schön zu sehen, dass Hirst selbst seinen gesamten Vorrat verbrannt hat. Er hatte eintausend für sich behalten. Ursprünglich wollte er nur 10 Prozent davon als NFT aufbewahren und 900 im physischen Original. Aber am Ende der Reise, durch diese soziokulturell neue, verrückte Gemeinschaft, die sich um diese Kunstwerke herum gebildet hat, hat er beschlossen, alle 1000 als NFT zu behalten. Ich erinnere mich, dass wir uns auf Discord mit ihm unterhalten haben. Er verdiente bereits eine Menge Geld mit seinen Verkäufen, den Tantiemen usw. und wie ein Kind, wie alle von uns, kam er in den Chat und stellte seine neue NFT-Kollektion vor. Er zeigte seinen neuen „Bored Ape”. Damien Hirst hat geflext.

BM: Ich bin weniger eingeschränkt. Zunächst einmal lebe ich im Iran. Ich habe keinen Zugang zu den meisten großen (westlichen) Märkten. Ich muss reisen, um an diese physischen Waren zu kommen. Ich habe keinen Zugang zu Gemeinschaften von Menschen, die ebenso besessen sind wie ich von diesem speziellen Sammlerstück. Und ich habe auch nicht wirklich ein Ventil, um mich als jemand, der ein Interesse am Sammeln dieser Dinge hat, auszudrücken oder zu präsentieren, zumindest kann ich mein Interesse an ihnen nicht authentifizieren. Ich kann Fotos von Autos teilen, aber ich kann nicht wirklich beweisen, dass ich ein Autosammler bin, es sei denn, ich besuche Autoshows. Jetzt kann ich all dies von meinem Zuhause in Teheran aus tun.

BM: Diese „Ich bin ein engagierter, digitaler Spinner, der einen Großteil seines Geldes in komische Zeichentrick-Affen investiert hat“-Erzählung wurde geändert in „Du bist ein brillanter Kopf und hattest die Intuition, all diesen Leuten voraus zu sein“. Und plötzlich bist du Clubkamerad von Snoop Dogg, Eminem, Madonna und Jimmy Fallon. Ich mochte das nie. Ich wollte nicht, dass der Affe zu einem Rolex-Symbol wird.  

BM: Taschen veröffentlichte es auf einer Konferenz in Paris im Rahmen einer größeren Veranstaltung für NFTs im Februar 2024. Es umfasst Künstler und Projekte, die im Bereich der NFT- und der digitalen Kunst einflussreich waren. Aber es gibt zwei Probleme: Es ist ein sehr, sehr teures Buch. Das Basismodell kostet 750 Euro. Und was auch eine Menge Kontroversen auslöste, war das, was einige Leute auf X den „Taschen-Effekt“ nannten – einige der enthaltenen Kunstwerke waren zu unverschämten Preisen gelistet. Dieser Preis war als „unverkäuflich“ gedacht, nicht als wirklicher Preis, den irgendjemand bezahlt hätte.
Aber als das Buch dann in Paris an einem Stand einsehbar war, und die Leute es dort durchblätterten, begannen viele dieser Kunstwerke tatsächlich zu diesen verrückten Preisen verkauft zu werden, die das Drei-, Vier- oder Siebenfache der ursprünglichen Preise der anderen Werke dieser Künstler:innnen hatten. Das ist ein interessanter Effekt, denn die NFT-Welt versucht ja immer so zu tun, als würde sie sich der traditionellen Kunstwelt, die das Geld verdient, entgegenstellen. Sie will demokratischer sein und die Intermediäre der Kunstwelt abschaffen oder umgehen. Der Anspruch ist: Wir machen die Strukturen transparent. Wir ermöglichen es den Künstler:innen, direkt mit ihren Sammler:innen und ihrem Publikum in Kontakt zu treten. Und: Wir brauchen keine Institutionen, denn Institutionen sind möglicherweise böse und die Kunstwelt ist böse. Die Kunstwelt ist eine Mafia. Doch dann fängt die Kunstwelt, die böse Mafia, tatsächlich an, ein Buch über NFTs zu drucken.

Das Gespräch wurde am 25.02.2024 online zwischen Frankfurt und Teheran geführt.

Zitiervorschlag

Mohajer, Borna und Konstantin Schönfelder (2024): „Die Kunstwelt ist eine Mafia“. In: Verantwortungsblog. https://zevedi.de/die-kunstwelt-ist-eine-mafia/ [15.05.2024].
https://doi.org/10.60805/6tcy-wj84