Kategorien
Akzentfarbe: gelb (Schrader) Autor: Christian Schrader Uncategorized

Geschützt: Bemerkenswerte Ignoranz – die (fehlende) Verknüpfung von Digitalisierung und nachhaltiger Entwicklung auf Bundesebene

Dieser Inhalt ist passwortgeschützt. Um ihn anschauen zu können, bitte das Passwort eingeben:

Kategorien
Uncategorized

Maximilian Henning

Mercator-Journalist in Residence im Juni/Juli 2024

Maximilian Henning ist freier EU-Korrespondent zu Digitalpolitik.

Er schreibt für deutsche und europäische Medien über digitale Regulierung, Infrastruktur und Überwachung. Regelmäßig berichtet er dabei für netzpolitik.org und den Tagesspiegel Background. Seit 2023 lebt er in Brüssel und beobachtet die Entwicklungen in der Europäischen Union aus der Nähe, ob im Parlament, dem Rat oder der Kommission.

Vorhaben

Bei ZEVEDI beschäftigt sich Maximilian mit dem Digitalen Euro. Er will in einer Artikelserie untersuchen, wer was von diesem Großprojekt will. Was plant die EU, was die EZB? Welche Forderungen tragen Banken oder Zahlungsdienstleister vor, wie stehen die verschiedenen Mitgliedstaaten der EU zum Digitalen Euro? So wie das Projekt an sich bisher größtenteils unter dem Radar fliegt, ist auch die Verteilung der Interessen bisher noch nicht weit bekannt.

Der Aufenthalt bei ZEVEDI – Impulse und Effekte

Wer alles weiß, wenn du online bezahlst, netzpolitik.org, 2. Juli 2024.

Digitaler Euro: Was soll mir das bringen? , netzpolitik.org, 3. Juli 2024.

Wieviel Datenschutz darf’s denn sein?, netzpolitik.org, 4. Juli 2024.

Kategorien
podcast-de podcast-DG-de Uncategorized

Information und Desinformation – wie steht es um die Netzöffentlichkeit?

Der Medienwandel ist längst vollzogen. Damit hat sich in Sachen „News“ eine komplizierte Gemengelage entwickelt: Das Internet ist zu einem Marktplatz der Aufmerksamkeit geworden, und prinzipiell kann jede und jeder über soziale Medien, Webseiten oder Chatkanäle „Content“ verbreiten. Quellen für Nachrichten und Informationen über das öffentliche Leben sind also längst nicht mehr beschränkt auf Zeitungsredaktionen und Rundfunkanstalten, die seriös journalistisch arbeiten – im Gegenteil werden solche etablierten Medien zunehmend von alternativen Anbietern verdrängt. Diese verfolgen teilweise mehr oder weniger offen wirtschaftliche oder politische Interessen, die mit der Einhaltung journalistischer Standards unvereinbar sind, und in der Vielzahl der Stimmen im Netz verbreiten etliche gezielt falsche oder irreführende Meldungen. Derlei Desinformation ist ein Problem für den demokratischen Diskurs, führt zu Verunsicherung und Spaltung und hat direkte Auswirkungen in der Realität, die mitunter schwer oder gar nicht mehr einzufangen sind. Solche Effekte sind von den Institutionen, die Desinformation verbreiten, beabsichtigt und bereits in der Breite sichtbar, sie werden durch automatisierte Prozesse, Algorithmen und generative KI verstärkt. Wie können wir als Gesellschaft auf diese Entwicklung reagieren, und welche Rolle hat der Journalismus und haben Medienschaffende dabei?

Christian Stöcker ist Journalist, Autor und Professor für Digitale Kommunikation an der Hochschule für Angewandte Wissenschaften Hamburg, wo er den Master-Studiengang „Digitale Kommunikation“ leitet. Zuvor verantwortete er bei SPIEGEL ONLINE das Ressort Netzwelt. Der Experte für digitale Medien und ihre gesellschaftlichen Auswirkungen erklärt im Digitalgespräch die Transformation der Medienlandschaft, die wir in den letzten Jahrzehnten vollzogen haben, gibt Einblicke in Funktionsweisen und Hintergründe zentraler Online-Plattformen und zeigt Verknüpfungen mit aktuellen politischen und sozialen Entwicklungen auf. Er beschreibt, welche Auswirkungen das Vorhandensein von Desinformation auf das Berufsbild des Journalismus hat und wie junge Medienschaffende darauf vorbereitet werden. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Stöcker das Szenario, das uns erwartet, wenn die Desinformations-Strategien weiterhin erfolgreich sind, welche Maßnahmen dagegen ergriffen werden könnten – und welchen Regeln sich alle unterwerfen sollten, die die Möglichkeiten eines demokratischen Diskurses erhalten und die Schäden eindämmen wollen.

Folge 53: Digitalgespräch mit Christian Stöcker von der HAW Hamburg, 18. Juni 2024
Weitere Informationen:

Zur im Gespräch erwähnten Studie von Soroush Vosoughi et. al von 2016 zur Verbreitung von Desinformation in Online-Medien: https://www.science.org/doi/10.1126/science.aap9559

Zur im Gespräch erwähnten Initiative „Klickwinkel“: https://klickwinkel.de/

Zur im Gespräch erwähnten Initiative „Use the News“: https://www.usethenews.de/de

Alle Folgen des Digitalgesprächs
Folge 0: Digitalgespräch - ab dem 26. Mai 2021
Ein Vorgeschmack auf das Digitalgespräch | 24. Mai 2021 | zur Folge»

Alle ZEVEDI-Podcasts

Creative Commons Lizenzvertrag

Kategorien
Autor: Konstantin Schönfelder eFin-Blog Farbe: gelb Uncategorized

„Eigenes Risiko als Gefahr für andere“

„Eigenes Risiko als Gefahr für andere“ – ZEVEDI Citizen Lecture mit Joseph Vogl

Ein Beitrag von Konstantin Schönfelder

11. Juni 2024

Eine „Bestandsaufnahme“ nennt der nun emeritierte Professor Joseph Vogl, von Haus aus Literaturwissenschaftler, seine Analysen über den Finanzmarkt, die er seit 2010 anstrengt, dem Erscheinungsjahr vom „heimlichen Bestseller“1 Das Gespenst des Kapitals. Seitdem ließ er mit Souveränitätseffekt (2015) und zuletzt mit Kapital und Ressentiment (2021) zwei weitere monographische und vieldiskutierte Teile einer düsteren Finanzwirtschaftssaga folgen, die wohl auch nach seiner Emeritierung noch fortgesetzt werden wird. Doch es ist „nur“ eine „Bestandsaufnahme“, wie sich Vogl an jenem Vortragsabend in der Technischen Universität Darmstadt bescheidet, als er im Rahmen der Citizen Lecture „Finanzen, Staat, Digitalisierung & Demokratie“ seinen Beitrag zu „Souveränitätsproblemen im Finanzmarktkapitalismus“ ausführt.2 Vogl entwirft keine spekulative Dystopie, keine (etwa marxistische) Parteinahme, dafür interessiere er sich derzeit nicht sonderlich, sondern eine historisch geleitete Beschreibung von der Entstehung, Expansion und Ermächtigung von Finanzmärkten, die in den letzten Jahrzehnten vor allem von Technologien des Digitalen gepusht wurden, um schließlich in etwas, was Vogl „Plattformkapitalismus“ nennt, zu münden. Die aber zuweilen dystopische Züge annimmt. Aber gehen wir es doch einmal schrittweise durch.

Vogl diagnostiziert der Digitalökonomie, der Finanzindustrie, dem Informationskapitalismus – für ihn alles Synonyme – eine diabolische Lüge im Grunde ihres Wesens. Sie gibt vor, etwas zu sein, was sie nicht ist. Denn in Wahrheit ist, laut Vogl, die Finanzindustrie eine machtvolle „vierte Gewalt“, die er auch die monetative Gewalt nennt. In seinem jüngsten Buch hat er dieser ein ganzes Kapitel gewidmet. Diese monetative Gewalt liegt in den unsichtbaren Händen der Finanzregime, die „mehr und mehr staatlichen Ehrgeiz entwickeln“, ohne dabei aber rechtlich gebunden zu sein, wie es andere staatliche Akteure sind. Bei diesen Finanzregimen denkt Vogl vor allem an Plattformen mit „transgouvernementaler Handlungsmacht”3, also an die milliardenschweren Digitalkonzerne Google, Meta und Co., die es in ausgeklügelten Systemen geschafft haben, ihre gewinnbringenden Geschäftsmodelle exponentiell auszuweiten und Haftung in entgegengesetzter Richtung abzustreifen.

Möglich gemacht hat es unter anderem die bis ins Unheimliche gesteigerte Geschwindigkeit der Übertragung von Information. Schon die Zeitung, so leitet es Vogl her, war ursprünglich ein Medium zur Übertragung von Finanznachrichten. Und jene Kaufmänner mit diesem Informationsvorsprung hatten einen Marktvorteil, den sie kapitalisieren konnten. Der gamechanger dahingehend kam durch die Einführung des World Wide Web in den 1990er-Jahren, das Information instantan und massenhaft verfügbar machte. Auswüchse der Finanzindustrie, wie etwa das high frequency trading, sind nur eine logische Folge dieser technologischen Disruption. Die Frage, die sich im Nachhinein damit aufgetan hat, ist: Wie kann man diese nicht rivalisierenden Güter zu Waren machen?

Aus Informationen Waren machen

Mit nicht rivalisierenden Gütern sind jene gemeint, die durch ihren Verbrauch nicht verknappt werden. Benzin wird durch den Verbrauch verknappt, zum Beispiel. Aber Information und Kommunikation wird im Einsatz nur weiter vervielfältigt. Die Antwort, die die Plattformunternehmen darauf gefunden haben, ist, die Daten wie Rohstoffe zu behandeln:

Sie wissen, dass man mit jeder Googlesuche, jedem Tweet oder jeder Bewegung auf sozialen Märkten, Datenrohstoffe produziert. Rohstoffe, die unter der Bedingung stehen, dass man selbst über sie nicht verfügen kann, also dass man digital enteignet wird. Das ist der enorme Gewinn dieser Unternehmen.

Enteignet werden die Nutzenden also dadurch, dass sie bestimmte niedrigschwellige Informationsangebote wahrnehmen – Karten, Datenbanken, Kommunikationsdienste -, aber damit im Gegenzug all ihre angesammelten Daten irgendwo und außer Sichtweite gespeichert, verarbeitet und verkauft werden. Lukrativ ist dieses Geschäftsmodell zunehmend deshalb, da die Datenpakete im Web 2.0 bereits gewinnbringend verbandelt sind. So heißt es in Kapital und Ressentiment:

Unter den technischen Bedingungen des Web 2.0 und der Plattformkommunikationen sollten vielmehr alle Daten, die durch die verfolgbaren Online-Tätigkeiten der gesamten Netzpopulation hervorgebracht werden, als immer schon extrahierte Daten, als Metadaten und somit relationale Objekte begriffen werden, in denen Daten bereits mit Daten korreliert und kollationiert sind und sich zur weiteren Verarbeitung anbieten.4

Nun liegt es nahe, dass die Internetriesen mit dieser selbstwachsenden Saat nicht nur Schnittstellen oder Medien sein wollen, die sich mit Vermittler- und Werbeeinnahmen begnügen. Es geht vielmehr darum, diesen Prozess beschreibt Vogl in der Vorlesung sehr anschaulich, dass sie beginnen, öffentliche Aufgaben zu übernehmen, Infrastrukturen bilden, Krankenhausdienste anbieten etc. Und während die Unternehmen das tun, lancieren sie die These, „und das ist neu […], dass der Kapitalismus, der wirkliche Kapitalismus, keinen Wettbewerb, sondern Monopolisten benötigt.” Diese quasi-staatlichen Akteure mit dem Wunsch, Monopol sein zu dürfen, sind so auch ins Finanzgeschäft vorgedrungen, denn sie haben ja alles, was sie dafür brauchen. Angebote von Bezahldiensten zum Beispiel, neben Investmentfonds und Finanzierungsinstrumenten, gehörten schon seit Längerem zu den „wesentlichen Treibsetzen” amerikanischer und chinesischer Plattformunternehmen. „Sie bieten den Vorzug, dass sie die verlässlichsten Daten zur gezielten Platzierung von Produkten und Werbung liefern und dass sich mit ihnen überdies der dezentrale internationale Zahlungsverkehr zentral überwachen lässt.“ Schon PayPal, so Vogl, sei mit dem Anspruch angetreten, eine Art Internetwährung zu schaffen, um den Dollar im internationalen Zahlungsverkehr zu ersetzen und staatliche Währungsmonopole zu unterlaufen. Und zuletzt hatte Meta versucht, mit Diem (ehemals Libra) eine eigenständige Internetwährung zu gründen, oder wie es Vogl sagt, „private Kontrolle mit para-staatlicher Ausweitung der Konzernmacht zu kombinieren“ – ein Vorhaben, das erst am Einspruch der Federal Reserve Bank gescheitert ist.

Entbunden vom Recht?

Nun scheint an diesem Beispiel ebenso deutlich zu werden, dass diese Plattformakteure nicht gänzlich rechtlich entbunden sind, aber dass sie ein sonderbarer Rechtsstatus kennzeichnet. Vogl rekonstruiert den Moment des Jahres 1996, als im Telecommunications Act, zur Beförderung des Internets, festgelegt wurde, dass die Plattformen für die Daten, die sie zirkulieren, nicht verantwortlich sind. Dieser Ausnahmefall habe uns einen „neuen Kapitalismus beschert“, denn die „Unternehmen machen mit Produkten ihre Geschäfte, die tief in das Soziale, in die Öffentlichkeit hineinwirken, für die diese Unternehmen aber nicht verantwortlich sind.“ Oder kurz: „Nutzer erzeugen, was Konzerne verkaufen.“5

Dies alles berührt das „Souveränitätsproblem des Finanzmarktkapitalismus“ ganz wesentlich. Kurz vor Schluss definiert Vogl schließlich den titelgebenden Begriff seines Vortrags so: „Souverän ist, wer eigene Risiken in Gefahren für andere zu verwandeln vermag und sich als Gläubiger letzter Instanz platziert.“ Sollten mit den Gläubigern letzter Instanz die Plattformunternehmen gemeint sein, lohnt es sich, im subversiven Potential dieses Satzes zu lesen. Von der anderen Seite des Plattformunternehmens aus gesehen, den Nutzenden, ist die „Gefahr für andere“, also ebenso die Gefahr für einen selbst, womöglich ein Handlungsspielraum. Die Idee einer sozialen Vernetzung, auch die Vorstellung einer direkten oder indirekten finanziellen Teilhabe an dieser wirtschaftlichen superpower, muss ja keine sonderbar einerseits privatisierte und andrerseits quasi-staatlich-monopolistische Angelegenheit sein, wie es Vogl mit einer für ihn typischen Wortneuschöpfung „Dämonokratie“ ins Wort setzt. Die EU, so bringt Vogl auf Nachfrage das Referat noch einmal auf eine andere Note, versuche ja, diese Entwicklung der Finanzmärkte einzudämmen. Der Digital Markets Act sei etwa ein außergewöhnlich gutes Beispiel. Es gäbe sicher noch andere. Nun wäre das dann allerdings ein anderes Kapitel, vielleicht ja für ein weiteres Buch, und damit die Fortsetzung der Finanzsaga, die sich vor den kritischen Augen von Joseph Vogl und unseren weiter abspielt – mit offenem Ausgang.


  1. Dietmar Hawranek et al.: „Märkte außer Kontrolle“. In: Der Spiegel, 22.08.2011. ↩︎
  2. Joseph Vogl: „Souveränitätsprobleme im Finanzmarktkapitalismus“. Citizen Lecture Finanzen, Staat, Digitalisierung & Demokratie, 27.05.2024, https://tu-darmstadt.cloud.panopto.eu/Panopto/Pages/Viewer.aspx?id=3df89c29-7164-460b-8aed-b17d0103dc33.  Alle weiteren, nicht ausgewiesenen Zitate oder Belege sind als Wortlaute der Vorlesung entnommen. ↩︎
  3. Joseph Vogl: Kapital und Ressentiment, C.H. Beck: München 2021, S. 60. ↩︎
  4. Ebd., S. 80. ↩︎
  5. Ebd. ↩︎

Zurück zur Startseite des Blogs

Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors

Kategorien
Akzentfarbe: hellblau Autor: Georg Fischer Uncategorized Verantwortungsblog

Verantwortung im Zeitalter digitaler Kopien

Verantwortung im Zeitalter digitaler Kopien

Als Walter Benjamin seinen nun berühmt gewordenen Aufsatz zur technischen Reproduzierbarkeit veröffentlichte, konnte er unmöglich vor Augen gehabt haben, wie konkret sich sein Anliegen in unserer Zeit ausdifferenziert hat. Technische Reproduzierbarkeit bedeutet zunächst — eine Entfernung eines Objekts von seinem Ursprung, dem Hier und Jetzt, so nannte es Benjamin seinerzeit schon. Diese Entfernung wirkt durch diverse entkoppelnde Prozesse auf den Ebenen der Repräsentation, Replikation und Referenzierung. Dabei bilden sich neue Formen von Verantwortlichkeiten, besonders in den informellen Zonen des digitalen Raumes. Eine Analyse.

Von Georg Fischer | 28.05.2024

Erstellt mit Adobe Firefly. Prompt: „illustration of a pile of digital copies, light blue background, style: mechanistic“

Als Walter Benjamin in den 1930er Jahren seinen Aufsatz Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit verfasste, hatte er vor allem die Fotografie und den Film als Medientechnologien vor Augen. Von digitalen Kopien, Mashups, Memes und Remixes, aber auch von softwaregestützter Datenanalyse, large-language models sowie weltumspannender Vernetzung durch das Internet konnte er zu seiner Zeit nichts wissen. Benjamins Beobachtungen sind berühmt geworden und haben eine Vielzahl an medienwissenschaftlichen Ansätzen nach sich gezogen, in der Mehrheit vor allem mit den Fragen nach Aura und Originalität befasst. Bemerkenswerterweise hat es jedoch Benjamin versäumt, eine präzise Definition von dem zu geben, was er technische Reproduzierbarkeit nannte.

Im Anschluss an Benjamin möchte ich das Stichwort der technischen Reproduzierbarkeit analytisch zergliedern und damit für eine empirisch orientierte und gleichermaßen theoretisch fundierte Erforschung von Verantwortung in der digitalen Transformation aufbereiten. Technische Reproduzierbarkeit lässt sich verstehen als gesellschaftliche Verfügbarkeit solcher Technologien, mit denen sich Kopien anfertigen, verbreiten und bearbeiten lassen. Natürlich ist das Kunstwerk, wie Benjamin auch selbst und gleich zu Beginn seines Aufsatzes schreibt, immer schon reproduzierbar gewesen: Münzen etwa, über handwerkliche Methoden des Gießens oder Prägens. In der Moderne ändern sich aber Charakter und Qualität der Reproduzierbarkeit erheblich. Denn ihr Technisierungsgrad erhöht sich maßgeblich und in der Folge auch die Möglichkeit zur Automatisierung.

Beispielsweise ermöglichte die Erfindung der Fotografie im 19. Jahrhundert, Szenen relativ schnell medial festzuhalten und das in einer Abbildungstreue, die Zeichnungen oder ähnliche manuelle Verfahren nicht zuließen. Auch die Aufnahme und Speicherung von Klängen, die sich ab dem Ende des 19. Jahrhunderts etablierten, stellten eine Steigerung technischer Reproduzierbarkeit dar: Aufgenommene Musikstücke, Klänge, Geräusche und andere Töne konnten zuerst in Form von Wachswalzen, später auch mit Schallplatten oder Tonbändern gespeichert, mitgenommen und an anderer Stelle wieder abgespielt werden.

Darüber hinaus wurden die – als Kopien aufgezeichneten – originalen Schall- und visuellen Ereignisse für weitere Bearbeitung geöffnet, etwa durch Schneiden und Zusammenführen verschiedener Kopien. Das eröffnete die Möglichkeit, Kopien ausschnittsweise und in re-arrangierter Form zueinander in Beziehung zu setzen. Schließlich sind Reproduktionsverfahren zu nennen, die die gespeicherten Inhalte erneut auf Trägermedien bannen konnten, um Vervielfältigung zu erzielen. Der weitaus früher eingeführte Buchdruck dürfte dafür das augenscheinlichste Beispiel sein, da er es über das Lettern-Verfahren ermöglichte, Vervielfältigungen von Texten in ähnlicher Qualität in Serie zu produzieren. Mit dem Aufkommen digitaler Aufnahme-, Speicher- und Verbreitungsverfahren steigerte sich die technische Reproduzierbarkeit etwa seit der Jahrtausendwende noch einmal erheblich.

Ich schlage folgende Gedankenfigur vor, die die medialen Verfahren technischer Reproduzierbarkeit in drei analytischen Ebenen differenziert und damit auch die wechselseitigen Steigerungstendenzen erfassen kann. Die Unterteilung ist grundsätzlich auf handwerkliche, mechanische, industrielle, digitale und andere denkbare Formen technischer Reproduzierbarkeit anwendbar. Im Digitalen zeigen sich wegen der vielfältigen technischen Möglichkeiten die einzelnen Ebenen besonders deutlich.

Technische Reproduzierbarkeit wirkt – wie heute besonders gut zu erkennen ist – auf drei verschiedenen Ebenen: als Repräsentation von Wirklichkeit (1), als Replikation von Objekten (2) und als Referenz zwischen Kontexten (3).

(1) Zunächst zur Repräsentation: Hier ist das tatsächlich in seiner Funktion dokumentarische Aufnehmen und Festhalten von Wirklichkeit gemeint. Per Foto-, Video- oder Audioaufnahme lässt sich beispielsweise eine Szene festhalten, in der ein Raubvogel seine Beute ergreift. Besonders in visuell festgehaltener Form ist das eine reizvolle Szene, die in zahlreichen filmischen Naturdokumentationen vorkommt: zum Beispiel mit Teleobjektiv aus der Ferne herangezoomt und in Zeitlupe wieder abgespielt. Auch viele journalistische Formen des Abbildens zielen darauf, zu zeigen was (wie) war. Die Möglichkeit, ein Ereignis aus der Wirklichkeit – als Abbildung oder auf auditiver Ebene als Tonaufnahme – auf ein Medium zu bannen, in bestimmter Qualität zu speichern und zu einem späteren Zeitpunkt wieder abzurufen, bezeichne ich als Repräsentation.

(2) Eine gebannte Repräsentation lässt sich replizieren, also vervielfältigen und zwar je nach Speichertechnologie mit oder ohne Qualitätsverlusten. Ist die Repräsentation als digitale Datei gespeichert, kann diese in exakt gleicher Qualität auf einen anderen Datenträger übertragen werden (z.B. von einem USB-Stick auf eine Festplatte oder einen Server). Bei einem solchen Replikationsverfahren bleibt die Ausgangsqualität der Repräsentation bestehen. Lädt man das Video allerdings bei YouTube oder ein Foto bei Instagram hoch, kann sich die Qualität der Repräsentation verändern, da (abhängig von der technischen Umgebung) Kompressionsverfahren zur Minderung der Dateigröße zum Einsatz kommen.

(3) Auf der Ebene der Referentialität stehen Praktiken im Vordergrund, die neue Bezüge zur Kopie entstehen lassen – zumeist, indem man diese auch materiell nochmals anreichert. Nehmen wir wieder die Repräsentation mit dem Raubvogel: Sie könnte zum Beispiel mit einer neuen Tonspur unterlegt werden, die die Naturszene ins Lächerliche zieht, humorvoll kontextualisiert oder mit einer Chopin-Melodie in Moll zu einem Trauerspiel verwandelt. Die Szene könnte auch als Remix, Collage oder durch Montagetechniken, also mit Replikationsverfahren, in ein bestimmtes Licht gerückt werden, etwa indem ein Ausschnitt als Loop wiederholt, rückwärts abgespielt oder zerschnitten und rearrangiert wird. Auch eine einfache Betitelung kann die Naturszene mit neuen Bezügen, Bedeutungen, Kontexten etc. – kurz: mit neuen Referenzen – versehen.

Allen drei Ebenen ist gemeinsam, dass sich in ihnen – auf Grundlage von Verfahren technischer Reproduzierbarkeit – Entfernungen zum Original ereignen: die Repräsentation bildet das Objekt A als A¹ ab; die Replikation vervielfacht das Einzelobjekt B hin zu B¹, B², B³ usw.; und die Referenz schafft neue Bedeutungskontexte, indem ein Objekt C neue Bezüge zu C¹ oder C² usw. erhält. Wer sich dafür interessiert, könnte beispielsweise das „Wandern“ einer Kopie durch den (digitalen) Raum anhand von Reproduktionsverfahren näher untersuchen, um die stufenweise(n) Entfernung(en) zwischen Original und Reproduktionen zu beleuchten. Wichtig ist auch der Hinweis, dass mit jedem qualitativ bedeutsamen Schub technischer Reproduzierbarkeit typischerweise Diskurse entstehen, etwa um Originalität, um die Grenzen des Werk- oder Veröffentlichungsbegriffs, um Autor- bzw. Urheberschaft, um die Funktionalität bestehender ökonomischer Verwertungsgefüge sowie um die Zulässigkeit, Kontrollierbarkeit und Verantwortungszuordnung bei der Erstellung von Kopien.

Was lässt sich aus der analytischen Dreigliederung für das Verständnis von Verantwortung im Digitalen lernen? Ich versuche, meine Antwort anhand mehrerer aussagekräftiger Fälle und Phänomene zu formulieren, die den skizzierten drei Ebenen Rechnung tragen und gleichsam Benjamin mit Fragen der digitalrechtlichen Urheberschaft verbinden.

Digitale Reproduktionsverfahren ziehen, vor allem wenn sie in gesellschaftlicher Breite angewendet werden, praktische Verfahren zur Bearbeitung von Verantwortung nach sich. Ich schlage vor, diese unter den Gesichtspunkten der Individuation, Distribution und Delegation von Verantwortung heuristisch zu gliedern. Es ist offensichtlich, dass die definitorische Trennung dieser drei Gesichtspunkte nicht perfekt ist, aber sie sollte dabei helfen, den Blick für die verschiedenen Modi der Verantwortungsverarbeitung in der digitalen Welt zu schärfen.

Als sich um die Jahrtausendwende herum digitale Tauschbörsen für Musik, Filme und digitale Dateien etablierten, reagierte die Medienindustrie mit Kampagnen und juristischer Einflussnahme. Es ging ihr darum, die Verantwortung für das potentiell weltweite digitale Replizieren von urheberrechtlich geschützten Werken möglichst zu individuieren, also auf Einzelpersonen individuell zuzuordnen und damit juristisch verfolgbar und schließlich ökonomisch verwertbar zu machen. Vor allem die technisch affinen Jugendlichen und jungen Erwachsenen hatten zuvor von einem doppelten Schub technischer Reproduzierbarkeit profitiert, denn sie mussten nicht mehr in Plattenläden oder Videotheken gehen, um die Angebote der Unterhaltungsbranche zuhause zu konsumieren. Stattdessen konnten sie – ausgestattet mit Internetanschluss und entsprechender Peer-to-Peer-Software wie beispielsweise Napster – Musik, Filme, Fotos etc. auf den eigenen Rechner herunter- und selbst auch in die Netzwerke hochladen. Technische Kompressionsformate wie das berühmt-berüchtigte MP3 für Audiospuren oder auch MP4, Pendant für audiovisuelle Inhalte, machten es fortan möglich, musikalische und filmische Repräsentationen in akzeptabler Dateigröße zu speichern. Ob sie es merkten oder nicht – mit der Benutzung von Napster und Co. wurden zahlreiche Jugendliche gleichzeitig zu öffentlichen Anbieterinnen und Sendern von urheberrechtlich geschützten Werken, die sie in handlichen Datenpaketen im Internet replizierten – und damit auch zum Ziel der auf Online-Piraterie gerichteten Strafverfolgung.

Die Diskussion um urheberrechtlich relevante Datenspuren nahm in den Folgejahren auch mit avancierteren Sharing-Technologien nicht ab. Unter derartige Spuren fielen auch solche, die auf dem sogenannten BitTorrent-Protokoll basieren, das es ermöglicht, eine Datei aus mehreren, auch unvollständigen Quellen vollständig zu replizieren. Das hieß in der Konsequenz: Eine BitTorrent-Nutzerin musste nicht einmal mehr das komplette Werk als Datei besitzen. Es reichten auch einzelne Datenpakete, um sie zur Senderin des Werks zu machen. Schon mit der partiellen Kopie galt das Werk als technisch reproduziert. Die durchaus fragwürdigen Praktiken der Strafverfolgung kamen erst dann in der Breite zum Erliegen, als die großen Häuser der Medienindustrie teilweise oder vollständige Kontrolle über Streaming-Technologien und damit über die verbundenen Verwertungsgefüge erlangten.

Heute stellt sich die Situation etwas anders dar: Digitale Social-Media-Plattformen wie Facebook, Twitter oder TikTok haben nach ihrem bemerkenswerten Siegeszug in den 2010er Jahren bis heute einen gewaltigen Raum digitaler Reproduzierbarkeit für die Öffentlichkeit geschaffen. Die medientechnischen Kopiervorgänge auf den Plattformen erscheinen uns heute so selbstverständlich, dass wir sie oft gar nicht mehr als Akte technischer Reproduzierbarkeit wahrnehmen, etwa wenn wir ein Selfie aufnehmen (Repräsentation), es von unserem Smartphone dort hochladen (Replikation) und es in humorvoller Absicht mit Filtern, Stickern oder anderen Elementen schmücken oder aber im Kontext interaktiver Internet-Trends (Memes, Remixes, Challenges etc.) veröffentlichen (Referenz). Zugleich hat sich auch die Vorstellung des Kopierens von der Annahme bestimmter technischer Vollzüge, die den Kopier-Akt „ausmachen“, ein Stück weit gelöst.

Wer heute für die in den Sozialen Medien erscheinenden Inhalte verantwortlich ist, darüber gibt es divergierende Vorstellungen. Einerseits dominieren (vor allem kulturell-ethisch geformte) Vorstellungen von individueller Verantwortlichkeit. Andererseits hat sich beispielsweise mit dem Inkrafttreten des Urheberrechts-Diensteanbieter-Gesetz (UrhDaG) im Jahr 2021 oder mit der seit 2019 geltenden Datenschutz-Grundverordnung (DS-GVO) der „Ballast“ der Verantwortung teilweise in Richtung Plattformen oder anderer „Diensteanbieter“ verschoben, was der Individuation von Verantwortung entgegenläuft. Nach dem UrhDaG etwa stehen diverse Plattformen nun selbst in der Verantwortung, Inhalte zu filtern (mehr oder weniger juristisch erzwungen durch die sog. „Upload-Filter“ mit automatisierter Bild-, Sprach- und Texterkennung). Und nach der EU-weit verpflichtenden DS-GVO dürfen die auf Plattformen gewonnenen personenbezogenen Nutzungsdaten nur im Rahmen bestimmter Regeln erhoben, verarbeitet und weitergesendet werden.

Dazu tritt eine neue Generation von Software-Unternehmen (wie beispielsweise OpenAI), die durch ihre Technologien sog. Künstlicher Intelligenz den etablierten Medienindustrien bei der Produktion von Musik, Text, Bildern und Videos Konkurrenz machen. Durch den kürzlich in Kraft getretenen AI-Act werden die Randbedingungen hierfür in der EU teilweise reguliert. Die sog. large-language models (LLM’s) operieren, wenn sie vorhandene Werke nutzen, vor allem auf der Ebene der Referentialität, da sie auf Basis großer, oftmals illegal zusammengetragener Quellen und ausgefeilter statistischer Methoden neue, plausibel oder ästhetisch wirkende Inhalte wie Texte, Bilder oder Musik generieren können. Automatisiert von GPT generierte Texte etwa basieren aber nicht auf Wahrheit oder auch nur semantischen Zusammenhängen in einem strengen, geprüften und „abbildbaren“ Sinne, sondern lediglich auf statistischen Wahrscheinlichkeiten, nach denen der nächste Buchstabe, das nächste Wort oder der nächste Satz errechnet werden. Auch anhand dieses aktuellen Schubs technischer Reproduzierbarkeit lässt sich beobachten, wie die Zurechnung von Verantwortung individuiert wird: So geben sich wissenschaftliche Einrichtungen etwa neue Regelungen (Richtlinien, Leitbilder, Policies), die den Umgang mit KI-Technologien durch die Forschenden deutlicher transparent machen sollen. Gefordert wird auch, genau anzugeben, welche Inhalte Autorinnen und Autoren in welcher Weise mit KI-Technologien erstellt oder bearbeitet haben.

Eine mögliche Antwort auf überbordende Reproduktionsmöglichkeiten ist der Verzicht auf klassische Urheberschaft und auch aufs Original. Im Kontext distribuierter Verantwortung aufgrund gesteigerter technischer Reproduzierbarkeit habe ich zunächst die Online-Enzyklopädie Wikipedia vor Augen. Ihre Funktionsweise liegt im kollektiven Zusammentragen, Schreiben, Editieren und Verbessern von Inhalten auf Grundlage digitaler Werkzeuge. Nutzende tragen Repräsentationen (Fotos, Videos, Klangaufnahmen, Musik etc.) zusammen, laden diese als Dateien in die Wikipedia (Replikation) und referenzieren die verschiedenen Inhalte nach bestimmten Regeln und Mustern miteinander (durch Verlinkungen, Zitate, Einbindungen etc.). Die Wikipedia ist freilich nur ein Beispiel für die vielfältigen Wiki-Praktiken, die auch in anderen Kontexten Anwendung finden. So bietet die Freie Universität Berlin1 allen Angehörigen den Zugang zu ihrem Wiki an, um eine gemeinsame Wissenssammlung zu universitätsbezogenen Vorgängen zu erhalten. Dahinter steht ein quasi-organisches Organisationsprinzip: Die Verantwortung, einen Eintrag in der Wikipedia zu erstellen und zu veröffentlichen, ist nicht auf eine einzelne Person oder Gruppe beschränkt, sondern auf eine große Menge an Personen distribuiert, die sich durch kleinteilige Aushandlungsprozesse darüber einig werden (müssen), wer welche Inhalte beiträgt, sichtet, verbessert etc.

Für das Gelingen der Wikipedia sind offene Lizenzen elementar (in der Regel von Creative Commons), da diese die offene Nutzung, nachträgliche Bearbeitung und Einspeisung der Inhalte erlauben. Offenheit heißt hier: auf allen drei Ebenen technischer Reproduzierbarkeit möglichst uneingeschränkt operieren zu können. Die kollaborativ verfassten Texte stehen meines Wissens alle unter der Lizenz CC BY-SA.2 Diese erlaubt es pauschal, dass Interessierte den Text unter Nennung der Quelle und der Lizenz ohne Mengenbeschränkung replizieren und sogar verändern dürfen (gedeckt durch das sogenannte BY-Modul). Das SA-Modul (Abkürzung für „share alike“) schreibt vor, dass etwaige Veränderungen wiederum unter der gleichen Lizenz veröffentlicht werden müssen. Das soll zukünftige repräsentative, replizierende und referentielle Arbeit so einfach wie möglich machen. Viele andere in der Wikipedia auffindbaren Inhalte, darunter zahlreiche Bilder und Videos, stehen unter der etwas liberaleren Lizenz CC BY,3 also ohne SA-Modul. Weiter sind dort viele gemeinfreie Inhalte zu finden. Gemeinfrei bedeutet, dass der Urheberrechtsschutz abgelaufen ist (englisch: Public Domain) oder die Erstellenden sämtlich darauf verzichten, ihre Urheberrechte an dem Werk geltend zu machen. Das stellen sie etwa über die in der Wikipedia beliebten Lizenz CC0 („CC Zero“)4 sicher, die einen pauschalen Rechteverzicht zum Ausdruck bringt und einen der Gemeinfreiheit gleichgestellten Status der Werke bewirkt.

Interessant ist in diesem Zusammenhang zu bemerken, dass die CC-Lizenzen – von CC0 einmal abgesehen – aufgrund ihrer lizenzrechtlichen Konstruktion nicht ohne individuelle Zurechnung auskommen. Verletzt ein Nutzer die Vorgaben, etwa weil er das genutzte Werk als sein eigenes ausgibt und damit das BY-Modul missachtet, kann ihm das als Urheberrechtsverstoß ausgelegt werden. Entscheidend ist aber der Vertrauensvorschuss, den Lizenzgebende durch Creative-Commons-Lizenzen prinzipiell zu geben bereit sind: Sie signalisieren mit der CC-Lizenz, nicht individuell um Erlaubnis gebeten werden zu müssen, wenn jemand das Werk gemäß der Lizenzvorgaben nachnutzen will – vielmehr geben sie zu erkennen, dass sie auf persönliche urheberrechtliche Kontrolle zu Gunsten ihnen unbekannter Nutzungskontexte zu verzichten.

Es gibt weitere Beispiele aus der digitalen Welt, die im Grenzbereich von distribuierter und delegierter Verantwortung liegen und je nach Fall eher zur einen oder anderen Seite neigen.

Diverse Online-Foren etwa fungieren als digitale Selbsthilfegruppen und nehmen dabei großen Unternehmen ein Stück weit die Arbeit ab. Oft handelt es sich um Foren zu technischen Fragen bei Anbietern von Internet-Tarifen und Mobilfunk. Vodafone bietet beispielsweise ganz offiziell ein großes Forum für die „Vodafone-Community“5 an, in dem Nutzende Fragen stellen, beantworten und damit ihre fachliche Expertise unter Beweis stellen können. Das Forum funktioniert nach dem Prinzip von Nutzerin zu Nutzerin. Für Vodafone dürfte das günstige Effekte haben: der Konzern bekommt auf diese Weise bequem ein „Ohr auf die Schiene“, kann also die individuellen Bedarfe und Anregungen, aber auch dirty little tricks zur Problemlösung der eigenen Kundschaft ohne ausufernde Kosten für Marktumfragen oder ähnliches beobachten und – falls sinnvoll – aufgreifen.

Noch etwas anders gelagert ist das Beispiel akademischer Schattenbibliotheken. Das sind illegale oder zumindest urheberrechtlich fragwürdige Sammlungen von wissenschaftlichen Texten. Sie sind nicht nur Ausdruck lebendiger und einfallsreicher Internet-Kultur – sie beheben auf informelle oder illegale Weise auch das Problem der wissenschaftlichen Informationsversorgung, das im Zuge der Zeitschriftenkrise entstanden ist. Denn mehrheitlich stehen die betreffenden Texte – sofern nicht von Anfang an im Open Access veröffentlicht – hinter den Bezahlschranken der wissenschaftlichen Verlagshäuser. Den Zugang zu solchen Texten erwerben entweder Einzelpersonen oder wissenschaftliche Bibliotheken im Abonnement – das bedeutet in der Realität, dass nicht jeder Forscher von jeder Universität Zugang zu jedem gewünschten Aufsatz bekommen kann. Abhilfe schaffen hier digitale Schattenbibliotheken und -praktiken. Verschiedene Formen lassen sich unterscheiden: Zum einen große, aggregierte Sammlungen mit Anspruch auf größtmögliche Vollständigkeit wie SciHub, Libgen oder Anna’s Archive, die oft aus jahrelangen Sammelaktivitäten oder Leaks hervorgegangen sind und sich durch anspruchsvolle, robuste Technologie mit Redundanzen und Verschleierungen erfolgreich am Leben erhalten. Daneben gibt es kleinere, thematisch spezialisierte Gruppen wie AAARG („Artists, Architects und Activists Reading Group“) oder studentisch organisierte Social-Media-Kanäle auf Telegram, in denen auf Zuruf ein bestimmter Text von einer Benutzerin freigeschaltet wird. Interessant ist auch der Twitter-Hashtag #ICanHazPDF,6 über den man einen Wunsch nach einem Text formulieren kann und dann hoffen muss, dass ein freundlicher Kollege ihn zusendet. Hierfür hat sich eine Online-Etiquette etabliert, die abermals an die individuelle Verantwortung der Nutzenden appelliert: Die Regelung soll verhindern, dass Texte mehrfach besorgt und verschickt werden oder es gar zu juristischen Verwicklungen kommt. Gemäß der Etiquette sollen die Anfragenden ihren Tweet wieder löschen, sobald sich ihre Anfrage erledigt hat. Die Slang-Schreibweise geht übrigens auf das Internet-Meme „I Can Has Cheezburger“7 zurück.

Schließlich möchte ich die sog. Content Moderation als Beispiel für Delegation von Verantwortung im digitalen Raum anführen. Damit sind Organisationen gemeint, die im Auftrag großer Social-Media-Plattformen die von Nutzenden hochgeladenen Inhalte prüfen und dann freigeben oder löschen. Einer größeren Öffentlichkeit bekannt wurde das Verfahren etwa durch den Dokumentarfilm „The Cleaners“,8 der den Alltag von Facebooks Content Moderators zeigte und eindrücklich vor Augen führte, wie Facebook die sehr unangenehme und belastende Aufgabe in Niedriglohn-Länder des Globalen Südens auslagert. Oftmals müssen die sogenannten Cleaner mehrere Bilder pro Minute sichten und über deren Rechtmäßigkeit auf der Plattform entscheiden. Dabei bekommen sie massenhaft Repräsentation von furchtbaren Verbrechen wie Gewaltpornografie, Enthauptungen, Misshandlungen oder Folterungen zu Gesicht, die auf die Plattform hochgeladen werden und von Nutzenden als unzulässig gemeldet werden. Während die überwiegende Anzahl der Nutzenden von Facebook nur den Feed und die dortigen Funktionen kennen, macht der Film die notwendige Arbeit sichtbar, um den Feed möglichst sauber von unzulässigen Darstellungen zu halten und damit das werbebasierte Geschäftsmodell von Facebook nicht zu gefährden. Die psychischen Schäden, die Facebook bei den Content Moderators anrichtet, ist mit Geld nicht aufzuwiegen, denn die Betroffenen tragen die ausgelösten Traumata oft jahrelang oder für ihr ganzes Leben mit sich herum.

Die verschiedenen dargestellten Phänomene, die allesamt auf Steigerungen technischer Reproduzierbarkeit in den genannten drei Ebenen zurückzuführen sind, lassen erkennen, mit welchen diversen Praktiken und Motivlagen und von welchen verschiedenen Gruppen und Akteuren Verantwortung im Digitalen nachgekommen wird. Technische Reproduzierbarkeit bedeutet dabei in erster Linie eine Entfernung eines Objekts von seinem Ursprung, dem Hier und Jetzt, wie Benjamin es seinerzeit schon nannte. Diese Entfernung wirkt durch entkoppelnde Prozesse auf den Ebenen der Repräsentation, Replikation und Referenzierung. In bestimmten Konstellationen wird das als Kontrollverlust, im oben genannten Beispiel der CC-Lizenzen sogar als gezielter Kontrollverzicht wahrgenommen. Dennoch löst sich das Band zwischen dem, was jemand nutzt, und einer Herkunft, die es zur Kopie macht, nicht völlig auf. Das Internet ist bislang kein Reich der völligen Beliebigkeit geworden, und auch formlose Regeln der Weitergabe von Kopien können Bestand gewinnen. Verantwortung heißt in diesem Zusammenhang also, für das eigene Handeln eine Reaktion, gewissermaßen eine Antwort, vorzuhalten, und zwar möglichst so, dass die Antwort den ausgelösten Effekten, zu befürchteten Konsequenzen oder zu erwarteten Folgehandlungen gerecht wird. Die Darstellung zeigte dabei auch, wie vielfältig das Spektrum der Verantwortungsübernahme aussehen kann: durch Individuation, Distribution oder Delegation.

  1. Freie Universität Berlin (2024): Wikis an der Freien Universität [Webseite], https://www.cedis.fu-berlin.de/services/systeme/wikis/index.html [08.05.2024]. ↩︎
  2. Creative Commons (2024): CC BY-SA 4.0 DEED [Webseite],  https://creativecommons.org/licenses/by-sa/4.0/deed.de, [08.05.2024]. ↩︎
  3. Creative Commons (2024): CC BY 4.0 DEED [Webseite], https://creativecommons.org/licenses/by/4.0/deed.de, [08.05.2024]. ↩︎
  4. Creative Commons (2024): CC0 1.0 DEED [Webseite], https://creativecommons.org/publicdomain/zero/1.0/deed.de, [08.05.2024]. ↩︎
  5. Vodafone (2024): Vodafone Community [Webseite], https://forum.vodafone.de/t5/Mit-Vertrag-Tarife-Rechnung/bd-p/2001, [08.05.2024]. ↩︎
  6. X (2024): #IcanHazPDF,  https://twitter.com/search?q=%23icanhazpdf&src=typed_query&f=live, [08.05.2024]. ↩︎
  7. Wikipedia (2024): I Can Has Cheezburger,  https://en.wikipedia.org/wiki/I_Can_Has_Cheezburger%3F, [08.05.2024]. ↩︎
  8. The Cleaners (2018) von Hans Block & Moritz Riesewieck [Film], http://www.thecleaners-film.de/, [08.05.2024]. ↩︎

Fischer, Georg (2024): Verantwortung in Zeiten digitaler Kopien. In: Verantwortungsblog. https://zevedi.de/verantwortung-im-zeitalter-digitaler-kopien [28.05.2024].

Kategorien
Akzentfarbe: grün Autor: Petra Gehring Uncategorized Verantwortungsblog

Versuch über das V-Wort

Versuch über das V-Wort

Man muss es schon zugeben: „Verantwortung“ ist zwar schnell gesagt, aber eigentlich kann niemand rasch mal angeben, was der Ausdruck wirklich meint. Auch die Philosophie tut sich mit dem Wort schwer. Zu wuchtig, irgendwie zeigefingerhaft – und eben: trotzdem kaum auf den Punkt zu bringen.

Von Petra Gehring | 15.05.2024

Erstellt mit Adobe Firefly. Prompt: „illustration of safe digital technology, mechanistic; grey, green, and black colors; minimalistic, cubism“

Versuchen Sie es mal. Oder suchen Sie nach einer überzeugenden Definition. Im Historischen Wörterbuch der Philosophie finden Sie die Unterscheidung einer auf Rechenschaftslegung abstellenden Form des Verantwortungsdenkens, für welches die Maßstäbe eines Gegenübers (auf die wir „antworten“ müssen) ausschlaggebend sind, von einer „ethischen“ Verantwortungsdiskussion. Letztere umfasse Aspekte wie Rollenbilder (es gibt Amts- oder berufstypische Verantwortung), die Sorge um einen Gegenstand (für den Verantwortung übernommen werden muss) sowie Verantwortlichkeiten im Großmaßstab, denn auch kollektiv kann Verantwortung entstehen (vgl. Holl u.a. 2001). Wikipedia macht es uns etwas einfacher und stellt ab auf Psychologie: Verantwortung ist die richtige Einschätzung unserer Fähigkeit, ein bestimmtes Ziel zu erreichen und uns darauf dann auch zu verpflichten – also sagen wir mal: die Fähigkeit nicht zu viel zu versprechen, eine Art planerische Kompetenz. Zudem sei Verantwortung ein „Gefühl“ (vgl. o.A. 2004).

So oder so hat der digitale Wandel die Verantwortung zum Zauberwort gemacht. Verantwortungsvoll, verantwortungsbewusst – das meint dann etwa: zentriert auf den Menschen, rechtlich abgesichert, Vermeidung unerwünschter Technikfolgen. Ethikgremien entwickeln hierzu „Prinzipien“, so nennt beispielsweise 2019 eine KI-Expertengruppe der EU „respect for Human Autonomy”, „Prevention of harm“, „Fairness”, „Explicability” und hält zuvor fest, KI habe „lawful, ethical and robust“ zu sein. Denn: „It is our individual and collective responsibility as a society to work towards ensuring that all three components help to secure Trustworthy AI” (AI-HELG 2019: 12, 5 –Hervorhebung von mir).

Auch auf Unternehmenswebseiten finden sich Bekenntnisse in Sachen Digitalverantwortung, denn „CDR“, Corporate Digital Responsibility ruft ebenfalls oft „Prinzipien“ auf. Sieben Stück sind es etwa in einem „CDR-Manifest“ von 2021, initiiert durch den (so stellt er sich vor) „Digital Transformation Influencer“ Rob Price (2021). Die Deutsche Telekom stellt auf ihrer Webseite sogar ein ganzes „Haus der Verantwortung“ vor (Deutsche Telekom 2004a). „Es ist unsere Digitale Verantwortung“, kann man dort lesen, „sich (sic!) […] an der Diskussion um Ethik zu beteiligen und die Entwicklung ethischer Rahmenbedingungen für unsere Technologien zu fördern. Unsere Werte und die bewusste Entscheidung, den Mensch in den Mittelpunkt zu stellen, geben uns die Richtung im digitalen Raum vor“ (Deutsche Telekom 2004b). Die Unternehmensberatung pwc wiederum ordnet der Verantwortung weniger die Diskussionsbeteiligung und die Förderung von Rahmenbedingungen zu, als vielmehr die Forderung, Ethik auch wirksam werden zu lassen:

„Digitale Ethik ist die strategische Ausrichtung nach dem richtigen Handeln in der Digitalisierung und Digitale Verantwortung fordert, dieses Handeln nach gesellschaftlichen, ökologischen und ökonomischen Nachhaltigkeitsanforderungen umzusetzen.“ (pwc Deutschland 2024)

Und das Beratungsunternehmen Swiss Insights, das ein digitalethisches Fairness-Label vertreibt, hält fest:

„Digitalisierung fordert von Unternehmen Wertebewusstsein und verantwortungsvolles Handeln – nur so kann die Akzeptanz der Gesellschaft für neue Technologien und Geschäftsmodelle erreicht werden.“ (Swiss Insights 2024) 

Die Reihe der Beispiele ließe sich fortsetzen. Insbesondere stellt die Rede von Verantwortung oder Verantwortungsübernahme irgendwie auch aufs Handeln ab. Von daher könnte man es glatt bei dieser Minimalbedeutung des V-Wortes lassen: Bloßes Geschehenlassen reicht nicht aus.

Bliebe „Verantwortung“ im Diskurs um Digitaltechnologie damit also kaum mehr als ein unbestimmtes Signalzeichen – wie: „Macht endlich!“ oder auch: „Bitte nicht zu krass“? Oder: „Don’t be evil“? Oder wäre der Ausdruck sogar in dieser Hinsicht leer und stünde somit lediglich für die Versicherung, derjenige, der Verantwortung beschwört, sehe zwar Gefahren, bringe aber gute Absichten mit?

Immerhin ist zumindest der Ruf nach Verantwortung kein Spaß. Nicht nur Unternehmen, sondern auch besorgte Bürgerinnen und Bürger, Medienschaffende, Wissenschaftler und auch Parlamentarierinnen setzen Hoffnungen in das Wort. Sie verbinden damit eine ähnlich dringliche Erwartung, der Digitale Wandel müsse gestaltbar sein – dürfe also nicht aus dem Ruder laufen und solle vielleicht sogar in gewissen Punkten klare Grenzen haben – wie es hinsichtlich der Biodiversitäts- und Klimakrise der Fall ist und wie es auch angesichts der Atomkraft seit Tschernobyl und Fukushima auf der Hand liegt. Fast scheint es, als könne man neuen Technologien kaum mehr etwas anderes in den Weg stellen als das V-Wort. Das nur bitte endlich mal jemand mit Macht hereinschieben soll, damit es bewirkt, was es meint. Wir sind in der Defensive – das spüren wir, wenn der Ruf nach Verantwortung erklingt.

Verantwortung werde uns „aufgezwungen“ – das ist auch die Sicht des Technikphilosophen Hans Jonas, der (noch nicht am Beispiel des Digitalen) „Furcht“ für den besseren Ratgeber hält als ein Technikvertrauen, demzufolge man das Verantwortungsproblem auf später verschieben kann. 1 Jonas macht den rigiden Vorschlag, neue Technologien müssten erst den Erweis ihrer Harmlosigkeit erbringen, bevor man sie politisch zulässt (und Neuerungen mit Restrisiko müssten zudem rückholbar bleiben). Leider schlägt auch Jonas nur Maximen vor, an die wir uns bei der Zulassung gefährlicher neuer Technologien halten sollen, hantiert aber mit dem Verantwortungsbegriff, als sei dessen Kern im Grunde klar.

Versuchen wir dennoch, digitalpolitische und digitalethische Verantwortungskonzepte zu sortieren. Recht klar lassen sich nämlich ein juristischer Zuschreibungsbegriff, demgemäß Verantwortung die Zuweisung einer rollenbedingten Zuständigkeit (mit Rechenschaftspflichten und gegebenenfalls auch Haftung) meint, von einem moralischen Selbstverpflichtungssignal unterscheiden, das gerade die Freiwilligkeit und auch das Bemühenshafte der Verantwortungsübernahme herausstellt. Im ersten Fall muss sich jemand kümmern (und auch dafür einstehen). Im zweiten Fall ist Verantwortung eine Sache der Selbstfestlegung und damit auch der guten Absicht: jemand will aus freien Stücken moralisch sein, stellt dies heraus und wirbt hinsichtlich der Glaubwürdigkeit dieses Schrittes um öffentliches Vertrauen.

In einem dritten Verständnis (und hier sind wir dann sehr dicht bei der Defensive und beim Zwang) kippt Verantwortung um und wird ein Forderungsbegriff, ein Ausdruck nämlich, der Auge-in-Auge einem potenziellen Verantwortungsträger gegenüber den Appell formuliert, jemandem – sei es den Schwächsten, sei es der Natur, sei es kommenden Generationen oder gar der Menschheit insgesamt – werde die Übernahme von Verantwortung geschuldet. Verantwortung wird in diesem dritten Fall also eingeklagt. Dabei kann entweder eine bereits bestehende Verpflichtung ins Feld geführt werden (Fall 1 – die Verantwortung existiert in unbestreitbarer Weise) oder aber die Erwartung zielt darauf ab, jemanden zum Schritt in die Verantwortung zu bewegen (Fall 2 – eine bislang noch offene Verantwortlichkeit gälte es zu übernehmen). Wer möchte, kann die erste Konstellation dem Recht zuordnen und die zweite der Moral, was allen, die Verantwortung als Forderungsbegriff nutzen wollen (Fall 3), die Machtfrage vor Augen führt: Wo Verantwortung nur „ethisch“ ist, hängt man von der Bereitschaft derjenigen ab, die man in die Pflicht nehmen will. Und auch Umfang, Dauer, Zumutbarkeit etc. von Verantwortung bleiben im Zweifel bestreitbar. Das Hauptproblem ist freilich, wo es um Verantwortung für neue Technologien geht, ein anderes. Das nämlich, dass „wir“ fast immer sowohl in der Rolle desjenigen, der Verantwortung schon hat als auch derjenigen, die sie zu übernehmen hätte, als auch in der Rolle jener sind, die Verantwortung möglichst dringlich einfordern möchten.

Anders gesagt: Nur, wo er überhaupt ein echtes, ein auf andere Weise als sich selbst zum Handeln berufenes Gegenüber findet, hat der „Ruf“ nach Verantwortung überhaupt Sinn. Die Mehrwertigkeit der Verantwortung wird zur Falle, wo Verpflichtung (Fall 1), Eigenverantwortung (Fall 2) und Inpflichtnahme (Fall 3) nicht mehr wirklich trennbar sind. Auch aus diesem Grund müssen klassische Ethiken an der Dimensionierung neuer Technologien scheitern: Die Bewältigung gesamtgesellschaftlicher Herausforderungen lassen sich umso schlechter einem Verantwortungsträger zuschreiben, je diffuser der öffentliche Diskurs die Herausforderungen eigentlich bei sich selbst zu suchen hätte und je stärker es der Konsumwillen aller ist, der die Technologieentwicklung treibt – und dies zu Lasten nicht sinnfälliger Weise der Natur (wie im Rahmen der ökologischen Frage), sondern ‚lediglich‘ zu Lasten zivilisatorischer Errungenschaften wie Bildung, Frieden oder Demokratie. Verantwortung bedarf zwar des Nachdenkens – und in der eigenen Person kann man Rollen-, Eigen- und vielleicht sogar Menschheitsverantwortung verbinden. Aber Verantwortungssemantik, die politisch etwas bewirken will, verträgt keinen Kurzschluss ihrer drei Versionen. Diese bittere Einsicht geht über Jonas hinaus, der sich noch an einen „Staatsmann“ richtet, der den Einsatz von Technik als ein „Mittel“ vor sich sieht, auf das er auch verzichten kann.2 Gebraucht werde „Macht über die Macht“ (Jonas 1979: 254) – auch das legt eher das Umsteuern eines Staatsapparates nahe als Formen der Bändigung einer Technologieentwicklung, die sich aus der Gesellschaft selbst heraus ergibt. 3

Ich schwenke zurück zum digitalethischen Feld, wo sich in der Tat das V-Wort vor allem dann bewährt, wenn es auf eine haftungsrechtliche Verantwortlichkeit abzweckt. So hat eine 2018 zunächst im Bundesministerium für Justiz und Verbraucherschutz, inzwischen beim Bundesumweltministerium und einem mit diesem kooperierenden „Institut für Verbraucherpolitik“ (vgl. ConPolicy 2024) verortete CDR-Initiative einen Kodex mit neun Prinzipien formuliert, von denen eines „Verantwortlichkeit“ heißt:

Prinzip 8: Verantwortlichkeit. Wir stellen sicher, dass die Verantwortung für die Gestaltung und den Einsatz unserer technischen Systeme in letzter Instanz bei eindeutig definierten menschlichen Verantwortungsträgern liegt.“ (Corporate Digital Responsibility Initiative 2024: 3)

Eindeutig definierte natürliche Personen – da ist Haftung nicht weit. Auch die KI-Gesetzgebung der Europäischen Union scheint den Weg einzuschlagen, einer Verantwortungsdiffusion für die Folgen der neuen Technologie durch Anmeldepflichten der Marktteilnehmer im europäischen Rechtsraum sowie durch eine hinreichend griffige Form der Herstellerhaftung entgegenwirken zu wollen. Etwas seltsam wirkt es, wenn die EU High-Level Expert Group 2019 ausdrücklich festhält, auch KI-Experten hätten sich an Recht und Gesetz zu halten:

„[I]t is the responsibility of AI practitioners to ensure that they comply with their legal obligations, both as regards horizontally applicable rules as well as domain-specific regulation.” (AI HLEG 2019: 15)

Man fragt sich: Ja was denn sonst? Immerhin aber schließt hier hinreichend deutlich ein Verantwortungsbegriff hartes Recht nicht aus, sondern ein. Auch „Accountability“, also Zurechenbarkeit konkreter Technikfolgen auf jemanden, dem man dann Verantwortlichkeit nachweisen kann, gehört zu den Anforderungen der EU4.

Ein Beispiel für eine konsequent lediglich als eine moralische Selbstbindung ausgelegte Verantwortungsübernahme liefern die 2017 formulierten, 2019 erneuerten Asilomar AI Principles des Future of Life Institute. Zu den Mitgliedern dieser Vereinigung gehören prominente Softwareentwickler und Pop-Akteure wie der auf Investitionen in transformative Technologien spezialisierte Konzernchef Elon Musk oder der technikbegeisterte Physiker Stephen Hawking. In Sachen Verantwortung springt in den Asilomar-KI-Prinzipien der neunte Leitsatz ins Auge:

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications. “ (Future of Life Institute 2017a)

Die deutsche Übersetzung lautet – durch das Entfallen der Wendung von den „Stakeholders“ – nicht ganz identisch:

„9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.“ (Future of Life Institute 2017b)

In beiden Versionen der Aussage ist deutlich: Erstens geht es um Moral, genauer sogar um „moralische Folgen“ der neuen Systeme (was auch immer das genau sein mag). Und zweitens sehen sich die Produzenten der Technologie als Beteiligte, an welche lediglich als moralische „Stakeholder“ appelliert werden kann, im Deutschen sogar als Leute, die lediglich „mitbestimmen“. Eine Allein- oder Vollverantwortung anzuerkennen, sieht anders aus.

Im März 2023 veröffentlicht das Future of Life Institute den offenen Brief Pause Giant AI Experiments, in welchem ausgerechnet im fraglichen Feld auf aggressive Weise unternehmerisch tätige KI-Entwickler die Weltöffentlichkeit vor den möglicherweise verheerenden Folgen ihre Produkte warnen und nach staatlichen Regeln sowie Kontrollen rufen:

Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.“ (Future of Life Institute 2023a)

Das klingt fast ein wenig nach Hans Jonas. Obzwar der Verantwortungsbegriff nicht fällt, handelt es sich doch um eine Geste der Bereitschaft zur Verantwortlichkeit. Die Verfasser des Briefs bringen sogar den Gesetzgeber ins Spiel, den sie um eine Art Moratorium bitten. Der Duktus der Verantwortungsübernahme kann allerdings kaum darüber hinwegtäuschen, dass mit der Adressierung des Statements etwas nicht stimmt. Eine Gruppe mächtiger Lobbyisten maßt sich hier in eigener Sache an, im Namen der Menschheit zu allen Regierungen der Welt zu sprechen – und dies um ihnen Pflichten aufzuerlegen, an die sie sich gewissermaßen selbst erinnern.5 Was ebenfalls auffällt: In keiner Weise erwägen die Verfasser des offenen Briefes, ob die mit vielen Fragezeichen geschilderte gefahrvolle Entwicklung nicht heute schon bestehendes Recht bricht. Denn KI-Systeme wie das große Sprachmodell „GPT“ sind zwar nicht völlig im Geheimen entstanden. Jedoch stellt weder die augenscheinlich bedenkenlose Beschaffung von Trainingsdaten für das System noch dessen von PR begleitete weltweite Freischaltung ein Interesse an existierenden rechtlichen Regeln unter Beweis. Vielmehr hat Open AI das Produkt freigesetzt, ohne sich um existierendes Recht zu scheren.

Den Verfassern des Briefs muss man wiederum zugutehalten: Sie nutzen das V-Wort im April 2023 in einem Empfehlungspapier Policymaking in the Pause tatsächlich im Sinne der juristischen Rechenschaftslegung und Haftung:

„Key among measures to better incentivize responsible AI development is a coherent liability framework that allows those who develop and deploy these systems to be held responsible for resulting harms.“

Der Gesetzgeber habe umgehend ein „framework for the liability for AI derived Harms” zu schaffen (vgl. Future of Life Institute 2023b: 4).

Großbegriffe, deren Bedeutungsstränge sich dauerhaft verfilzen, richten Schaden an und verkommen zur leeren Hülse. Für „Ethik“ im Ganzen mag das gelten, aber auch um die „Verantwortung“ ist es nicht gut bestellt – zumal, wenn die Vermutung zutrifft, dass sich einfach auch keine rechte Adressierung mehr für die Appellfunktion des V-Worts findet. Dabei ist der dritte Gebrauchsfall ja vielleicht der politisch wichtigste der drei: der Fall des Aufrüttelns, um Verantwortung dort zu mobilisieren, wo nicht rechtlich bereits alles klar ist.

Wird das Wort also unbrauchbar? Sollte man die verwickelte Auseinandersetzung um Digitaltechnologien besser ganz ohne Rekurs auf „Verantwortung“ führen? Es gibt in der Tat eine Verantwortungskritik, die ungefähr das besagt: Der Ausdruck bemäntele mehr schlecht als recht, dass Ethik die Falschen in die Pflicht nimmt (man bürdet der Gesellschaft und konkret den Bürgerinnen und Bürgern, etwa in der Medizin, Verantwortung auf (vgl. Illich 2019: 232 f.) während sie denjenigen, denen Recht und Moral ohnehin gleichgültig ist, zusätzliche rhetorische Spielräume bietet. Und zahlungskräftige Unternehmen machen sich diese flugs zu eigen. Mittels Ethik-PR. Ein Kritiker nicht der Digital- aber der Bioethik streicht die „Verantwortung“ aufgrund solcher Inanspruchnahme mit dem folgenden Statement aus seinem Vokabular: „Die Natur, Die Humanität, Das Leben, Die Würde der Frau, Die Menschenrechte, Der Kosmos, DieVernunft, Die Wissenschaft, Die Verantwortung, Die Moral und so fort. Alles zu Markenzeichen verkommene Ideen – Markenzeichen, mit denen sich die Oberschicht der (redenden und schreibenden) Konsumenten der Macht identifiziert. Die Macht steckt eben nicht in den Markenzeichen, aber sie wird durch den Gestus des Tragens solcher Zeichen abgesichert. […] ‚Verantwortung‘ und ‚Ethik‘ sind, so wie sie heute in Gebrauch sind, Aufkleber, die über Preis und Qualität des Beklebten nur vermeintlich etwas aussagen.“ (Patze 1988: 28)

Den gegenteiligen, aber auch auf die Verzichtbarkeit des Worts zulaufenden Weg wählt die Politik, wenn sie Verantwortung einfach mit Umsicht und Klugheit gleichsetzt. Denn damit nimmt man ihr – diesseits der geschilderten drei Stoßrichtungen des Wortes – nahezu jeglichen Stachel, den Pflichtaspekt und auch den Charakter der Handlungsaufforderung. Der Bericht der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz von 2020 wählt jedoch diesen Weg. Es wird definitionsartig angesetzt, aber schon die Überschrift – „6.2.5 Verantwortung (Gutes tun, Akteure, Zusammenarbeit)“ – löst jede Kontur auf. Die angebotene Begriffsbestimmung gibt die Verantwortung einer (ohnehin) moralischen Handlung nur noch wie eine Art Zusatz bei. Als vernünftige Vorausschau auf mögliche Folgen:

„Der Begriff der Verantwortung macht darauf aufmerksam, dass es ein wichtiges Kennzeichen einer moralischen Handlung ist, die Folgen seiner eigenen Handlung abzusehen und zu bewerten und sein Handeln dann evtl. auch zu verändern. Handeln gemäß einer klugen und vernünftigen Einschätzung der Folgen des eigenen Handelns unter Hinzuziehung von moralischen Kriterien (Werten, Normen, Prinzipien, Maximen) – das kann man mora­lisch verantwortliches Handeln nennen.“ (KI Enquete-Kommission 2020: 85)

Kann man, muss man aber nicht. Denn Verantwortung reduziert sich damit auf ein der Moralität nachgeschaltetes Zusatzkalkül.

Lässt sich das V-Wort noch retten? Es verknäuelt Bedeutungen, lässt sich zu PR-Zwecken verflachen und ist nicht wirklich durch Theorietraditionen gesichert. Es gleicht eher einer Metapher oder einem Akkord mit vielen Unter- und Nebentönen. Immerhin bleibt da die eingangs beschriebene Wucht. Das Gestische. Das Moment des Eintretens für eine Norm. Wird die Rede von der „Verantwortung“ nicht nebelhaft-allgemein verwendet, sondern mit Namen, konkreten Gefahrenlagen – und idealerweise: mit Rechtsfolgen bis hin zur Haftung auch für lange Folgenketten, die Betroffene einklagen können – verbunden, erschließt sich so etwas wie ein Ebenenwechsel: Einfach nur machen und auf den Fortschritt vertrauen, reicht dann nicht mehr.

Ebenso kommt das ins Spiel, was der Soziologe Niklas Luhmann (1984: 515 f.) als den Unterschied zwischen gegenwärtiger Zukunft und künftiger Gegenwart beschreibt: Technologen verschieben das heute Widersprüchliche auf künftige Gegenwarten, weil sie hoffen, bis dahin ließen sich die Probleme, auch dank erst noch zu erfindender neuer Technologien, irgendwie schon abarbeiten. Wir schieben heute daher einen Berg wohlmöglich unlösbarer Aufgaben vor uns her. Zudem stellen wir uns eben auch nur vor, was aus einer neuen Technologie alles an zu bewältigenden Folgen hervorgehen könnte. Wirklich wissen (und wirklich zu bewältigen haben) werden es erst die Menschen von morgen. 

Von daher … bewahren wir das V-Wort. Ja: um des Ebenenwechsels willen, sprechen wir es ab und zu aus und wiederholen es nötigenfalls auch. Solange wir nichts besseres haben, kann es eines der weniger schlechten unter den schlechten Werkzeugen sein. Und wenn wir es nicht aufgeben: vielleicht entwickelt die Verantwortung doch noch klare Konturen. Wo die Gefahr wächst, wächst auch die Präzision.

  1. Jonas hebt auf die unabsehbaren – das menschliche Entscheiden überfordernden – Folgen und Fernwirkungen neuer Technologien ab. Die tägliche Sphäre sei heute „überschattet von einem wachsenden Bereich kollektiven Tuns, in dem Täter, Tat und Wirkung nicht mehr dieselben sind wie in der Nahsphäre, und der durch die Enormität seiner Kräfte der Ethik eine neue, nie zuvor erträumte Dimension der Verantwortung aufzwingt.“ (Jonas 1979: 26)  ↩︎
  2. Vgl. Jonas 1979, S. 80: „[S]elbst zur Rettung seiner Nation darf der Staatsmann kein Mittel verwenden, das die Menschheit vernichten kann.“ ↩︎
  3. Immerhin appelliert Jonas in dem Sinne an den Überlebenswillen der breiten Bevölkerung, dass er den Bürgern das Recht auf ein im Ergebnis fatales Wegsehen von Problemen abspricht: „Über das individuelle Recht zum Selbstmord läßt sich reden, über das Recht der Menschheit zum Selbstmord nicht.“ (Jonas 1979: 80) ↩︎
  4. Vgl. noch einmal das Papier der AI Ethics High-Level Expert Group, es postuliert: „mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.“ (AI HLEG: 15). ↩︎
  5. Vorbild solcher Briefe ist das von Benjamin Russell, Albert Einstein und anderen formulierte Pugwash-Manifest vom 9. Juli 1955 für eine nuklearwaffenfreie Welt, das aber eben als Brief an öffentlichen Universitäten tätiger Grundlagenforscher geschrieben wurde und nicht etwa von (mutmaßlich am Umsatz beteiligten) Personen aus Entwicklung und Management kommerziell tätiger Tech-Unternehmen. Ebenso verlangten Russell und Einstein nicht, dass man ihnen selbst ein Verbot auferlegen sollte, sondern sie forderten den Waffenverzicht von der Politik (wie auch der Wirtschaft). ↩︎

AI HLEG [= Independant High-Level Expert Group on Artificial Intelligence der EU] (2019): Ethics Guidelines for Trustworthy AI. Brüssel: EU, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf [19.3.2024].

Deutsche Telekom (2004a): Cororate Digital Responsibility [Webseite], https://www.telekom.com/de/konzern/digitale-verantwortung/cdr [19.3.2024].

ConPolicy, Institut für Verbraucherpolitik (2024): Corporate Digital Responsibility, https://www.conpolicy.de/themen/corporate-digital-responsibility [17.3.2024].

Corporate Digital Responsibility Initiative (2024): Corporate Digital Responsibility-Kodex. Freiwillige Selbstverpflichtung mit Bericht, https://cdr-initiative.de/uploads/files/2024-01_Kodex_CDR-Initiative.pdf [19.3.2024].

Deutsche Telekom (2004b): Deutsche Telekom (2004b): Ein Blick auf unsere Handlungsfelder – Digitale Ethik. https://www.telekom.com/de/konzern/digitale-verantwortung/cdr/details/ein-blick-auf-unsere-handlungsfelder-digitale-ethik-1007518 [19.3.2024].

Future of Life Institute (2017a): Asilomar AI Principles [11.8.2017], https://futureoflife.org/open-letter/ai-principles/ [19.3.2024].

Future of Life Institute (2017b): Asilomar AI Principles [11.8.2017] https://futureoflife.org/open-letter/ai-principles-german/ [19.3.2023].

Future of Life Institute (2023a): Pause Giant AI Experiments. An open Letter [22.3.2023], https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [19.3.2024].

Future of Life Institute (2023b): Policymaking in the Pause. What can Policymakers do now to combat Risks from advanced AI Systems? [19. April 2023] https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf [17.4.2024].

Holl, Jann /Red. [Teil I] und Lenk, Hans/Maring, Matthias (2001) [Teil II]: Art. „Verantwortung“. In: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie Bd. 11. Basel: Schwabe, Sp. 566–575.

Illich, Ivan (2019): Die Substantivierung des Lebens im 19. und 20. Jahrhundert – eine Herausforderung für das 12. Jahrhundert. In: Klaus Jörk/Bernd Kaufmann/Rocque Lobo/Erica Schuchardt (Hrsg.): Was macht den Menschen krank? 18 kritische Analysen. Basel, Boston, Berlin: Birkhäuser, S. 225–234.

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Suhrkamp 1984.

KI Enquete-Kommission (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, ökologische und soziale Potenziale. In: Deutscher Bundestag: Drucksache 19/27300 vom 28.10.2020.

Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main 1985.

o.A. (2024): Art. „Verantwortung“. In: Wikipedia, https://de.wikipedia.org/wiki/Verantwortung [19.3.2024].

Patze, Bernd (1988): Markenzeichen der Macht. Wissenschaft, Ethik und DAS GANZE. In: Wechselwirkung 10, Nr. 87, S. 24–28.

Price, Rob (2021) The International CDR Manifesto. https://corporatedigitalresponsibility.net/cdr-manifesto [19.3.2024].

pwc Deutschland (2024): „Unser Verständnis von Digitaler Ethik & Verantwortung“ [Webseitentext], https://www.pwc.de/de/risk-regulatory/risk/so-lassen-sich-digitale-ethik-und-verantwortung-wirkungsvoll-verankern.html [19.3.2024].

Swiss Insights (2024): Label Data Fairness. https://swiss-insights.ch/label-data-fairness/ [19.3.2024].

Gehring, Petra (2024): Versuch über das V-Wort. In: Verantwortungsblog. https://zevedi.de/versuch-ueber-das-v-wort/ [15.05.2024].

Kategorien
Uncategorized

Follow the [New] Money

Auf den Spuren von Krypto, Karten, Coins und Cash

Ein Film von Sophia Igel und Philipp Scholtysik

Am 16. September 2023 fand in Frankfurt am Main unter dem Titel Follow the Money – Von analogen Werten, digitalem Geld und der Bezifferung der Welt ein Markt für nützliches Wissen und Nicht-Wissen statt. Dabei handelt es sich um ein Projekt der Mobilen Akademie Berlin, produziert vom Künstler:innenhaus Mousonturm in Kooperation mit ZEVEDI. Im 1:1 Gespräch mit Besucher:innen – und einhörbar via Veranstaltungsradio – verfolgten rund 90 Expert:innen die Spuren des Geldes im Großen, im Kleinen und im eigenen Leben. Alle Infos zum Film sind auch hier als Booklet verfügbar.

Das Video dokumentiert in Auszügen 8 dieser 192 Gespräche, in denen Perspektiven digitalen Bezahlens thematisiert werden: Es geht um die soziale Bedeutung von Bargeld und Beschränkungen beim digitalen Bezahlen. Andere Gespräche drehen sich um den digitalen Euro, ein Zentralbankgeld, das digital aber ähnlich wie Bargeld funktionieren soll. Kryptowerte wie Bitcoin und Technologien wie die Blockchain spielen eine Rolle. Es entsteht ein Eindruck vom Digitalgelddickicht, in dem wir uns als Individuen, aber auch als Gesellschaft bewegen. Für einen Überblick über das weitere Geschehen siehe den eFin-Blog-Beitrag Ein Markt des nützlichen Wissens und Nicht-Wissens.

Die Expert:innen in Reihenfolge ihres Auftretens samt Beiträgen zum Thema:

Brett Scott ist ein ehemaliger Broker und publiziert inzwischen als Bargeld-Aktivist. Er ist Autor des Newsletters Altered States of Monetary Consciousness und des Buches Cloudmoney – Cash, Karte oder Krypto: Warum die Abschaffung des Bargelds unsere Freiheit gefährdet (2022).

Prof. Dr. Barbara Brandl ist Wirtschaftssoziologin an der Goethe-Universität Frankfurt am Main. In einem eFin-Blog-Beitrag beschreibt sie Was die Digitalisierung des Geldes mit sozialer Ungleichheit zu tun hat.

Dr. Carola Westermeier ist Sozialwissenschaftlerin und von April bis Dezember 2024 ZEVEDI Young Investigator an der TU Darmstadt. Bei der re:publica 23 hielt sie einen als Video aufgezeichneten Impuls-Vortrag zum Thema Brauchen wir den digitalen Euro oder (wie) geht Geld demokratisch?. Gemeinsam mit Marek Jessen fordert sie in einem Artikel im November 2023: Den digitalen Euro als öffentliches Gut entwickeln.

Jana Ringwald ist Oberstaatsanwältin bei der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) der Generalstaatsanwaltschaft Frankfurt am Main. Einen Einblick in ihre Arbeit liefern die Video-Interviews des Künstlers Rainer Lind.

Alexandra Keiner ist Soziologin und forscht als Wissenschaftliche Mitarbeiterin am Weizenbaum-Institut Berlin. Unter dem Titel Von eingefrorenen Konten und ungleichen Bedingungen im internationalen Zahlungsverkehr spricht sie in einem Interview über ihre Forschung zu „Bezahlverboten im Netz“ und deren Vermittlung beim Markt für nützliches Wissen und Nicht-Wissen.

Claus George ist Leiter für Digitalisierung und Innovation bei der DZ Bank. Sein Vortrag Digitalzahlungen – gestern, heute, morgen, den er im April 2022 im Rahmen der Reihe Verstehen Sie Krypto! an der TU Darmstadt gehalten hat, ist als Video-Aufzeichnung verfügbar.

Dr. Gerald Nestler ist ein Künstler und Autor, der sich u.a. mit dem Thema „Finance“ auseinandersetzt. Für seine Projekte, Texte und Vorträge siehe hier.

Jürgen Geuter ist u.a. als Kritiker von Kryptowerten bekannt. Für aktuelle Blog-Beiträge sowie eine Auswahl an Publikationen und Präsentationen siehe seine Online-Präsenz hier.

Zitationsvorschlag:

Igel, Sophia/Scholtysik, Philipp: Follow the [New] Money. Auf den Spuren von Krypto, Karten, Coins und Cash. Darmstadt: Zentrum verantwortungsbewusste Digitalisierung, 2024, Video 16:42 Minuten, online: https://zevedi.de/film-follow-the-new-money/.

Kategorien
Uncategorized

Citizen Lectures

In den Citizen Lectures werden Wissenschaftler:innen und Expert:innen gebeten, Einblicke in ihr Fachgebiet zu geben, Wissensgrundlagen zu vermitteln und Anregungen für eine breitere Diskussion zu geben. Ihr Publikum sind sowohl Studierende der TU Darmstadt als auch eine breitere interessierte Öffentlichkeit. Alle Vorlesungen sind auch als Videos online verfügbar. Bisher gab es folgende Vorlesungsreihen:

Finanzen, Staat, Digitalisierung & Demokratie

Rechts- und Wirtschaftswissenschaften, Sommersemester 2024

Zur Veranstaltungsseite
Zu den Vortragsvideos

“Wert/Value/Valeur” – Widerstreit zwischen Moral und Preis

Philosophie, Wintersemester 2023/24

Zur Veranstaltungsseite
Zu den Vortragsvideos

Verstehen Sie Krypto!

Philosophie, Sommersemester 2022

Zur Veranstaltungsseite
Zu den Vortragsvideos

Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors

Kategorien
Uncategorized

1.8. Der digitale Euro und die Europäische Zentralbank

Wenn der digitale Euro eingeführt wird, wird er von der Europäischen Zentralbank (EZB) und den Zentralbanken des Eurosystems bereitgestellt. Die genaue Ausgestaltung dieser digitalen Währung ist jedoch noch Gegenstand intensiver Diskussion und wird voraussichtlich noch einige Jahre in Anspruch nehmen. Die EZB beschäftigt sich jedoch bereits seit mindestens 2020 mit der Untersuchung einer solchen CBDC oder eben eines digitalen Zentralbankgeldes. Im vergangenen Herbst wurde eine erste Vorbereitungsphase eingeläutet und gewisse Pfadentscheidungen lassen sich mittlerweile ablesen.

In diesem Zusammenhang werfen einige Kritiker der EZB vor, den Interessen der Geschäftsbanken zu sehr entgegenzukommen. Gleichzeitig sind gerade diese Geschäftsbanken diejenigen, die am lautesten warnen und behaupten, dass ein digitaler Euro zu stark in den Zahlungsmarkt eingreifen und ihr Geschäftsmodell gefährden würde. Diese Folge des Digitalgelddickichts wirft daher einen Blick auf das Mandat und die Aufgaben der EZB und erklärt, warum und wie sie bereits am digitalen Euro arbeitet. Im Gespräch mit Jürgen Schaaf, einem Berater der Generaldirektion für Marktinfrastrukturen und Zahlungsverkehr der Europäischen Zentralbank, möchten wir herausfinden, wie die EZB beim Projekt „Digitaler Euro“ mit der EU-Gesetzgebung, der Finanzindustrie und der Zivilgesellschaft zusammenarbeitet, inwieweit sie deren Kritik berücksichtigt und was sie ihr entgegnet.

Digitalgelddickicht Staffel Digitaler Euro – Folge 8 | 29. April 2024

Gäste

Jürgen Schaaf ist seit November 2019 Berater der Generaldirektion des Geschäftsbereichs Marktinfrastrukturen und Zahlungsverkehr bei der Europäischen Zentralbank. Zuvor war er Berater des Direktoriums der EZB und Sekretär des Projektteams für den Einheitlichen Aufsichtsmechanismus (SSM). Bevor er zur EZB kam, war er persönlicher Berater des Gouverneurs der Banque Centrale du Luxembourg. Zuvor war er bei der Börsen-Zeitung und als Senior Economist bei der Deutschen Bank tätig. Er hat Wirtschaftswissenschaften in Marburg und Canterbury studiert und an der Philipps-Universität Marburg in Volkswirtschaftslehre promoviert.

Cornelia Manger-Nestler ist Professorin für Deutsches und Internationales Wirtschaftsrecht an der HWTK Leipzig, spezialisiert auf Währungsrecht. Studiert und gearbeitet hat sie zuvor an der TU Dresden und TU Chemnitz, wo sie auch zur Rolle der Deutschen Bundesbank im Europäischen System der Zentralbanken promoviert hat. Sie betreut aktuell zudem, unter anderem ein Forschungsprojekt zu Rechtsfragen des digitalen Euro.

Markus Ferber ist Diplomingenieur, seit 1990 durchgehend Vorstandsmitglied und von 2005 bis 2023 Vorsitzender der CSU Schwaben. Seit 1994 ist er durchgehend Mitglied des Europäischen Parlamentes. Er ist dort Mitglied der EVP–Fraktion, also der Europäischen Volkspartei und seit 2009 auch Mitglied im Ausschuss für Wirtschaft und Währung. Zwischen 2014 und 2018 fungierte er als dessen stellvertretender Vorsitzender und seitdem als der Sprecher der EVP-Fraktion im Ausschuss. Seit 2020 ist er Vorsitzender der CSU-nahen Hanns-Seidel-Stiftung.

Henrike Hahn ist Politologin und war als Unternehmensberaterin und wissenschaftliche Mitarbeiterin im bayerischen Landtag und Bundestag tätig. Seit 2012 ist sie aktives Mitglied von Bündnis 90/Die Grünen Bayern, unter anderem als Sprecherin der Landesarbeitsgemeinschaft Wirtschaft und Finanzen und Vorstandsmitglied. 2019 wurde sie Mitglied des Europäischen Parlaments. Dort ist sie Vollmitglied des Ausschusses für Industrie, Forschung und Energie, sowie stellvertretendes Mitglied im Wirtschafts- und Haushaltsausschuss. Für ihre Fraktion „Die Grünen/EFA“ ist sie Verhandlungsführerin und Schattenberichterstatterin zum digitalen Euro.

Joachim Schuster ist promovierter Politikwissenschaftler und war bis 2006 in der Forschung, im Wissenschaftsmanagement und in der Politikberatung tätig. Seit 1999 für die SPD Abgeordneter der Bremischen Bürgerschaft, war er von 2006 bis 2012 Bremer Staatsrat für Arbeit, Jugend und Soziales sowie später für Gesundheit und Wissenschaft. 2014 zog er ins Europäische Parlament ein. Der S&D-Fraktion zugehörig ist er seit 2019 Mitglied des Ausschusses für Wirtschaft und Währung. Im Vorstand der deutschen Sozialdemokrat:innen ist er verantwortlich für die Zusammenarbeit mit der SPD-Bundestagsfraktion

Weiterführende Informationen und Quellen

Panetta, Fabio: Letter to several MEPs on the request to postpone the decision on the digital euro, 6. Oktober 2023 ( nur in Englisch).

Bollen, Thomas / Fanta, Alexander: Warum die Großbanken Angst vor dem digitalen Euro haben und wie sie gegen ihn lobbyieren, voxeurop Deutsch, 18. April 2024.

Aufzeichnung der Sitzung des EU-Ausschusses für Währung und Wirtschaft (ECON) zum Digitalen Euro mit Piero Cipollone, Direktoriumsmitglied der EZB, vom Nachmittag des 14. Februar 2024.

Empfehlung für Überblicksinformation zum digitalen Euro seitens der EZB: Häufig gestellte Fragen zum digitalen Euro, EZB-Webseite (abgerufen am 29. April 2024).

Alle Folgen des Digitalgelddickichts»

Alle ZEVEDI-Podcasts

Creative Commons Lizenzvertrag

Kategorien
Uncategorized

Bonusfolge »Seitenwechsel«: Im Gespräch mit den Macherinnen des Digitalgespräches

Am 26. Mai 2021 ist das erste Digitalgespräch ausgestrahlt worden. Drei Jahre und 50 Folgen später hat sich der Podcast als Raum eines offenen und wissenschaftlich informierten Diskurses zu Themen der „Digitalität” etabliert. Anlässlich des kleinen Jubiläums möchten wir kurz innehalten und reflektieren – und deshalb haben die beiden Gastgeberinnen des Digitalgespräches, Petra Gehring und Marlene Görger, für diese Folge die Seiten gewechselt und geben Auskunft.

Das Digitalgespräch ist mit dem Programm angetreten, Scheinwerfer auf komplexe Handlungsfelder zu werfen, so „dass sich der Nebel großer Schlagworte lichtet”. Die Methode: Im Gespräch mit Expertinnen und Experten spezifisches Wissen aus verschiedenen Arbeitsgebieten und Forschungsperspektiven sammeln und langsam die Teile zusammenfügen. So kamen unterschiedlichste Facetten des Digitalen auf die Tagesordnung: Smart Contracts, digitale Forensik, Restauration digitaler Kunstwerke, der Umgang mit sensiblen Forschungsdaten oder das Trauern und Sterben im digitalen Zeitalter.

Deutet sich – angesichts des komplexen und uneinsehbaren Themenfelds des „Digitalen” – bereits ein Bild an, ein Zusammenhang, eine kohärente Erkenntnis? Oder wächst die Zahl der Teile ungleich schneller, als dass man sie zusammensetzen könnte? In der Bonusfolge kommen die Macherinnen im kleinen Darmstädter Aufnahmestudio mit den beiden ZEVEDI-Wissenschaftsredakteuren Eneia Dragomir und Konstantin Schönfelder ins Gespräch. Wo hat sich nach 50 Folgen Digitalgespräch der Nebel gelichtet und wo war von Dingen zu hören, die vielleicht erst in Zukunft ins Sichtfeld einer breiteren Öffentlichkeit gelangen? Was ist gut gelaufen, was weniger gut und wo darf es in den nächsten 50 Folgen hingehen?

Marlene Görger ist studierte Physikerin und Technikphilosophin, seit 2020 arbeitet sie am Zentrum verantwortungsbewusste Digitalisierung. Petra Gehring ist Professorin für Philosophie an der Technischen Universität Darmstadt sowie wissenschaftliche Direktorin des Zentrums.

Bonusfolge: Digitalgespräch mit Petra Gehring und Marlene Görger, 24. April 2024.
Alle Folgen des Digitalgesprächs
Folge 0: Digitalgespräch - ab dem 26. Mai 2021
Ein Vorgeschmack auf das Digitalgespräch | 24. Mai 2021 | zur Folge»

Alle ZEVEDI-Podcasts

Creative Commons Lizenzvertrag