Kategorien
Akzentfarbe: blau (Digitalcourage-Interview) Autorin: Julia Witte Uncategorized Verantwortungsblog

Ein Recht auf ein Leben ohne Digitalzwang

Ein Recht auf ein Leben ohne Digitalzwang

Wie sieht sie aus, die „lebenswerte Welt“ im digitalen Zeitalter? Digitale Zwänge gehören nicht dazu, meint der Verein Digitalcourage. Mit einer Petition möchte er dazu anregen, das Grundgesetz zu erweitern.

Julia Witte von Digitalcourage e.V. im Gespräch mit Eneia Dragomir | 28.08.2024

Ein Mensch, der an sein Smartphone gekettet ist.
Erstellt mit Adobe Firefly. Prompt: „Stil: minimalistisch, Kubismus; ein Menschen ist an ein Smartphone gekettet; Farben: blautöne, grau“.

Gibt es die Bahncard bald nur noch über die Bahn-App? Kann man das bestellte Paket in Zukunft nur noch an der Packstation abholen, wenn man die App der Post nutzt? Entwickelt sich der Komfort, den Smartphones und Apps gebracht haben, zu einem Zwang? Der Verein Digitalcourage e.V. beschreibt sich als „technikaffin“, beobachtet aber mit Sorge die Zunahme digitaler Zwänge, erfasst diese mit seinem „Digitalzwangmelder“ und macht mit den „BigBrotherAwards“ auf bestimmte Fälle aufmerksam. Zum 75. Jahrestag des Grundgesetzes hat der Verein eine Petition gestartet, um das Grundgesetz um ein „Recht auf Leben ohne Digitalzwang“ zu erweitern. Eneia Dragomir hat mit Julia Witte von Digitalcourage e.V. über die Kampagne und darüber gesprochen, wie die „lebenswerte Welt im digitalen Zeitalter“ aussieht, für die sich ihr Verein einsetzt.

Julia Witte: Man sieht gerade, dass an vielen Stellen Infrastruktur abgebaut wird. Angestoßen wurde bei uns das Thema durch einige Umstellungen bei der Deutschen Bahn (DB). Zuerst hatte die DB angekündigt, dass es die Bahncard in Zukunft nur noch über die App geben soll, also über den DB Navigator. Daraufhin gab es viel Kritik an diesem Vorhaben und die Bahn ist ein bisschen zurückgerudert. Jetzt gibt es auch eine alternative Lösung: Man kann sich den QR-Code ausdrucken, als Ersatz für die Bahncard. Allerdings gibt es diese Alternative nur für Leute, die einen Onlineaccount haben. Man muss also einen Onlineaccount bei der Bahn haben, um eine Bahncard haben zu können. Die Bahn nennt das selbst eine „vorübergehende Alternative“, die Menschen den „Übergang in die digitale Welt erleichtern“ soll. Das ist für uns ein Fall, wo Menschen von der Möglichkeit ausgeschlossen werden, bezahlbare Zugtickets zu bekommen, wenn sie die App oder den Onlineaccount nicht haben wollen – dabei ist Bahnfahren Teil einer Grundversorgung.

Das Ende der Plastikkarte hat die Bahn damit begründet, dass sie Plastik einsparen wollen, was wir für eine Luftnummer halten. Es hätte viele Wege gegeben, wenn es wirklich um das Plastik gegangen wäre. Man hätte beispielsweise für Dauerabonnent:innen eine Karte einführen können, die man nicht ständig austauschen muss. Es gibt auch Chipkarten, die größtenteils aus Holz oder biologisch abbaubarem Material bestehen. Bei der Maßnahme ging es unserer Meinung nach darum, die Leute zur Nutzung der App zu drängen. Auch bei den kostengünstigen Sparpreis-Tickets gab es eine Änderung: Diese Tickets werden an den Automaten gar nicht mehr verkauft und am Schalter sollen Kund:innen jetzt eine Telefonnummer und eine E-Mail-Adresse hinterlegen. Auch das geht in diese Richtung und hat viele Anfragen bei uns zur Folge. Unseres Erachtens völlig zu Recht, denn auch das ist ein Fall von Grundversorgung, die an bestimmte Bedingungen geknüpft wird. Das waren konkrete Auslöser für unsere Initiative.

JW: Das Thema treibt uns schon länger um. Wir haben schon vor ein paar Jahren einen „Digitalzwangmelder“ ins Netz gestellt. (Digitalcourage 2024b) Der Grund war damals die kritische Diskussion der Luca-App während der Coronapandemie: Ist es in Ordnung, wenn eine private Firma massenhaft Daten über die Aufenthaltsorte von Leuten einsammelt und in einer zentralen Datenbank speichert? Wir wollten dann wissen: Wo gibt es noch solche Fälle, in denen man zu einer bestimmten digitalen Lösung genötigt wird, weil man sonst von wichtigen Leistungen oder dem öffentlichen Leben ausgeschlossen ist?

Wir haben sehr unterschiedliche Rückmeldungen bekommen. Auch Amüsantes, wie die Meldung einer Körperfettwaage, die sich sofort mit der Cloud des Herstellers verbinden wollte. Da kann man den Kopf schütteln und sagen, „Okay, schick sie zurück und kauf ein anderes Produkt“. Es gab aber auch Meldungen, die in den Bereich der Grundversorgung gingen und bei denen sich uns die Nackenhaare hochgestellt haben. Das war etwa die Meldung, dass die Post auf Packstationen ohne Display umstellt, die für die Kund:innen nur noch per App bedienbar sind. Dafür haben wir der Deutsche Post DHL Group letztes Jahr einen BigBrotherAward verliehen. (Tangens 2023) Das Szenario ist Folgendes: Ich bekomme ein Paket, bin aber nicht zuhause. Das Paket wird zu einer Packstation umgeleitet, die nach diesem neuen Modell funktioniert und kein Display hat. Ich möchte mein Paket abholen und an der Packstation steht: Bitte laden Sie die App herunter, um Ihr Paket zu bekommen. Wenn ich die App nicht möchte, muss ich eine Neuzustellung beantragen – das Formular dazu ist allerdings auf der Webseite von DHL nicht leicht zu finden. Das ist aus unserer Sicht ein Fall von App-Zwang.

Das also war die Situation, in der wir diese Petition gestartet haben. Der übergeordnete Grund ist, dass sich unserer Meinung nach gerade etwas zusammenzieht: An immer mehr Stellen findet eine gedankenlose Digitalisierung statt, die oft sehr schlecht und wenig inklusiv umgesetzt wird. Und wir haben Sorge, dass ein neuerliches entsprechendes Angebot immer unwahrscheinlicher wird, wenn die analoge Infrastruktur erst abgebaut ist. Bei der Bahn geht es dabei beispielsweise um Serviceschalter und um Fahrkartenautomaten. Wir glauben, dass es keine gute Idee ist, diese Infrastrukturen komplett auf null zurückzufahren.

JW: Ich bin ein bisschen vorsichtig mit dem Begriff „analog“. Es gibt digitale Lösungen, die nicht automatisch sehr viele Menschen ausschließen. Ich habe grundsätzlich kein Problem damit, wenn in einem Bahnhof ein digitaler Abfahrtsmonitor hängt. Klar, es gibt das Resilienzproblem, insofern der Monitor ausfallen kann. Aber das ist ein Beispiel für eine Form von Digitalisierung, die keine Barriere aufbaut in dem Sinne, dass ich ein bestimmtes Endgerät brauche und eine bestimmte App, um den Dienst nutzen zu können.

Im Großen und Ganzen geht es uns um vier Hauptargumente: Das erste ist die Teilhabe. Es gibt Menschen, die bestimmte Dienste nicht nutzen können. Und es wird oft versucht, das mit dem Argument abzutun, dass es nur mehr Schulungen bräuchte, um diesen Leuten beizubringen, wie sie Apps installieren und bedienen. Das sind gute Initiativen. Aber ich glaube, dass man dadurch das Problem nicht vollständig lösen kann, weil es trotzdem zum Beispiel weiterhin Menschen geben wird, die kein Geld für ein Smartphone haben. Es gibt auch Menschen, die eine Krankheit oder Einschränkung haben, wegen der sie bestimmte digitale Geräte oder Dienste nicht nutzen können. Für all diese Menschen muss Teilhabe sichergestellt werden.

Dann ist für uns das Thema Überwachung und Datenabfluss ganz wichtig. Digitalisierung läuft zurzeit leider häufig so ab, dass Anbieter beschließen: „Wir machen jetzt eine App und bieten unsere Services dann nur noch auf diesem Weg an. Und wo wir schon dabei sind, verbauen wir in der App noch ein paar Tracker. Dann können wir zusätzliche Analysen machen. Und wo wir die Daten schon mal haben, können wir sie auch gewinnbringend für etwas anderes nutzen oder weiterverkaufen.“ Diese kommerzielle Überwachung wird immer umfangreicher, jede Verhaltensäußerung wird erfasst. Die Wirtschaftswissenschaftlerin Shoshana Zuboff hat diese Tendenz als „Überwachungskapitalismus“ beschrieben. (Zuboff 2018) Digitalzwang und diese Sammelwut bezüglich alltäglicher Verhaltensdaten gehen oft Hand in Hand.

Eine große Rolle spielt für uns auch das Thema Wahlfreiheit. Ich finde es gruselig, mir vorzustellen, dass ich in vielleicht zwei, drei oder fünf Jahren in einer Welt lebe, in der ich ohne Smartphone nicht mehr aus dem Haus gehen kann. Weil ich ohne Smartphone nicht mehr einkaufen, Zug fahren oder am öffentlichen Leben teilhaben kann – vielleicht nicht mal mehr einen Bus nehmen kann, weil der Abfahrtsplan hinter einem QR-Code versteckt ist. Das ist eine Wahlfreiheit, die ich gerne erhalten würde. Es ist doch eine legitime Entscheidung von Leuten, kein Smartphone zu haben oder vielleicht auch nur ein paar Jahre darauf verzichten zu wollen, oder? Es gibt sehr viele Konstellationen, die dazu führen können, dass Leute sich gegen ein Smartphone oder gegen bestimmte digitale Dienste entscheiden. Ich persönlich möchte zum Beispiel möglichst wenig Google-Dienste auf meinem Handy haben und schon das schließt mich von vielen Möglichkeiten aus. Ich möchte nicht, dass ich in ein paar Jahren nicht mehr Bahn fahren kann, weil ich den Google Play Store nicht auf meinem Handy haben möchte. Wir können doch nicht Leistungen der Grundversorgung davon abhängig machen, dass ich bereit bin, Apple oder Google meine Daten auf dem Silbertablett zu servieren.

Und zuletzt geht es uns auch um Resilienz. Im März 2024 waren mehrere Länder in Afrika ohne Internet, weil ein Unterseekabel beschädigt war. (tagesschau.de 2024) Eine verbreitete Software kann großflächig Probleme verursachen oder die zugrunde liegende Infrastruktur kann ausfallen. Es wäre schön, wenn unsere Gesellschaft in solchen Fällen nicht völlig explodieren würde.

JW: Je mehr wir analoge Lösungen abschaffen, desto abhängiger werden wir von bestimmten digitalen Diensten und von durchaus vulnerablen Infrastrukturen. Es geht mir dabei nicht nur um den technisch bedingten Ausfall von Diensten, sondern auch um die Monopolisierung ganzer Bereiche, die uns in Abhängigkeiten treibt. Wenn wichtige Teile unserer öffentlichen Infrastruktur zum Beispiel auf den Angeboten von Google aufgebaut und davon abhängig sind, dann stellt sich die Frage: Welche Möglichkeiten hat zum Beispiel die Europäische Kommission oder das Kartellamt noch, Google zu regulieren? Wenn beispielsweise die Kommission anstreben würde, den Konzern Google aufzuspalten – übrigens eine langjährige Forderung von Digitalcourage (Tangens & padeluun 2013) –, dann könnte Google androhen, bestimmte Dienste in der EU nicht mehr anzubieten und die Behörden hätten eine sehr schwere Verhandlungsposition. Deswegen sollten wir analoge Strukturen an sehr wichtigen Stellen erhalten, und uns zusätzlich bei unserer technischen Infrastruktur nicht völlig abhängig machen von den Monopolisten auf dem Markt, sondern auf freie Software-Lösungen und offene Schnittstellen setzen.

Dafür gibt es auch noch einen anderen guten Grund: Wenn es nur eine einzige digitale Lösung gibt, um an einen wichtigen Dienst zu kommen, dann gibt es keine Konkurrenz. Und damit gibt es wenig Motivation, ein digitales Angebot attraktiv zu gestalten. Wenn eine bestimmte App die einzige Möglichkeit ist, um z.B. an Zugtickets zu kommen, dann ist es egal, wie bedienbar diese App ist, wie wenig dabei auf die Privatsphäre geachtet wird oder wie vertrauenswürdig sie insgesamt erscheint. Die Kund:innen müssen sie nutzen. Auch deswegen setzen wir uns gegen Digitalzwang ein: Ohne solche Zwänge müssen die Anbieter digitale Angebote erarbeiten, die die Leute überzeugen.

JW: Wir dürfen nicht nur darauf schauen, was auf den ersten Blick einfach und bequem für das Individuum zu sein scheint. Wir müssen auch darauf schauen, was für gesellschaftliche Auswirkungen sich ergeben. Mit unserer Kampagne treten wir gegen Digitalzwang ein, aber nicht gegen Digitalisierung oder gegen digitale Angebote. Im Gegenteil: Wir begrüßen digitale Angebote, aber wir möchten, dass noch andere Wege existieren.

JW: Ja, absolut. Bei der Deutschen Bahn zum Beispiel sehen wir das als eine Salamitaktik: Erst gibt es nur einige Tickets und Services ausschließlich digital. So kann das Unternehmen sich vorerst noch herausreden und auf andere Tickets verweisen, die noch ohne App erhältlich sind. Aber für die Bahn lohnt es sich natürlich, wenn sie die analogen Wege irgendwann abschaffen kann und diese Infrastruktur nicht mehr erhalten und pflegen, bzw. das Personal dafür finanzieren muss. Da sehen wir auf jeden Fall einen Trend, der sich weiter fortsetzen wird – wenn wir uns als Gesellschaft nicht entschließen, gegenzusteuern.

JW: Ja, selbstverständlich. Ich glaube, da findet gerade auch ein großes Umdenken statt. Ich würde behaupten, dass wahrscheinlich kaum jemand die Maßnahmen, die jetzt im Digital Markets Act (DMA) beschlossen wurden, vor einigen Jahren für politisch realistisch gehalten hätte. Das Gesetz schränkt die Möglichkeiten der ganz großen Tech-Unternehmen ein, ihre Funktion als Türsteher auszunutzen, um eigene Angebote zu bevorzugen und die Spielregeln immer zum eigenen Vorteil zu machen.

Ich glaube, dass dem ein großer gesellschaftlicher Diskurs vorausgegangen ist. Das Bewusstsein für das Manipulationspotenzial, das Konzerne wie Google haben, hat zugenommen. In den USA gibt es eine Strömung progressiver Kartellrechtler:innen, die als „New Brandeis School“ den schädlichen Einfluss von Monopolen auf unsere Demokratien betont. Immer häufiger taucht die Forderung auf – nicht nur von uns –, sehr große Digitalkonzerne zu entflechten. Und zwar nicht als Reaktion auf einzelne Vergehen, sondern weil diese Unternehmen eine so enorme Menge an Informationen über uns angehäuft haben – und damit eine so enorme Manipulationsmacht haben –, dass das nicht mehr mit unserer Demokratie verträglich ist. Im Fall von Google liegt das auf der Hand und auch Amazon ist ja gerade stark unter Druck.

Maßnahmen wie den DMA und auch den Digital Services Act (DSA) finden wir grundsätzlich begrüßenswert. Es wird in den nächsten Jahren spannend, wie schlagkräftig die Durchsetzung dieser Gesetze sein wird.

JW: Neben der unermüdlichen Aufklärungsarbeit, die wir und viele andere gemacht haben, gibt es sicher auch eine Reihe von Enthüllungen, die eine große öffentliche Reichweite bekommen und Bewusstsein für bestimmte Probleme geschaffen haben. Zum Beispiel der Skandal um die Wahlbeeinflussung durch Cambridge Analytica in den USA. Damals ist vielen klar geworden, dass personalisierte Online-Werbung nicht harmlos ist, dass es nicht nur darum geht, dass mir die Turnschuhe angezeigt werden, für die ich mich interessiere, sondern dass solche Werbung auch für gezielte politische Manipulation benutzt wird.

In den Jahren danach ist immer mehr über diesen Werbemarkt aufgedeckt worden. Eines der jüngsten Beispiele ist eine Recherche von Netzpolitik über den Datenmarktplatz Xandr. (Dachwitz 2023) Die Journalist:innen haben sich angeschaut, in was für Kategorien Leute dort eingeteilt werden – und festgestellt, dass die Kategorien nicht nur sehr feingranular, sondern ethisch mehr als fragwürdig sind. Sie können Ihre Werbung an konservative Rentner ausspielen lassen, an Minderjährige, an Betroffene von Brustkrebs, an Menschen mit Essstörungen, mit Geldsorgen, an Glücksspielsüchtige, an Menschen, die sich gerade scheiden lassen oder in der Menopause sind. Ich denke, da wird den meisten Menschen klar, dass diese Art von Kategorisierung nicht in meinem Sinne ist, weil ich dann nette Angebote bekomme, sondern, dass das massenhafte Sammeln solcher sensiblen Informationen für unsere Gesellschaft eine Gefahr darstellt.

Auch das Bewusstsein dafür, dass die Monopolisierung im digitalen Bereich ein Problem ist, steigt. Vorher hatten viele die Überzeugung, dass Google einfach ganz tolle Produkte hat und die Suchmaschine halt die beste ist – ein gerechtfertigtes Monopol sozusagen. Mittlerweile sagen immer mehr Leute, dass der Kipppunkt erreicht ist: Die Google-Suche wird immer schlechter, weil Google die Monopolstellung hat. Es gibt quasi keine Konkurrenz auf dem Markt und Google nutzt seine marktbeherrschende Stellung immer ungehemmter. Bei Amazon ist es vermutlich ein ähnliches Phänomen. Am Anfang haben alle gesagt: „Hurra! Eine Plattform, die alles miteinander verbindet. Wie großartig! Ist das nicht bequem?“ Dann wurden immer mehr kleine Händler aus dem Geschäft gedrängt, indem Amazon gezielt seine eigenen Angebote bevorzugt hat.

Es wird immer offensichtlicher, dass auch im digitalen Bereich Monopole weder der Gesellschaft und unserem demokratischen Frieden dienen noch sind sie marktwirtschaftlich gut. Denn am Ende führen sie auch zu schlechteren Produkten und Diensten.

JW: Ich glaube, das müssen wir in der pluralistischen Gesellschaft immer wieder miteinander neu aushandeln. Ich wünsche mir eine Digitalisierung, die mehr Möglichkeiten und Freiheiten schafft, nicht weniger. Um bei der Bahn zu bleiben und ein positives Beispiel zu nennen: Es gibt Versuche der Bahn mit Video-Schaltern. Das sind Geräte, die z.B. an einem Bahnhof stehen und wenn ich Beratung möchte, wird jemand vom Serviceteam per Video zugeschaltet. Das ist eine digitale Lösung, die auch Leute mitdenkt, die mit Smartphones oder mit Automaten nicht zurechtkommen. Manchmal hat man auch eine Frage, die einem kein technisches Gerät beantwortet und die in einer Computer-Telefonschleife nicht vorgesehen ist. Wenn es nur noch Chatbots mit vorgefertigten Antworten gibt, dann kann ich diese Frage nirgendwo mehr stellen – das ist sehr frustrierend.

In Bezug auf die Bahntickets kann ich mir auch gute digitale Lösungen vorstellen, die mir weniger Zwänge auferlegen. Die Tickets der Deutschen Bahn sind ja im Grunde genommen nur ein QR-Code. Warum soll ich diesen QR-Code in der App der Deutschen Bahn präsentieren? Warum kann sich die Bahn nicht ein System ausdenken, mit dem ich diese Informationen auf beliebige Art vorzeigen kann? Zum Beispiel auf einem uralten Smartphone oder Laptop mit einem PDF-Reader meiner Wahl, auf einem E-Book-Reader oder auf Papier. So könnten freie Open-Source-Apps entstehen, in die Tickets geladen werden könnten und die Fahrpläne anzeigen. Meines Erachtens gibt es keine sinnvolle Begründung, warum Bahnkund:innen genötigt werden müssen, diese eine App zu nutzen.

JW: Genau. Man könnte sich bei vielen Prozessen vorstellen, andere, kreativere Ansätze zu wählen. Der Trend geht aber, wie angesprochen, in eine andere Richtung: Man muss diese bestimmte App nutzen, die man nur im Google Play Store oder Apple Store herunterladen kann. Diese Digitalisierung ist eine Verengung. Das ist nicht die lebenswerte Welt im digitalen Zeitalter, die wir uns wünschen.

Digitalcourage versteht sich als sehr technikaffin. Wir interessieren uns für Open Source, wir haben Lust, mit unseren Geräten herumzuspielen, unser Wissen und unsere Möglichkeiten damit zu erweitern. Aber ich habe den Eindruck, als Gesellschaft verstehen wir uns in Beziehung zu unseren Geräten immer mehr als reine Konsument:innen. Ich möchte aber nicht nur konsumieren, ich möchte mit meinem Gerät selbst etwas machen können. Das ist es auch, was der Begriff „Hacker“ ursprünglich gemeint hat: Die Dinge zweckentfremden, irgendwie ganz anders angehen, neu interpretieren, eine neue Lösung für ein Problem finden. Das Gerät mal kräftig schütteln und gucken, ob man es anders zusammenbauen kann. Ich glaube, dieses Spielerische geht uns gerade verloren. Wir erleben uns in Bezug auf unsere technischen Geräte immer seltener als selbstbestimmt handelnde Personen. Die technische Entwicklung verengt unsere Teilnahme auf, „Da ist der App-Store, da kann man was herunterladen, das kann man dann auf eine bestimmte Weise nutzen“. Vielleicht gibt es dann noch drei Einstellmöglichkeiten, aber unsere Systeme werden tendenziell immer geschlossener und der spielerische Geist geht uns verloren.

Wir sollten Technik wieder mehr als etwas begreifen, das von Menschen geschaffen und veränderbar ist, womit wir uns auch ausdrücken können. Das ist eine wichtige Grundhaltung für viele Lebensbereiche – darauf baut nicht zuletzt unsere Demokratie auf.

JW: Auf die Frage gibt es wahrscheinlich so viele Antworten, wie wir Mitglieder haben. Für mich bezieht sich der Name auf das, was ich Ihnen eben skizziert habe: Die Courage, die Welt – in unserem Fall vor allem die digitale Welt – aktiv beeinflussen und gestalten zu wollen. Eigene Ideen davon zu entwickeln und dafür zu werben.

JW: Digitale Mündigkeit bedeutet, Verantwortung für das eigene Handeln im digitalen Raum übernehmen zu können. Das ist ein wichtiges Konzept für uns und wir versuchen auf verschiedene Weise – unter anderem mit Anleitungen und praktischen Tipps – Leute zu ermutigen, sich Wissen und eine gewisse Urteilsfähigkeit über Digitales anzueignen.

Gleichzeitig ist mir bewusst, dass das stark von den jeweiligen Ressourcen abhängig ist, die ein Mensch zur Verfügung hat: zum Beispiel Bildung, Zeit und Geld. Das muss ich alles haben, um mich damit auseinandersetzen zu können. Wenn ich nach einem langen Arbeitstag völlig ausgepowert bin, dann noch mein Kind ins Bett bringen muss, um danach die Küche aufzuräumen und meine Steuererklärung zu machen, dann habe ich wahrscheinlich wenig Energie übrig, um die Funktionsweise meines Messengers verstehen zu lernen.

Deshalb setzen wir uns als Digitalcourage auch dafür ein, dass digitale Grundrechte eingehalten und gestärkt werden. Um ein konkretes Beispiel zu nennen: Wir führen eine Klage gegen die Deutsche Bahn, bei der es um das nicht abwählbare Sammeln und Weitergeben von Trackingdaten in der App geht. Man kann Smartphones so konfigurieren, dass Tracking weitestgehend unterbunden wird. Ein Personenkreis mit bestimmtem Wissen und Fähigkeiten kann so auf technischem Wege seine Privatsphäre wiederherstellen. Aber das reicht nicht. Denn ein Grundrecht zu haben, bedeutet, dass dieses Recht nicht davon abhängig ist, dass ich die Ressourcen habe, es selbst für mich einzufordern. Privatsphäre ist wichtig für unsere Demokratie und steht uns allen zu – unabhängig davon, ob jemand Zeit, Geld und Wissen hat, um darauf zu pochen.

JW: Dass Digitalisierung nicht schnell genug vorangeht, stimmt und stimmt nicht. Letztlich ist es völlig unterkomplex, von der Annahme auszugehen: je mehr Digitalisierung, desto besser. Digitalisierung ist kein Selbstzweck und hat keinen Wert an sich. Bestes Beispiel: Ich kann ganz viele iPads in Schulklassen verteilen; wenn ich aber kein pädagogisches Konzept dazu habe, dann ist das nicht besser, dann haben die Kinder nur Bildschirme. Es muss eine nützliche Digitalisierung sein, die auf eine gute Art und Weise gestaltet ist. Und es geht nicht darum, das möglichst schnell zu machen, sondern es möglichst gut zu machen. Wenn das zügig geht, dann ist es toll. Es ist wichtig, Digitalisierung nicht als eine Art Naturgewalt zu betrachten, die einfach über uns kommt. Wir müssen sie als einen Prozess begreifen, den wir alle gemeinsam gestalten sollten und gestalten können.

Dachwitz, Ingo (2023): Das sind 650.000 Kategorien, in die uns die Online-Werbeindustrie einsortiert [08.06.2023], https://netzpolitik.org/2023/microsofts-datenmarktplatz-xandr-das-sind-650-000-kategorien-in-die-uns-die-online-werbeindustrie-einsortiert/ [22.07.2024].

Digitalcourage (2024a): Petition gegen Digitalzwang vom 22.5.2024 [Webseite]. https://digitalcourage.de/blog/2024/petition-fuer-recht-auf-ein-leben-ohne-digitalzwang-gestartet [24.07.2024].

Digitalcourage (2024b): Formular Digitalzwangmelder. https://civi.digitalcourage.de/digitalzwangmelder [24.07.2024].

Tagesschau.de: Mehrere afrikanische Länder ohne Internet [15.03.2024]. In: https://www.tagesschau.de/ausland/afrika/internet-ausfall-unterseekabel-100.html [24.08.2024].

Tangens, Rena (2023): Laudatio zur Preisverleihung an die Deutsche Post DHL Group [Webseite]. https://bigbrotherawards.de/2023/deutsche-post-dhl [29.07.2024].

Tangens, Rena & padeluun (2013): Google. In: https://bigbrotherawards.de/2013/google [24.08.2024].

Zuboff, Shishana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus Verlag.

Witte, Julia & Eneia Dragomir (2024): Ein Recht auf ein Leben ohne Digitalzwang. In: https://zevedi.de/ein-recht-auf-ein-leben-ohne-digitalzwang/ [28.08.2024].
https://doi.org/10.60805/6fph-8h98

Kategorien
Akzentfarbe: beige Autor: Benjamin Seibel Uncategorized Verantwortungsblog

Fehler korrigieren, nicht vermeiden – Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen?

Fehler korrigieren, nicht vermeiden
Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen?

Bei der Digitalisierung öffentlicher Leistungen zeigt sich exemplarisch, dass es nicht zielführend ist, wenn Vorhaben zwar formal absolut korrekt durchgeführt werden, aber nicht zu brauchbaren Ergebnissen führen. Faktoren wie Geschwindigkeit, Lernfähigkeit, Adaptivität und Fehlertoleranz sollten hingegen künftig an Bedeutung gewinnen – es braucht ein neues Verständnis von verantwortungsvollem staatlichem Handeln.

Von Benjamin Seibel | 22.08.2024

kubistisches Gemälde; minimalistisch; Stadt, durch die viele verknüpfte Linien verlaufen
Mit Adobe Firefly generiert. Prompt: „kubistisches Gemälde; minimalistisch; Stadt, durch die viele verknüpfte Linien verlaufen“.

An einem Nachmittag im Frühjahr 2015 entwickelte ich meine erste Open Data-App.1 Es handelte sich um eine kleine Kartenanwendung für Smartphones, die Menschen mit wenig Geld einen Überblick über staatliche Unterstützungsangebote und Ermäßigungen in Berlin bot. Die App war weder besonders raffiniert noch aufwändig in der Entwicklung, aber trotzdem sehr viel hilfreicher als das, was die Berliner Landesverwaltung über ihre Website an Informationen bereitstellte. Für mich handelte es sich um ein reines Hobbyprojekt, ich hatte Lust gehabt, meine eingerosteten Programmierkenntnisse etwas aufzufrischen und dachte, dann könnte ich mich auch gleich an etwas Sinnvollem versuchen.

Nachdem ich aus verschiedenen Richtungen ermutigendes Feedback erhalten hatte, beschloss ich, das Gespräch mit der zuständigen Fachverwaltung für Soziales zu suchen. Ich wollte vorschlagen, dass man die App zu einem Teil des offiziellen Online-Angebots der Stadt machen könnte. Der freundliche Herr in der Behörde sagte mir, er freue sich immer über bürgerschaftliches Engagement, aber eine Integration in bestehende Systeme sei leider aus verschiedenen Gründen unmöglich. Ich dürfe die Anwendung gerne privat weiter betreiben. Das wiederum wollte ich nicht. Zum einen verursachte die Anwendung laufende, wenn auch überschaubare Kosten und sie benötigte eine regelmäßige Wartung, die ich nicht gewährleisten konnte. Vor allem aber klang mir das nach zu viel Verantwortung: Ein essenzielles Informationsangebot für potenziell hunderttausende hilfsbedürftiger Menschen bereitzustellen, schien mir als gelegentliche Freizeitbeschäftigung ungeeignet. Ich fragte den Beamten, ob es heutzutage nicht Aufgabe des Staates sein müsse, seinen Bürger:innen solche digitalen Angebote zu machen. Er lächelte nur sanftmütig.

In den folgenden Jahren hatte ich Gelegenheit, mich eingehender mit dem Zustand der Digitalisierung im öffentlichen Sektor zu beschäftigen. Ich lernte etwa, dass es in Berlin eine lebendige „Civic Tech“-Community aus engagierten Menschen gab, die wie ich in ihrer Freizeit Ideen oder sogar funktionsfertige Applikationen für ein digitales Gemeinwesen entwickelt hatten, damit aber bei offiziellen Stellen selten Gehör fanden. Und ich lernte auf der anderen Seite eine öffentliche Verwaltung kennen, die zwar für viele Aspekte dieses Gemeinwesens Zuständigkeit beanspruchte, aber selbst regelmäßig an der Entwicklung funktionierender Online-Angebote scheiterte.

Die Vermittlung zwischen beiden Welten erwies sich als schwierig. Auf der einen Seite eine lose Gemeinschaft aus Entwickler:innen, die ein hohes Maß an IT-Kompetenz mitbrachten, aber lieber drauflos programmierten als nach den komplizierten Regeln der Behörden zu spielen. Auf der anderen Seite eine Verwaltung, die im Zustand einer „Paralyse durch Analyse“ gefangen schien. Zwar setzte man sich auch dort intensiv mit dem Thema Digitalisierung auseinander, aber im Ergebnis wurde fast immer nur Papier produziert: Machbarkeitsstudien, Konzepte und Gutachten, wie Digitalisierung aussehen könnte gab es zuhauf. Zu einer tatsächlichen Umsetzung, also zur Entwicklung digitaler Angebote für Bürger:innen, kam es fast nie und wenn, waren die Ergebnisse meist katastrophal.

Im Sommer 2019 gründeten wir aus der Technologiestiftung Berlin heraus das CityLAB, ein gemeinnütziges Innovationslabor für öffentliche Digitalisierung. Inspiriert vom pragmatischen Vorgehen der Civic Tech-Community schlugen wir vor, das Vorgehen bei der Entwicklung digitaler Angebote vom Kopf auf die Füße zu stellen. Das CityLAB ist als Ort konzipiert, an dem die Gestaltung gemeinwohlorientierter Digitalisierung grundlegend anders gedacht und gemacht wird, als es sonst im öffentlichen Sektor üblich ist. Praxisnah und mit einer gewissen unbürokratischen Hemdsärmeligkeit, aber auch partizipativ, offen und von den Nutzenden her gedacht.

Aus einem kleinen Pilotprojekt hat sich das größte Stadtlabor im deutschsprachigen Raum entwickelt: Finanziert durch die Berliner Senatskanzlei arbeiten heute mehr als 35 Beschäftigte im ehemaligen Flughafen Berlin-Tempelhof mit einem großen Netzwerk aus Verwaltungsbeschäftigten, Forschungseinrichtungen und der Stadtgesellschaft an zahlreichen Digitalisierungs- und Transformationsprojekten. Einige unserer erfolgreichsten Angebote, etwa die Plattform „Gieß den Kiez“, die Bürger:innen bei der Pflege von Stadtbäumen unterstützt, oder die KI-Suchmaschine „Parla“, die parlamentarische Vorgänge für ein breites Publikum nachvollziehbar macht, werden heute nicht nur von tausenden Berliner:innen genutzt, sondern auch von anderen Kommunen und Ländern adaptiert.

Ein erster wichtiger Unterschied unseres Vorgehens liegt im so genannten „Rapid Prototyping“. Dabei geht es darum, vielversprechende Ideen innerhalb eines möglichst kurzen Zeitraums zu validieren, und zwar indem man sie einfach ausprobiert. Das mag banal klingen, steht aber dem üblichen Vorgehen der öffentlichen Verwaltung geradezu diametral entgegen. Während in der Verwaltung einem Digitalisierungsprojekt in der Regel eine monate- oder gar jahrelange Phase der Planung, Bedarfserhebung, Prüfung und Abstimmung vorausgeht, ziehen wir die ersten Entwicklungsschritte vor die bürokratische Klammer. Software-Prototypen im CityLAB entstehen binnen weniger Tage oder Wochen und werden anschließend in einem kontinuierlichen Dialog mit der Öffentlichkeit schrittweise verbessert (oder, auch das kommt vor, wieder verworfen).

Das führt direkt zu einem zweiten Prinzip, dem partizipativen Arbeiten „im Offenen“. Weil die digitale Transformation der Stadt alle Bewohner:innen betrifft, ist es wichtig, möglichst viele unterschiedliche Perspektiven einzubeziehen. Das machen wir zum einen über partizipative Prozesse und Austauschformate, die sich teils gezielt an sogenannte „stille“ Zielgruppen richten, also an Menschen, die üblicherweise nicht an klassischen Beteiligungsprozessen teilnehmen (Kinder, Wohnsitzlose, Geflüchtete etc.). Zum anderen durch eine konsequente Ausrichtung an Open Source-Prinzipien, weshalb alle Arbeitsergebnisse des Labs, von Workshopmaterialien über Softwarecode bis zur Projektdokumentation frei lizensiert und verfügbar gemacht werden. Das eröffnet grundsätzlich allen Interessierten die Möglichkeit, an unseren Projekten mitzuarbeiten. Bis heute ist unser Arbeitsplatz in Tempelhof zugleich ein öffentlicher Ort, an dem täglich interessierte Menschen aus Verwaltung und Stadtgesellschaft ein- und ausgehen, um sich über laufende Projekte zu informieren oder einfach gleich mitzumachen.

Trotz Wachstums und einiger sehr erfolgreicher Projekte ist das CityLAB bis heute ein Experiment geblieben. Jeder Entwicklungsprozess dient in erster Linie dazu, mehr darüber zu lernen, wie die Gestaltung gemeinwohlorientierter Digitalisierung an der Schnittstelle von öffentlicher Hand und Bürger:innen gelingen kann. Insbesondere in der Zusammenarbeit mit Verwaltungen führt das bewusste Abweichen von sonst üblichen Prozessen aber nicht nur zu Erkenntnisgewinnen, sondern regelmäßig auch zu Reibungen und Konflikten. Die wiederum haben ihre Ursache auch in unterschiedlichen Vorstellungen davon, was unter „verantwortungsvoller“ Digitalisierung zu verstehen ist.

Für Verwaltungen steht in der Regel die Rechtssicherheit an erster Stelle. Aus geltenden Gesetzen und Vorschriften ergeben sich bestimmte Prozessschritte für die Entwicklung eines digitalen Angebots, die dann einfach sukzessive abgearbeitet werden. Entscheidungen werden nicht in individueller Verantwortung, sondern durch die möglichst objektive Anwendung eines Regelwerks getroffen („es ist zu entscheiden“ statt „wir entscheiden“). Vor der eigentlichen Umsetzung liegt eine detaillierte Phase der Planung, die das Risiko, dass später etwas Unvorhergesehenes passiert, minimieren soll.

Das klingt verantwortungsvoll, führt aber bei der Digitalisierung regelmäßig zu schlechten Ergebnissen. Aufgrund der hohen Komplexität sieht man sich bei der digitalen Produktentwicklung ständig mit Fragen konfrontiert, die noch nicht klar geregelt sind. Ein auf vorschriftsgemäßes Arbeiten ausgerichtetes System neigt hier zur Blockade, weshalb sich Digitalisierungsprojekte der Verwaltung regelmäßig um Jahre verzögern (und dann erst recht nicht mehr zeitgemäß wirken). Noch schlimmer kann es werden, wenn Vorschriften offensichtlich von der Realität überholt sind, aber trotzdem angewandt werden. Die beinah groteske Nutzerunfreundlichkeit mancher digitaler Verwaltungsangebote ist letztlich nur ein Ausdruck der Prozesse, in denen sie entstehen.

Die Alternative, die wir im CityLAB verfolgen, ist die radikale Ausrichtung an den Bedürfnissen und Erwartungen der Nutzenden eines Angebots, die im klassischen Verwaltungshandeln erstaunlicherweise kaum eine Rolle spielt. Weil wir Arbeitsstände frühzeitig veröffentlichen, Zielgruppen einbeziehen und deren Feedback ernst nehmen, verlaufen unsere Entwicklungsprozesse deutlich weniger linear, sondern eher in sich wiederholenden Schleifen aus Entwicklung, Test, Lernen und Veränderung. So nähern wir uns schrittweise einer Lösung, die am Ende auch ganz anders aussehen kann als ursprünglich gedacht.

Die Arbeit mit Prototypen, die noch nicht bis ins letzte Detail „zu Ende gedacht“ sind, sorgt in der Verwaltung immer wieder für Irritationen. Der Verzicht auf eine gründliche Detailplanung zugunsten eines offenen und adaptiven Umgangs mit Überraschungen erscheint aus ihrer Sicht riskant. Wir hingegen sehen in dieser Arbeitsweise einen Weg, Risiken zu reduzieren, weil sie, entsprechende Lernbereitschaft vorausgesetzt, frühzeitige Kurskorrekturen erlaubt. Der Faktor „Zeit“ spielt für uns also – auch das ein Unterschied zum klassischen Verwaltungshandeln – eine zentrale Rolle, denn ob eine Korrektur nach zwei Wochen oder erst nach zwei Jahren erfolgt, ist ein entscheidender Unterschied.

Die dafür nötige Geschwindigkeit lässt sich jedoch nur erreichen, wenn man auch unter unsicheren Rahmenbedingungen und in Ermangelung klarer Vorschriften bereit ist, Entscheidungen zu treffen, die dann natürlich auch falsch sein können. Wichtig ist für uns aber auch nicht das Vermeiden von Fehlern, als vielmehr die Fähigkeit, sie schnell erkennen und korrigieren zu können. Ein grundlegender Wertekonsens, den man gemeinsam reflektieren und weiterentwickeln kann, sowie ein transparenter Umgang mit Unsicherheit bieten dafür oft bessere Grundlagen als ein starrer Vorschriftenkatalog.

In meiner Gegenüberstellung wird eine grundsätzliche Herausforderung sichtbar, mit der sich unsere demokratischen Systeme heute konfrontiert sehen. Denn die Frage, wie öffentliche Institutionen unter sich immer schneller wandelnden Bedingungen überhaupt handlungsfähig bleiben können, stellt sich längst an verschiedenen Stellen mit großer Dringlichkeit. Bei der Digitalisierung öffentlicher Leistungen zeigt sich exemplarisch, dass es nicht zielführend ist, wenn Vorhaben zwar formal absolut korrekt durchgeführt werden, aber nicht zu brauchbaren Ergebnissen führen. Wo hingegen Faktoren wie Geschwindigkeit, Lernfähigkeit, Adaptivität und Fehlertoleranz an Bedeutung gewinnen, benötigen wir auch ein neues Verständnis von verantwortungsvollem staatlichem Handeln, das sich dann vielleicht nicht mehr allein in einem Apparat aus Vorschriften begründen lässt.

  1. Darunter versteht man digitale Anwendungen oder Webseiten, die von der öffentlichen Verwaltung bereitgestellte oder gemeinfreie Daten nutzen. ↩︎

Seibel, Benjamin (2024): Fehler korrigieren, nicht vermeiden – Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen? In: Verantwortungsblog. https://zevedi.de/fehler-korrigieren-nicht-vermeiden/ [22.08.2024]. https://doi.org/10.60805/6AXT-FM76

Kategorien
Akzentfarbe: Türkis Autor: Renke Siems Uncategorized Verantwortungsblog

„Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene

„Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene

Es klingt, als wolle Brüssel sich zur Cyberpunk-Metropole entwickeln: eine Expertengruppe, die nicht so heißen darf, damit man nicht wissen kann, wer ihre Mitglieder sind. Datenzugriff auf Geräte, Services und Infrastrukturen, wann immer „die Sicherheit“ es für nötig erachtet. Einflussnahme auf Industriestandards, damit dies stets in Echtzeit möglich ist. Wenn nicht, müsse man bedauerlicherweise auf Schwachstellen zurückgreifen und Haft verhängen gegen die, die nicht „kooperieren“. Was schon die Bezeichnung – „Going Dark“ – aussehen lässt wie das verbrannte Niemandsland zwischen Neuromancer und V for Vendetta, hat einen administrativen Namen: „High-Level Group on Access to Data for Effective Law Enforcement“, eingesetzt 2023. Die weitreichenden Vorschläge dieser EU-Arbeitsgruppe wurden von der ungarischen Regierung als „beeindruckend und zukunftsweisend“ bewertet. Sie sollen Schwerpunkt der aktuellen Ratspräsidentschaft werden. Und in Geschichte und Gegenwart dieser Entwicklung immer mitten drin: wissenschaftliche Infrastrukturen.

Von Renke Siems | 13.08.2024

Ein Smartphone, auf dessen Display eine geöffnete Tür zu sehen ist.
Mit Adobe Firefly generiert. Prompt: „kubistisches Gemälde; minimalistisch; offene Scheunentore in ein Smartphone hinein“.

Demokratie hat ihre Paradoxien. So verwies Christian Stöcker im ZEVEDI-Podcast Digitalgespräch (Stöcker 2024) kürzlich darauf, dass in einer Demokratie das Lügen nicht grundsätzlich verboten werden könne, denn um so ein Verbot durchzusetzen, bräuchte es eine zentrale „Wahrheits-Behörde“, und dann hätte man keine Demokratie mehr, sondern ein totalitäres Regime. Eine Gesellschaftsform, die ihre Entwicklung grundlegend aus einem vernunftgeleiteten Diskurs gemeinsamer besserer Einsicht bezieht, kann sich damit nur begrenzt gegen die Manipulation ihrer Grundlagen wehren, sondern ist auf Workarounds angewiesen, was mal besser und – in Zeiten von Trollarmeen und News Deserts – auch mal schlechter funktioniert. Eine freiheitliche Demokratie ist somit in ihren Strukturen mit einer gewissen Notwendigkeit fragil, und wir mussten es in unserer Geschichte ja auch schon erleben, dass sie sogar auf mehr oder weniger demokratische Weise abgeschafft werden kann. Das war ein Extrem, es gibt jedoch auch (bislang) nicht so weitreichende und eher schleichende Prozesse, worin Grundrechte mithilfe von Grundrechten bekämpft werden. Prozesse dieser Art prägen unsere digitale Welt seit Jahrzehnten.

Ein Großteil dessen, was den aktuellen Konflikt in Brüssel ausmacht, hat seinen Ursprung in den 1980er Jahren mit einem Kokain-Schmuggler, der die Seiten wechselte.1 Als Hank Asher – ein in Europa wenig bekannter Daten-Pionier – sein Business zu heiß wurde, bot er sich der Drug Enforcement Administration (DEA) als Informant an. Dort fand er seine Berufung, denn die DEA war eine der ganz frühen law enforcement agencies, die mit einer zentralen Datenbank arbeitete: Verdächtige wurden im System erfasst, bekamen einen Identifier und blieben dort für immer gespeichert. Asher lernte schnell, besorgte sich Hardware und machte 1992 seine eigene Firma auf. Als Kunden hatte er zunächst die Versicherungswirtschaft im Blick, der er das verkaufen wollte, was heute ein Teil der digitalen Risk Solutions ist: Daten, mit denen sich Schadensereignisse vorab kalkulieren und am besten auch gleich noch Prozesse automatisieren lassen. Bei der Sammlung von Führerschein- und Kennzeichendaten begriff er dabei etwas, was man die Grundrechtsschleife nennen kann, die alle Data Broker seit ihm ausnutzen: Datenschutz- und Informationsfreiheitsgesetze gab es zwar schon seit Jahrzehnten, aber die Rechte, die sie begründeten wie die informationelle Selbstbestimmung, waren so konzipiert wie etwa die Wissenschaftsfreiheit auch – als Abwehrrecht gegenüber dem Staat. Der Staat sollte keine Geheimnisse vor den Bürgern haben können, aber die Bürger gegenüber dem Staat. Hank Asher war nun nicht der Staat, also suchte er sich eine Anwältin und begann, die Daten aus den öffentlichen Stellen herauszuholen: Fahrzeughalter, Standesamtsdaten, Schwerbehinderungen, Immobilien, Konzessionen, Adressänderungen, Insolvenzen schwemmten in seine Server, wurden zu Personenprofilen aufbereitet und seinen Kunden angeboten. 1997 erfolgte der Dammbruch und er bekam auch Daten von Kreditkarten- und Versorgungsunternehmen. Damit war Ashers Produkt AutoTrack unhintergehbar geworden, denn all die Mechanismen, die wir heute z.B. gegen das Tracking der digitalen Werbung ins Feld führen, griffen in diesem Universum harter Echtzeitdaten nicht: es gibt kein Opt-Out gegenüber dem Standesamt, das meine Eheschließung beurkundet, und kein Recht auf Vergessen gegenüber dem Energieversorger, der in diesem Moment meinen Rechner mit Strom versorgt.

Diese Unausweichlichkeit führte Asher wieder zum law enforcement zurück, nun als interessierte Kunden – beginnend mit Leigh McMorrow, einer IT-Mitarbeiterin von einem benachbarten Police Department, der er sein Produkt vorführte.

„‚How are you doing that?‘ she wondered aloud. He explained that he was gathering public records to build a product for the insurance industry. ‚I was just so flabbergasted‘, McMorrow says. ‚The minute he showed it to me, I’m like, my God, oh my God. I said ‚You’re sitting on a gold mine. Law enforcement will eat this up with a spoon.‘“ (Funk 2023, 73)

So kam es dann auch und die Grundrechtsschleife zog sich zu: der Staat, der keine Geheimnisse haben durfte, mietete sich den Zugang zu denen seiner Bürger über außerstaatliche Third Parties. In der Welt nach 9/11 entwickelten sich data fusion solutions zu einem Multimilliardenmarkt mit jährlichen Wachstumsraten von 15 bis 20 Prozent (Verified Market Research 2024, Chemical Industry Latest 2023) überboten nur von den explosionsartigen Datenmengen, die aus Social Media und Werbetracking hinzukommen. Auch die Anwendungsgebiete wuchsen, wenn z.B. Gesichtserkennung als digitales Instrument zur Überwachung der Offline-Welt eine neue Unentrinnbarkeit erzeugt: „You could delete your social media account. You could leave your phone at home. You couldn’t leave your face at home.“ (Funk 2023, 197) Data Fusion führt dabei nicht nur zu Profiling, sondern sowohl im staatlichen wie Wirtschaftsbereich zu immer mehr Scoring. Was in China der social credit score, sind in der westlichen Welt eine immer größere Reihe an Scores: renter scores, juror scores, voter scores, customer-lifetime-value scores, welfare-benefits scores – und in der Pandemie dann noch socioeconomic health scores, die Maßnahmen und Verteilung von Ressourcen begründeten.

Wenngleich der Markt für Data Fusion groß ist, sind die relevanten Marktteilnehmer eher überschaubar in der Anzahl und einige Marktführer davon auch in der Wissenschaft sehr bekannt: RELX (der Mutterkonzern von Elsevier), Thomson Reuters, Clarivate und Palantir. Warum teils so bekannte Wissenschaftssupplier hier vorne dran sind, hat seine Ursache in der Digitalisierung der Wissenschaft: Elsevier z.B. hatte in den Jahren um 2000 noch eine erdrückende Papierquote bei seinen verlegten Zeitschriften. Der Verlag suchte in der Furcht, vom aufstrebenden Internet überrollt zu werden, nach einer Alternative und als Hank Asher gesundheitlich zusehends ausbrannte und seine Firma zum Verkauf stand, griff Elsevier zu und fusionierte Ashers Erbe mit dem eigenen Datendienst LexisNexis. Auch in Palantir wurde bereits 2006 investiert. (RELX 2021)

Seitdem wachsen führende Anbieter für wissenschaftliche Services in den Risk Solutions-Bereich hinein, liefern Datenprodukte für Predictive Policing (Wang et al. 2022) und übertragen die Arbeitsweisen dieses Bereichs immer mehr in die Wissenschaft. Vor Jahren hat die DFG bereits über das Datentracking in der Wissenschaft berichtet und wie die vormaligen Verlage nun als Data Analytics-Unternehmen ihre Plattformen mit Überwachungstechnologien ausstatten (DFG 2021) – nur um aktuell festzustellen, dass sich bei den Verhandlungen zu den großen DEAL-Verträgen nur teilweise ein rechtskonformer Zustand herstellen ließ. (Altschaffel et al. 2024) Seit langem an ein Scoring mit fragwürdigen Indikatoren gewöhnt, lässt sich die Wissenschaftsgovernance nach dem Muster von law enforcement jetzt international „Research Intelligence“ anbieten und greift zu – ohne dass anscheinend groß überlegt wird, was die Gewinnung dieser „Insights“ für Forschende an Gefährdungen bedeutet, welcher Wissens- und Technologieabfluss dadurch möglich wird und welche neuen Möglichkeiten sich auch für die Merchants of Doubt bieten, mit diesen Strukturen und Anreizsystemen die Wissenschaft in den gleichen Morast zu führen, in dem ein großer Teil des Nachrichtenwesens schon liegt und der auch hier dazu führen kann, die vormals gemeinsame Faktengrundlage durch den Wettkampf konkurrierender Narrative zu ersetzen (Siems 2024b) und wissenschaftliche Infrastrukturen immer näher an den fantasy industrial complex heranzuführen, den Renée DiResta beschreibt. (DiResta 2024)

Die EU-Initiative „Going Dark“ ist auf diesen Boden gewachsen und anscheinend dafür angetreten, die Entwicklung nochmals zu eskalieren. Getrieben von der Befürchtung, aufgrund der Verbreitung und der Fortschritte bei Verschlüsselungstechnologien könnte die Strafverfolgung erblinden – eben „going dark“ – wurde die eingangs benannte High Level Group unter der schwedischen Ratspräsidentschaft im Juni 2023 eingesetzt. (European Commission 2023) Die Gruppe sollte ursprünglich vielfältige Perspektiven einbringen, nicht nur law enforcement und criminal justice, sondern auch data protection und privacy, cybersecurity, private sector, non-govermental organisations, und academia. Dazu scheint es nicht gekommen zu sein – die High Level Group versank gleichsam selbst ins Dunkel – (FragDenStaat 2023) Mitgliederlisten wurden geschwärzt, und abgesehen vom Europäischen Datenschutzbeauftragten als Gast scheint law enforcement und dessen Umfeld unter sich zu sein. Die wesentlichen Schritte der Expertengruppe stehen nun im Zeitraum der ungarischen Ratspräsidentschaft an: die Veröffentlichung der Empfehlungen (European Commission 2024) fällt ins direkte Vorfeld, im Verlauf des Herbsts erscheint der Schlussbericht und wird auch das Arbeitsprogramm der neuen Kommission veröffentlicht. Abschließend tagt im Dezember auch noch der Rat der Europäischen Union mit einem Austausch zum Thema (Council of the European Union 2024). Ungarn hat „retention and access to law enforcement data“ ausdrücklich in sein Arbeitsprogramm aufgenommen. (Hungarian Presidency 2024)

Die „Going Dark“-Gruppe setzt für ihre Arbeit drei Schwerpunkte: Zugang zu den Daten auf Endgeräten, Zugang zu den Daten, die bei den Providern liegen, und Zugang zu den Datenflüssen. Ein besonderer Schwerpunkt liegt auf den Over-the-top (OTT)-Services, die in Konkurrenz zu den traditionellen Kommunikationsdiensten stehen wie Messaging und Videotelefonie. Internationale Kooperation auch außerhalb der EU wird hervorgehoben, hier werden die USA genannt. Sehr viel Wert legt die Gruppe auch darauf, ihre Vorstellungen mit bereits bestehenden Regulierungen zu verknüpfen, mehrfach wird dabei der Digital Services Act als Ansatzpunkt genannt.

Hinsichtlich der Gerätedaten beklagt die Gruppe die mangelhafte Kooperation der Hersteller mit law enforcement, weshalb es sehr schwierig sei, legal Daten aus dem Gerät herauszuholen und unverschlüsselt mit den nötigen Metadaten gerichtsverwertbar zu machen. Zentral seien daher zwei Dinge: law enforcement müsse zum einen mehr Einfluss als bislang auf die Standardisierungsgremien nehmen und damit Protokolle, Schnittstellen und technische Architekturen formen, damit künftige technische Standards von Beginn an entsprechend entwickelt werden. Zum anderen sollten der Industrie, wenn sie nicht freiwillig kooperiere, dann eben Verpflichtungen auferlegt werden.

Bei den Providerdaten kommt unweigerlich das Thema Vorratsdatenspeicherung auf den Tisch, das mit Nachdruck und ausführlich behandelt wird weit über klassische Telekommunikationsdienste hinaus: insbesondere OTT-Services sollen „Transparenz schaffen“ über die Daten, die bei ihnen anfallen, verarbeitet und gespeichert werden. Interessanterweise werden auch Autohersteller dabei als communication service betrachtet und Instrumente diskutiert, um bei denen Compliance zu erzwingen, die heute von der „Connectivity“ ihrer neuen Modelle schwärmen, und davon den Zugang zum europäischen Markt abhängig zu machen. Diskutiert wurde ebenso „the opportunity to legislate on data already in the possession of providers for business purposes.“ Das kann nun vieles bedeuten: Zugriff auf die Nutzerdaten in der Breite, wie sie etwa der Data Act versteht, oder auch Zugriff auf die Datenbestände der Data Broker, denn auch deren beliebtestes Produkt Lokalisierungsdaten werden in diesem Zusammenhang angesprochen.

Datenflüsse stellen für die Gruppe die Anforderung, mit großen Datenmengen in Echtzeit umzugehen. Auch hier soll deshalb Einfluss auf Standardisierung genommen werden, etwa bei 5G/6G. Bei unkooperativen Providern müsse man wohl weiterhin auf die Nutzung von Schwachstellen zurückgreifen, hier und insgesamt wäre daher Verschlüsselung sehr im Weg: „law enforcement authorities need to have a pre-established lawful access to readable data“ – daher sind Initiativen wie Apples Private Relay gar nicht gerne gesehen.

Im Einzelnen schlagen die Empfehlungen dann u.a. mehr Geld für Forschung und Entwicklung zur Datenbeschaffung vor (Nr. 4), Verbesserung der Schwachstellennutzung (Nr. 6), Einbindung der Wissenschaft (Nr. 8), Ausbau der Fähigkeiten, große Datensätze in Echtzeit zu übertragen (Nr. 9) und – in Ergänzung zu Nr. 6 – anscheinend das gezielte Knacken von Geräten und Services, wenn man anders an die Daten nicht herankomme (Nr. 10). Der Einfluss auf technische Standards soll das gesamte Spektrum des Internet of Things abdecken wie etwa connected cars und auch Satellitenkommunikation (Nr. 20). Hersteller von Hard- und Software, aber auch Cybersecurity, Datenschutz- und Standardisierungsexperten sollen insgesamt verstärkt eingebunden werden in eine „technology roadmap“, „in order to implement lawful access by design in all relevant technologies in line with the needs expressed by law enforcement“ (Nr. 22). Ziel ist ein „EU-level handbook“ der einschlägigen Gesetzgebung (Nr. 25), „a harmonised EU regime on data retention“ (Nr. 27) und auch eine Harmonisierung der strafrechtlichen Werkzeuge, Kooperation zu erzwingen, bis hin zur Inhaftierung (Nr. 34). Dabei sind insgesamt Zentralisierungsbestrebungen weg von den Mitgliedsstaaten hin zu EU-Einrichtungen festzustellen, die z.B. als „Single Point of Contact“ gegenüber Unternehmen dienen sollen.

Angesichts dessen, dass hier offenkundig keine Snowflakes am Werk waren und die Pläne weit über das hinausgehen, was bislang unter dem Label Chatkontrolle Furore machte, ist das öffentliche Echo auf dieses ausufernde Überwachungspaket bislang erstaunlich dünn. Das Arbeiten im administrativen Untergrund, ein Thema, das in seiner technischen Komplexität für klassische Presseberichterstattung meist eher unattraktiv ist, und ein offenbar ebenso stiller wie weitreichender Konsens unter vielen Mitgliedsstaaten trugen dazu bei, dass bislang kein breiter Diskurs entstanden ist, obwohl schlichtweg jede und jeder in einem europäischen Land betroffen sein wird. Es sieht so aus, als wenn die europäische Öffentlichkeit im Bereich Überwachung, über den schon so lange gestritten wird, mittlerweile einen Ermüdungsbruch erlitten hat.

Bislang widmen sich dem Thema hauptsächlich ausgewählte Tech-Presse wie Netzpolitik und Europaparlamentarier. Hier ist insbesondere Patrick Breyer hervorzuheben, der hartnäckig dieses Thema verfolgte2 – nur damit die EU-Kommission eine Anfrage von ihm monatelang ignorierte, bis er nach den Wahlen jetzt aus dem EU-Parlament ausscheidet. (European Parliament 2024) Fasst man die digitalaktivistische Kritik dabei bewusst überspitzt zusammen, steht hier der Vorwurf einer „Stasi 4.0“ im Raum: ein völlig von der Kette gelassener Sicherheitsapparat, der keinerlei Interesse mehr daran hat, sich von Grundrechten und bürgerlichen Freiheiten einhegen zu lassen. Ob man die Kritik in ihrer Schärfe teilt oder nicht – man wird beim Blick auf den Maßnahmenkatalog zugeben müssen, dass dieser in höchstem Maße invasiv ist – law enforcement will in den Fahrersitz, und zwar allein. Und wenn im Empfehlungspapier wiederholt darauf rekurriert wird, dass dies alles die Ende-zu-Ende-Verschlüsselung nicht schwächen werde und Datenschutz und Privacy gesichert seien, so wird das zu werten sein wie die „Technologieoffenheit“ in der Klimapolitik: ein dekoratives Wording, das zur Sache nichts beiträgt, sondern ablenken soll.

Zu beachten ist auch, dass „Going Dark“ an sich schon wenig mit der Wirklichkeit zu tun hat, sondern vor allem ein sorgfältig gepflegter politischer Mythos ist. Immer wieder haben hochrangige Studien wie vom Berkman Center for Internet and Society an der Harvard University belegt, dass die Befürchtungen wenig fundiert sind. (Berkman Center 2016) Strafverfolgungsbehörden stehen heute ein Vielfaches an Informationen zur Verfügung als ehedem und sie erzielen entsprechende Ermittlungserfolge. Teils wird dabei auf durchaus „kreative“ Lösungen zurückgegriffen, wie bei der von Joseph Cox erzählten Geschichte der gesicherten Kommunikationsplattform Anom, die sich in der organisierten Kriminalität verbreitete mit dem kleinen Haken, dass sie verdeckt vom FBI betrieben wurde. International konnten Behörden ihre Kundschaft wie im Goldfischglas beobachten und zuschlagen. (Cox 2024) Aber auch dort zeigten sich bereits die Grenzen, da dieser honey pot so erfolgreich war, dass er aus dem Ruder zu laufen begann, ebenso wird die Verwertbarkeit der Beweise vor Gericht vielfach in Frage gestellt.

Der Maßnahmenkatalog rollt letztlich auch alle Debatten wieder auf, die z.B. bei den Verhandlungen zum Data Act geführt wurden hinsichtlich des Schutzes von Geschäftsgeheimnissen. „Access by Design“ hieße Zugriff nach Bedarf auf Services, Konsumgüter, Industrieproduktion, Forschung & Entwicklung. Sind wir sicher, dass etwa die Automobilhersteller in Europa dies mit Begeisterung mittragen werden? Setzt sich dies dennoch durch, wäre damit auch die so aufwendig erarbeitete Europäische Datenstrategie diskreditiert, nachdem bislang schon den in den Maßnahmen als Anknüpfungspunkt genannten Digital Services Act wie ein Schatten die Vorwürfe verfolgten, hinter der rechtstaatlichen Fassade autoritären Entwicklungen Vorschub zu leisten. (z.B. European Digital Rights 2022)

Entscheidender sind aber dennoch die Aussichten für die Bürgerinnen und Bürger in Europa, die im Gegensatz zu denen der Sicherheitsbehörden tatsächlich sehr düster sind. „A VPN won’t help either“, erklärt Jan Jonsson von Mullvad. „It would mean total surveillance and that Europe’s inhabitants carry state spyware in their pockets.“ (Jonsson 2024) Was hierbei noch wenig diskutiert wird, ist, dass im Ernstfall das reine Ausmaß der invasiven Eingriffe zu riesigen Datenmengen und entsprechendem Bearbeitungsbedarf führen wird und damit dazu, dass law enforcement neuerlichen Bedarf für vertraute Dienstleister schaffen wird: Palantir ist schon in die deutsche Sicherheitsinfrastruktur hineingewoben, obwohl die fortlaufenden Gerichtsverfahren zeigen, dass sich dort das Schaffen von Tatsachen mehr auf den Datenzugriff als von validen Rechtsgrundlagen bezieht. (Abbe 2023) LexisNexis hat bereits Zugang zur Europäischen Datenstrategie, indem es in den Bereich der Mobilitätsdaten eingedrungen ist. (LexisNexis Risk Solutions 2020) Während die großen Plattformen wie Google, Amazon und Microsoft sich in den letzten Jahren immer mehr zu military contractors entwickelt haben,3 haben die spezialisierten Plattformen – das dem Wissenschaftsbereich entsprungene „GAFAM der kuratierten Information“ – parallel sich mit ihren data fusion solutions immer weiter den Markt der inneren Sicherheit erobert. Dabei ist die fachliche Bilanz dieser Firmen überaus durchwachsen: hatte Sarah Lamdan bereits für den Wissenschaftsbereich analysiert, dass die von ihr so genannten „Datenkartelle“ mit dem starken Anwachsen der Datenmengen und der Einführung von KI-Anwendungen keineswegs bessere Leistungen erzielen (Lamdan 2022), so referiert McKenzie Funk Berichte des US-Senats, die unzählige Datenschutzverstöße feststellten, „but – despite an estimated billion dollars in taxpayer support – no evidence they had helped stop any terror attacks.“ (Funk 2023, 184) Stattdessen füllen sich Abschiebezentren durch data driven deportation vorzugsweise mit den einfach zu findenden Personen: Mütter, die vor ihren kleinen Kindern verhaftet werden, Schüler, Arbeitnehmer im Betrieb – und ebenso Gefängnisse mit denen, die einer falschen Evidenz zum Opfer fallen. Funk erzählt beispielsweise die Geschichte von John Newsome, den die schlampige Bedienung von LexisNexis um seine mühsam aufgebaute Existenz brachte. Er schaffte es, kein Schuldgeständnis zu unterschreiben und einen Anwalt zu bekommen, daher sieht er sich als begünstigt an, denn „there’s plenty of people that could tell you the story that I’m telling you right now. But they’re gonna tell it to you, and the ending of theirs is gonna be like, ‚and when I got out of jail fifteen years later…‘“ (Funk 2023, 189)

Was man heute „AdInt“ nennt, die Verschmelzung von Werbetracking und Risk Solutions zu einer „Advertising Intelligence“, ist dabei besonders fehlerträchtig (Meineck/Dachwitz 2024) und zugleich die prominenteste Form einer unheimlichen Allianz von Tech-Industrie und Politik auf dem Weg zu immer mehr Überwachung. (Tau 2024) Die mit den Risk Solutions verknüpfte Data Broker-Branche gilt dabei mittlerweile selbst als „hidden security crisis“ (Cracked Labs 2023): Beschäftigte in kritischen Infrastrukturen, Militärangehörige, Mitarbeiter von Nachrichtendiensten lassen sich in den zügellos gehandelten Daten identifizieren, ihre Bewegungsmuster und Alltagshandlungen nachvollziehen. (Brunner et al. 2024, Meineck/Dachwitz 2024) Dies gilt auch für die Wissenschaft, denn im „Xandr“-Leak vergangenes Jahr zeigten sich auch Belege dafür, dass etwa LexisNexis Daten von geschützten Berufsgruppen wie Anwälte und Forschende an den Data Broker LiveRamp weitergab,4 ebenso sammeln die auf den Wissenschaftsplattformen verankerten Tracker, Fingerprinter und Audience Tools fortlaufend Daten. (Siems 2022) Das bedeutet nicht nur ein Risiko für die Personen, sondern da diese Daten sehr breit und niederschwellig zu bekommen sind, ist es auch ein Risiko für Forschungs- und Technologieabfluss. Während die G7 in Sachen Wissenschaftsspionage um ihre Position zu China ringen und dabei diplomatische Verärgerung riskieren, (Gabel 2024; Directorate-General for Research and Innovation 2024) stehen die virtuellen Scheunentore zu sensiblen Daten hochgezüchteter Forschungsteams die ganze Zeit sperrangelweit offen.

Wenn Risk Solutions damit selbst so große Risiken beinhalten – was ist dann die Motivation von „Going Dark“? Warum dieser unbedingte Wille, demokratiefeindliche Maßnahmen durchzusetzen? Gibt es den vielberufenen Systemwettbewerb zwischen China und der westlichen Welt am Ende gar nicht, weil eigentlich alle chinesisch werden und Kapital und Kontrolle maximal glücklich verbinden wollen? Vielleicht muss man nochmal zum Beginn der Geschichte zurückkehren, wo Hank Asher der Polizistin McMorrow das erste Mal AutoTrack vorführte. Sie sorgte für eine Demo in ihrem Police Department und es geschah genau das, was sie sich gedacht hatte: „The chief, the deputy chief, all the detectives […] freaked out over it, absolutely freaked out over it.“ (Funk 2023, 73) Data Fusion hat eine starke Verführungskraft durch ihren Glanz der (scheinbaren) Evidenz und weil die Sicherheitsbehörde überdies damit alle rechtstaatlichen (und damit anstrengenden) Checks & Balances überspringen kann: man braucht keinen richterlichen Untersuchungsbeschluss mehr, man muss sich keinen Fragen mehr stellen, alles, was man will, kann man per data shopping on the fly bekommen – ein All you can eat für Personendaten. Als Behörde muss man auch sich selbst und die vielleicht nicht mehr so ganz zeitgemäßen Arbeitsformen und das behördliche Gestrüpp nicht in Frage stellen, denn Data Fusion legt einem ja trotzdem alles glänzend vor die Füße. Dass es voller Fehler ist, kann man ignorieren, trifft ja schließlich nicht die Anwender, sondern die Verzeichneten wie den Bibliothekar Shea Swauger, der im Selbstversuch sein Profil aus dem LexisNexis-Konkurrenten Thomson Reuters herausholte: 41 Seiten detailliertester Informationen – aber bis hin zum Geschlecht eben auch vielfach falsch.5

Wenn wir im Kontext von „Going Dark“ von Verantwortung sprechen, reden wir damit nicht nur über die Freiräume von Wissenschaftlerinnen und Wissenschaftlern, sondern zugleich von den grundlegenden Rechten der Bürgerinnen und Bürger sowie auch von den grundlegenden Funktionen und Prozessen unserer Gesellschaft. Das kann die Wirtschaft sein, das kann unser Miteinander schlechthin sein – aber reden wir auch ausreichend darüber, was das alles für die Wissenschaftsfreiheit bedeuten soll, wenn künftig alle Geräte, die in Labor und Büro stehen, quasi eine Standleitung zum law enforcement haben sollen? Alle Services, die (auch) Forschende nutzen, eine Mitwirkungspflicht zur Verfolgung haben? Wie sollen sich Forschungsdateninfrastrukturen weiterentwickeln, an denen ein Großteil der künftigen Wertschöpfung hängt, aber auch von digitaler gesellschaftlicher Entwicklung insgesamt? Wie soll noch zu Datenaltruismus motiviert werden, wenn ehrlicherweise alle nur antworten könnten: „Vielen Dank – hab schon gespendet!“

Es ist damit in verschiedener Hinsicht durchaus fraglich, wo hier etliches sowohl im Dunkeln wie auch im Argen liegt.

  1. Die Darstellung hier folgt Funk 2023 und meiner Rezension des Buches in der Bibliothekszeitschrift o-bib (Siems 2024a), aus der auch einige Sätze für diesen Beitrag übernommen wurden. ↩︎
  2. Vgl. die von ihm erstellte Themenseite unter Breyer 2024. ↩︎
  3. Vgl. z.B. Microsoft 2024 und Biddle 2024. ↩︎
  4. Vgl. Keegan/Eastwood 2023 und das dort verlinkte GitHub-Repository. ↩︎
  5. „To wrap it up, @Westlaw, through CLEAR, collects a shit ton of data about you. They share it with law enforcement, including @ICEgov, and anyone who has enough money to buy CLEAR. And for most people, there’s nothing you can do about it”. (Swauger 2019) ↩︎

Abbe: Zum Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse und seinen Folgen [16.02.2023], https://police-it.net/folgen-des-bverfg-urteils-fuer-vera-und-andere-palantir-systeme?cn-reloaded=1 und https://www.golem.de/news/palantir-bayerns-polizei-erhaelt-umstrittene-analysesoftware-vera-2407-187185.html [22.07.2024].

Altschaffel, Robert u.a. (2024): Datentracking und DEAL – Zu den Verhandlungen 2022/2023 und den Folgen für die wissenschaftlichen Bibliotheken. In: Recht und Zugang, 2024, Heft 1, S. 23-40. https://doi.org/10.5771/2699-1284-2024-1-23.

Brunner, Katharina et al. (2024): Wohnort, Arbeit, ausspioniert. Wie Standortdaten die Sicherheit Deutschlands gefährden [16.07.2024], https://interaktiv.br.de/ausspioniert-mit-standortdaten/ [24.07.2024].

Berkman Center [for Internet & Society] (2016): Don’t Panic. Making Progress on the “Going Dark” Debate [01.02.2016], https://cyber.harvard.edu/pubrelease/dont-panic/Dont_Panic_Making_Progress_on_Going_Dark_Debate.pdf [22.07.2024].

Breyer, Patrick (2024): https://www.patrick-breyer.de/beitraege/draft-going-dark-uberwachungsschmiede/ [24.07.2024].

Briddle, Sam (2024): Israeli Weapons Firms Required to Buy Cloud Services From Google and Amazon [01.05.2024], https://theintercept.com/2024/05/01/google-amazon-nimbus-israel-weapons-arms-gaza/ [22.07.2024].

Chemical Industry Latest (2023): Data Fusion Market Insights Research Report (2023-2030) | 125 Pages [12.12.2023], https://www.linkedin.com/pulse/data-fusion-market-insights-research-report-2023-2030-fdslf [22.07.2024].

Council of the European Union (2024): Draft agendas for Council meetings during the second semester of 2024 (Hungarian Presidency) [24.06.2024], https://data.consilium.europa.eu/doc/document/ST-11222-2024-INIT/en/pdf [22.07.2024].

Cox, Joseph: Dark Wire. The Incredible True Story of the Largest Sting Operation Ever. New York: ‎PublicAffairs 2024.

Cracked Labs. Institute for Critical Digital Culture (2024): Europe’s and America’s hidden security crisis [11.2023], https://crackedlabs.org/en/rtb-security-crisis [24.07.2024].

Directorate-General for Research and Innovation (2024): G7 agree to strengthen open and safe international science cooperation [11.07.2024], https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/g7-agree-strengthen-open-and-safe-international-science-cooperation-2024-07-11_en?prefLang=de [22.07.2024].

DFG [= Deutsche Forschungsgemeinschaft] (2021): Datentracking in der Wissenschaft: Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Bonn 2021; https://www.dfg.de/resource/blob/174922/5b903b1d487991f2d978e3a308794b4c/datentracking-papier-de-data.pdf [22.07.2024].

DiResta, Renée: Invisible Rulers. The People who turn Lies into Reality. New York: PublicAffairs 2024.

European Commission (2024): Recommendations of the High-Level Group on Access to Data for Effective Law Enforcement [21.05.2024], https://home-affairs.ec.europa.eu/document/download/1105a0ef-535c-44a7-a6d4-a8478fce1d29_en?filename=Recommendations%20of%20the%20HLG%20on%20Access%20to%20Data%20for%20Effective%20Law%20Enforcement_en.pdf [22.07.2024].

European Commission (2023): COMMISSION DECISION of 6.6.2023 setting up a high-level group on access to data for effective law enforcement, https://home-affairs.ec.europa.eu/document/download/ffbbf855-c62e-4b71-a249-126316124e91_en?filename=Commission%20Decision%20setting%20up%20a%20high-level%20group%20on%20access%20to%20data%20for%20effective%20law%20enforcement_en.pdf [22.07.2024].

European Digital Rights (2022): Public Statement on New Crisis Response Mechanism and other Last Minute Additions to the DSA [12.04.2022], https://edri.org/wp-content/uploads/2022/04/EDRi-statement-on-CRM.pdf [22.07.2024].

European Parliament (2024): Transparency of High-Level Expert Group on access to data for effective law enforcement, Question for written answer E-001335/2024 to the Commission, Rule 138, Patrick Breyer (Verts/ALE) [25.04.2024], https://www.europarl.europa.eu/doceo/document/E-9-2024-001335_EN.html [22.07.2024].

FragDenStaat (2023): June and November Meetings of the HLEG on access to data for effective law enforcement, https://fragdenstaat.de/anfrage/june-and-november-meetings-of-the-hleg-on-access-to-data-for-effective-law-enforcement/ [22.07.2024].

Funk McKenzie: The Hank Show: how a house-painting, drug running DEA informant built the machine that rules our lives. New York: Macmillan 2023.

Gabel, Tim (2024): G7: Wissenschaftsminister wollen Forschungsergebnisse vor „feindseligen“ Nationen beschützen [15.07.2024], https://table.media/research/analyse/g7-wissenschaftsminister-wollen-forschungsergebnisse-vor-feindseligen-nationen-beschuetzen/ [29.07.2024].

Hungarian Presidency (2024): Programme of the Hungarian Presidency of the Council of the European Union in the Second Half of 2024, https://hungarian-presidency.consilium.europa.eu/media/32nhoe0p/programme-and-priorities-of-the-hungarian-presidency.pdf [22.07.2024].

Jonsson, Jan (2024): https://thefifthskill.com/eu-anti-encryption-crusaders-seek-to-turn-your-digital-devices-into-spyware/ [22.07.2024].

Keegan, Jon & Joel Eastwood (2023): From „Heavy Purchasers“ of Pregnancy Tests to the Depression-Prone: We Found 650,000 Ways Advertisers Label You [08.06.2023], https://themarkup.org/privacy/2023/06/08/from-heavy-purchasers-of-pregnancy-tests-to-the-depression-prone-we-found-650000-ways-advertisers-label-you [22.07.2024].

Lamdan, Sarah: Data Cartels. The Companies That Control and Monopolize Our Information. Stanford: Stanford University Press 2022.

LexisNexis Risk Solutions (2020): LexisNexis Risk Solutions wurde für das EU-Konsortium Horizon 2020 ausgewählt [04.11.2020], https://www.prnewswire.com/news-releases/lexisnexis-risk-solutions-wurde-fur-das-eu-konsortium-horizon-2020-ausgewahlt-817539385.html [22.07.2024].

Meineck, Sebastian & Ingo Dachwitz (2024): Databroker Files: ADINT – gefährliche Spionage per Online-Werbung [19.07.2024], https://netzpolitik.org/2024/databroker-files-adint-gefaehrliche-spionage-per-online-werbung/ [22.07.2024].

Microsoft (2024): Microsoft for defense and intelligence https://www.microsoft.com/en-us/industry/defense-intelligence [24.07.2024].

RELX (2021): RELX 2020 Results [11.02.2021], https://www.relx.com/~/media/Files/R/RELX-Group/documents/investors/transcripts/results-2020-transcript.pdf

Rudl, Tomas (2023): Digital Services Act: EU-Kommissar hält an Lizenz zum Abklemmen sozialer Netze fest [20.09.2023], https://netzpolitik.org/2023/digital-services-act-eu-kommissar-haelt-an-lizenz-zum-abklemmen-sozialer-netze-fest/ [22.07.2024].

Siems, Renke (2024a): Rezension zu: Mckenzie Funk: The Hank Show: how a house-paintig, drug running DEA informant built the machine that rules our lives. In: o-bib. Das offene Bibliotheksjournal 11 (2024) Nr. 1. https://doi.org/10.5282/o-bib/6021

Siems, Renke (2024b): Subprime Impact Crisis. Bibliotheken, Politik und digitale Souveränität. In: Bibliothek Forschung und Praxis 2024. https://doi.org/10.1515/bfp-2024-0008.

Siems, Renke (2022): Das Lesen der Anderen. Die Auswirkungen von User Tracking auf Bibliotheken. In: o-bib. Das offene Bibliotheksjournal, Bd. 9 (2022), Nr. 1; https://doi.org/10.5282/o-bib/5797.

Stöcker, Christian (2024): Information und Desinformation – wie steht es um die Netzöffentlichkeit? Digitalgespräch Folge 53 mit Christian Stöcker, https://zevedi.de/digitalgespraech-053-christian-stoecker/ [22.07.2024].

Swauger, Shea (2019): [13.12.2019], https://twitter.com/SheaSwauger/status/1205587676172144641 [22.07.2024].

Tau, Byron (2024): Means of Control. How the Hidden Alliance of Tech and Government is Creating a New American Surveillance State. New York: Crown.

Verified Market Research (2024): https://www.verifiedmarketresearch.com/product/data-fusion-market/ [22.07.2024].

Wang, Nina/Allison McDonald/Daniel Bateyko/Emily Tucker (2022): American Dragnet: Data-Driven Deportation in the 21st Century, Center on Privacy & Technology at Georgetown Law [10.05.2022], https://americandragnet.org/ [22.07.2024].

Siems, Renke (2024): „Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene. In: Verantwortungsblog. https://zevedi.de/going-dark-datentracking-und-datenzugriff-auf-europaischer-ebene/ [13.08.2024].
https://doi.org/10.60805/p7w9-d268

Kategorien
Akzentfarbe: gelb (Brandl+Lenhard) Autoren: Matthias Brandl & Johannes Lenhard Uncategorized Verantwortungsblog

Der Non-Bias-Mythos

Der Non-Bias-Mythos

Viele Mythen ranken sich um die Künstliche Intelligenz. Einer davon ist der Non-Bias-Mythos: die Vorstellung, dass es vor allem mehr und bessere Daten bräuchte, um Maschinen ein vorurteilsfreies Handeln zu lehren. Doch wir sollten skeptisch sein.

Von Matthias Brandl & Johannes Lenhard | 06.08.2024

Ein Turm aus Datenleitungen
Erstellt mit Adobe Firefly. Prompt: Painting of a tower made of data cables; yellow tones.

Sie müssen ihr Kind zur Betreuung geben, um eine wichtige Konferenz über künstliche Intelligenz zu besuchen. Ausgerechnet jetzt wird die KiTa bestreikt. Wem vertrauen sie ihr Kind an? In einem Blog über AI und Verantwortung liegt die Frage nahe, ob sie einer intelligenten Maschine vertrauen würden. Aber darauf wollen wir (vorerst) nicht hinaus. Wie wäre es stattdessen mit einer menschlichen Professorin für Sozialpädagogik? Also eine echte Expertin, sogar spezialisiert auf die Altersgruppe ihres Kindes und zudem dekoriert mit einem Wissenschaftspreis für ihren Aufsatz zur adäquaten Kurzbetreuung von Kindern. Ein kleines Problem gibt es: Die Professorin lebt in einer Jugendstil-Villa (mitsamt ihrer Bibliothek) und da sie ihren Wohn- und Arbeitsort selten verlässt, müssten sie also das Kind dort hinbringen. Ist aber nicht weit vom Workshop. Würden sie das tun?

Sie zögern? Fügen wir also eine gehörige Dosis an Idealisierung hinzu: die Professorin hat wirklich alles gelesen, kann auf ihr angelesenes Wissen jederzeit zugreifen, ohne je etwas zu verwechseln oder zu vergessen. Sie hat zudem direkten Zugang zu allen relevanten Datenbanken mit sämtlichen Messungen und aktuellen Studienergebnissen. Wenn man so will: eine stets aktualisierte Bibliothek bietet der Professorin eine perfekte Datengrundlage für eine vorurteilslose und verantwortungsvolle Betreuung ihres Kindes. Sie zögern noch immer? Oder sie zögern jetzt erst recht? Seltsam. Oder vielleicht gar nicht seltsam. Unsere Intuition sagt uns, dass kein Buchwissen – und sei es noch so profund und aktuell – ausreicht (und vielleicht nicht einmal nötig ist), um einer Person das eigene Kind anzuvertrauen. 

Wir denken, es gibt einen modernen Mythos, den diese Intuition offenlegt. Nämlich den Glauben, es reiche aus, die Welt gut erfassen und beschreiben zu können, um auch angemessen zu handeln. Drei Aspekte dieses Mythos möchten wir hervorheben.

  • Der Mythos nährt sich aus dem Glauben, dass die Reichhaltigkeit (räumlich und zeitlich) der Welt begrifflich von uns vollständig erfasst werden kann. Bestimmt nicht ohne Hilfe eines wissenschaftlich-technischen Apparates und vielleicht nicht jetzt, aber prinzipiell werden wir in (naher) Zukunft dazu in der Lage sein. Dieser Glaube – oder sollte man eher sagen: diese Phantasie – hält sich auch unter Wissenschaftlern hartnäckig. Der von Laplace erdachte Dämon (Laplace 1814) zeugt davon und erst kürzlich hat Stephen Wolfram (der prominente Kopf hinter der Software Mathematica) diese Idee als Antriebsfeder seines Schaffens beschrieben (Wolfram 2023).
  • Auch suggeriert der Mythos, die Frage des verantwortlichen Handelns könne über die Eigenschaften einer fundierten Beschreibung der Welt beantwortet werden. Dieser langlebige Mythos stellt also einen unmittelbaren Zusammenhang her zwischen (epistemischem) Wissen und (moralisch angemessenem) Handeln. Diese Neigung, Handeln allein aus korrekter Beschreibung abzuleiten, ist philosophisch hartnäckig, gleichzeitig erscheint sie uns auch seltsam. Bilder wie „Bücherwurm“ oder „Elfenbeinturm“ verdeutlichen das und sind in der Regel abwertend konnotiert. Darum das Beispiel der kinderhütenden, sozial isolierten Professorin. Leicht lassen sich weitere Illustrationen beibringen, wie etwa den Schriftgelehrten Peter Kien in Elias Canettis Roman „Die Blendung” (1948), der eine riesige Bibliothek besitzt und seine Kontakte mit der „realen” Welt auf seine Haushälterin verengt (unter deren aktivem Zutun). Sein Bezug allein zu Büchern lässt ihn an der Welt scheitern und Canetti präsentiert in brillanter Mitleidlosigkeit die sich entfaltende Tragödie.
  • Eine philosophische Grundlage dieses Mythos ist eine spezifische Auffassung von Sprache als Beschreibung – meisterhaft seziert in Wittgensteins Philosophischen Untersuchungen (1953: gleich ab §1). Sprache ist in dieser Vorstellung ein Instrument, das hauptsächlich dazu dient, die Welt abzubilden. Sprache so gedacht, würde dann, wenn richtig eingesetzt, ein komplettes Abbild der Welt, ihrer Gegenstände, ihrer Struktur und ihrer Dynamik ermöglichen. Diese Sprachauffassung vernachlässigt jedoch, dass sprechen und schreiben selbst raum-zeitliche Handlungen in der Welt sind. Einige Philosophen und Linguistinnen nennen das den performativen Charakter der Sprache. Sie können sich sicherlich denken, dass die Auffassung, Sprechen sei auch Handeln, die Idee, man könne aus Beschreibungen Handeln ableiten, wesentlich komplizierter macht.

Die oben erwähnte Abbildtheorie von Sprache, die damit verbundene Hoffnung auf eine vollständige Beschreibung und die Annahme eines direkten Zusammenhangs von Beschreiben und Handeln passt zur häufig diskutierten Idee, wir müssten uns darauf konzentrieren, Maschinen ohne eine verfälschende Einseitigkeit (Bias) zu bauen. Weil richtige Beschreibung zu richtigem Handeln führe, ist die Beschreibung ohne Bias so wichtig, ja zentral. Daher könnte man den Mythos auch als Non-Bias Mythos bezeichnen. Um nicht missverstanden zu werden: Viele eingesetzte Algorithmen sind nachweislich vorurteilsgeladen (Benjamin 2019; Zweig 2019). Doch selbst wenn es so etwas wie eine vorurteilslose Beschreibung gäbe (was wir nicht glauben), bleibt für uns die Frage nach einem angemessenen, vertrauenswürdigen Handeln weiterhin ungelöst.

Zwei Beispiele aus der aktuellen Diskussion um KI beleuchten den besagten Mythos.

Ein interessantes Gedankenexperiment stammt von Bender und Koller (2020: 5188). Zwei Merkmale unserer beiden vorigen Beispiele (der kinderhütenden Professorin und dem Schriftgelehrten Kien) werden dabei aufgegriffen, nämlich die Situation sozialer Isolation und die Bibliothek. Mensch K. und Mensch B. leben auf verschiedenen Inseln, verbunden nur über ein Kabel, das sie miteinander telefonieren lässt. Ein extrem intelligenter Oktopus O belauscht diese Gespräche, indem er die elektrischen Signale im Kabel abhört. Im Laufe der Jahre sammelt er so etwas wie eine Bibliothek der Abfolge von (elektrischen) Mustern. Von Neugier oder Sehnsucht getrieben, schmeißt der Oktopus schließlich den Menschen B aus der Leitung und stöpselt sich selbst ein. Die Fragen des Inselbewohners K. werden jetzt unter Rückgriff auf die Muster-Bibliothek des Oktopus (statistisch, generativ) beantwortet.

Zugegeben, das ist eine sehr konstruierte Geschichte. Doch der philosophische Kern (ähnlich wie beim Turing-Test) ist spannend: Kann O so agieren, dass der telefonierende Inselbewohner K. keinen Verdacht schöpft? Der Oktopus O weiß zwar nicht, um was es geht – schließlich beherrscht er weder die Sprache noch kann er irgendetwas vom Leben an Land wissen. Trotzdem kann er aufgrund seiner Musterbibliothek die Konversation erwartungsgemäß führen. Und in Fällen, wo die Musterbibliothek noch nicht ausgereift ist, kann er auf unverdächtige generelle Floskeln zurückgreifen wie „Das hört sich gut an“ oder „Gut gemacht“. Eines Tages aber passiert doch etwas: während des Telefonats merkt der Inselbewohner K., dass ein Bär auf ihn zukommt und er nur einige Stöcke zur Verfügung hat, um sich zu schützen. Panisch fragt er am Telefon, was er jetzt bloß tun solle. Und da, so Bender und Koller, wird ihm der Oktopus nicht angemessen antworten (und helfen) können, da die Situation nicht nur neu ist, sondern der Oktopus sich überhaupt nicht vorstellen kann, was eine solche Situation bedeutet. Folglich bekommt der Inselbewohner jetzt doch Zweifel, ob er es am anderen Ende des Telefons mit B. von der anderen Insel zu tun hat…, wenn er nicht bereits vom Bären aufgefressen wurde.

Da haben Bender und Koller einen Punkt, meinen wir. Die Begründung ist aber vielleicht ein wenig vorschnell. Denn der Zusammenbruch der Kommunikation (in der irrigen Meinung des Inselbewohners) aufgrund der fehlenden Vorstellungskraft, oder des Nicht-in-der-gleichen-Welt-seins des Oktopus wäre vielleicht vermeidbar, wenn nur die Datenbasis viel größer wäre. Wenn der Oktopus nur genügend Instanzen ähnlicher Gespräche hätte (vielleicht auch aus anderen Telefonleitungen), so dass seine Muster-Bibliothek auch über diese Situationen statistisch ausgewertet werden kann. Könnte man dem Oktopus (oder eben der generativen KI) dann nicht zutrauen, nützliche Hinweise zu geben? Diese Annahme wiegt schwer. Sie setzt die Größe der Datenbasis in Beziehung zur Vollständigkeit der Beschreibung. Und diese Vollständigkeit muss mit enthalten, dass keine auf relevante Weise neuen Situationen entstehen. Alles (ungefähr) schon mal da gewesen. Schon oft. Die Annahme meint also, dass eine Beschreibung vorliegt, die so perfekt ist, dass sie nicht nur die Vergangenheit umfasst, sondern auch alles, was in der Zukunft geschehen kann. Wir sehen hier, wie gewaltig diese Annahme ist: Wenn die Beschreibung nur gut genug ist, kann auch die Zukunft nichts Neues bringen.

Letztendlich geht es bei den angezapften Telefonaten, ob überlebenswichtig oder nicht, für den Oktopus O. darum, Telefonsignale aus Telefonsignalen zu erschließen, die für Menschen wie Sprechhandlungen wirken. Wir Menschen verfügen über andere Methoden um die angemessenen Sprechhandlungen zu erschließen, nämlich aus Handlungen und Praxis. Anders formuliert: Wir lernen sprechen, äußern Hilfe oder formulieren Tipps, jedoch nicht auf der Grundlage von Tausenden von Telefonaten – auch wenn das heutzutage anders scheint. Vielmehr lernen wir Sprech(handeln) in der Welt, als Praxis, als Tätigsein, Erleben und durch zwischenmenschliche Handlungen. Dieser Weg ist generischer, sozusagen datenärmer. Wir bringen auf diese Weise die Universalität der Sprache in Anschlag, ohne über eine vollständige Beschreibung zu verfügen. Das ist auch ein Kernpunkt in Wittgensteins Analysen: Wir haben keine umfängliche, gar perfekte Beschreibung unseres Sprechhandelns, werden diese auch nie haben, sondern haben eine Vielzahl an Sprachspielen und passenden Situationen auf Lager. Der Oktopus kennt diese hingegen nicht und kann sie auch aus den Telefonaten nicht ableiten, weil er unsere Praxis nicht teilt.

Eine zweite Illustration des Mythos, dass gute Beschreibungen quasi automatisch angemessene Handlungen hervorbrächten, stammt von Brian Cantwell Smith (2019). Sein Beispiel hat uns überhaupt erst auf die Frage der Kinderbetreuung vom Anfang gebracht hat. Er schildert die Szene, in der Eltern ausgehen und ihre Kinder einem Babysitter anvertrauen. Für Smith liegt auf der Hand, dass die Eltern ihr Vertrauen nicht auf den Regeln gründen, die sie dem Babysitter geben. Wieso nicht? Selbst bei perfekter Befolgung aller vorgeschriebenen Regeln wollen Eltern bestimmt nicht hören: „Aber ich habe doch alle Regeln befolgt.” Vielmehr wollen sie, dass der Babysitter sich um die Kinder kümmert, was auch immer in der Welt oder der Wohnung passiert. Da kann es sein, dass es auch einmal sinnvoll ist, nicht den Regeln zu folgen und/oder initiativ zu werden, weil eine ungewöhnliche Situation dies für den Schutz des Kindes erfordert. Korrektheit der Regelbefolgung ist eben nicht gleich Verantwortung für das Kind. Zugegeben, wenn die Regeln alle Situationen vollständig erfassen, dann kommt es nachher in den Handlungen auf das Gleiche heraus. Aber eben nur wenn.

In der Babysitter Geschichte tritt noch eine Besonderheit auf, insofern es um Regeln geht. Es ist aus der KI Geschichte bekannt, dass regelbasierte KI nur beschränkte Erfolge hatte, also den Einwand von Smith bestätigt. Der aktuelle Boom der KI aber beruht vor allem auf dem Einsatz von künstlichen neuronalen Netzen. Diese benötigen keine explizit formulierten Regeln und lernen statistische Muster aus sehr vielen Daten (wie im Oktopus-Beispiel). Und dass Maschinen auch ohne explizite grammatische Regeln Essays formulieren können (Large Language Models wie ChatGPT), ist durchaus verblüffend. Die Vollständigkeitsannahme und der Mythos einer perfekten Beschreibung bleiben aber, d.h. die Daten müssen die Welt so reichhaltig abdecken, dass die statistischen Muster hinreichen. Diese Annahme ist in der Tat unbehaglich und dieses Unbehagen wiederum ist ein Grund dafür, skeptisch zu sein gegenüber der kinderbetreuenden isolierten Expertin im Elfenbeinturm. Und damit erst recht einer ausschließlich mit Schriftzeichen gefütterten digitalen Maschine.

Wir glauben, dass der hier umschriebene Mythos zwei Motive miteinander verbindet. Das erste ist eine gewisse Hybris, die sich im vorbehaltlosen Glauben an eine vollständige Beschreibung (oder Modell) äußert. Oder genauer gesagt: dem Glauben an die Möglichkeit einer vollständigen Beschreibung und an deren Macht, wenn erst genügend Daten (natürlich ohne Bias) vorhanden sind. Wir stehen diesem Motiv mit Vorsicht und Skepsis gegenüber. Diese Skepsis speist sich nicht nur aus Gedankenexperimenten, sondern auch aus vielen bekannten Fallbeispielen, wie dem in der Technikgeschichte berühmten ersten automatisierten (Luft-)Frühwarnsystem, das fälschlich einen Großangriff auf die USA gemeldet hat. Das System lag falsch, weil besondere atmosphärische Bedingungen den Mond auf scheinbar ungewöhnliche Weise am Horizont aufgehen ließen. Diese Bedingungen waren im Modell nicht vorgesehen und es hatte einen Angriff gemeldet (siehe Smith 1985). Doch natürlich haben hier Apostel der KI einen mythischen Einwand dazu: „Ja, prinzipiell ist aber eine vollständige Beschreibung möglich“.

Dieses Hybris-Motiv ist so neu nicht. Schon bei der Geschichte um den Turmbau zu Babel brach die Kommunikation zusammen wegen vieler verschiedener Sprachen. Wenn es nur um die Beschreibung der Materialien, der Pläne und des Baus gegangen wäre, hätte der Bau ruhig weitergehen können.

Das zweite Motiv, ist gleichzeitig der Grund, weshalb wir diesen Mythos auch als Non-Bias-Mythos bezeichnen. Der Mythos lädt ein zum Opportunismus auf demjenigen Geschäftsgebiet, das einhergeht mit der heutigen digitalen Technologie: der fleißigen Datenakkumulation. Technisch gesehen benötigen die gängigen Werkzeuge (tiefe Netzwerke) der AI eine riesige Menge an Daten, um eine unüberschaubare Menge an Parametern einzustellen. Deshalb ist das Verhalten der trainierten (angelernten) Netze in weiten Teilen nicht erklärbar. Da kommt eine philosophische Auffassung gerade recht, die sehr viele Daten fordert. Auch wenn einzelne Daten praktisch gar nicht mehr kuratiert oder betrachtet werden, passt der Non-Bias-Mythos trotzdem gut, weil der Bias auf Datenwolken (im Durchschnitt usw.) definiert ist. Krude gesagt: mehr Daten, mehr „fair“.

Wie gesagt: Das berührt nicht unsere Überzeugung, dass im Einsatz heutiger Computermodelle gängige Vorurteile bestätigt oder gar vorangetrieben werden, sondern den Mythos, der nahelegt, durch mehr Daten könne man diesen Bias beseitigen. Wir sollten also skeptisch sein, wenn behauptet wird, die Maschine werde es letztlich richten, weil mehr Daten zu immer besseren Beschreibungen führen; Beschreibungen, die quasi automatisch zu angemessenen und fairen Entscheidungen abgeleitet/umgemünzt werden können. Unsere Überzeugung (die wir noch bei anderer Gelegenheit ausführen werden) lautet dagegen: Eine Vorstellung davon zu haben, was Verantwortung und Autonomie bedeuten, und entsprechendes Handeln in sozialen Praktiken bleiben unsere vornehmsten Werkzeuge, um mit Unvollständigkeit und Begrenztheit umzugehen.

Bender, Emily M./Koller, Alexander (2020): Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, S. 5185-5198.

Benjamin, Ruha (2019): Race After Technology: Abolitionist Tools for the New Jim Code.: Polity.

Canetti, Elias (1948): Die Blendung. Roman. München: Weismann.

Laplace, Pierre Simon (1814): Essai philosophique sur les probabilités.

Smith, Brian Cantwell (1985): The limits of correctness. In: ACM SIGCAS Computers and Society, 14,15(1,2,3,4), S. 18-26.

Smith, Brian Cantwell (2019): The Promise of Artificial Intelligence: Reckoning and Judgment. Cambridge, MA: The MIT Press.

Wittgenstein, Ludwig ([1953] 1984): Philosophische Untersuchungen. Frankfurt am Main: Suhrkamp.

Wolfram, Stephen (2023): What Is ChatGPT Doing. and Why Does It Work? In: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ [02.07.2023].

Zweig, Katharina A. (2019): Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne.

Brandl, Matthias & Johannes Lenhard: Der Non-Bias-Mythos. In: Verantwortungsblog. https://zevedi.de/der-non-bias-mythos/ [06.08.2024]. https://doi.org/10.60805/wh2f-7g22

Kategorien
Uncategorized

1.9. Der digitale Euro und CBDCs weltweit: Bahamas und Nigeria

Cover der Folge 1.9.

Über 90 % aller Staaten der Welt diskutieren die Einführung einer CBDC. Und fast die Hälfte arbeitet vergleichsweise konkret daran: Über 80 Staaten befinden sich in einer Entwicklungs-, Pilot- oder Launchphase. Allerdings werden in der medialen Diskussion des digitalen Euro Projekte anderer Länder, digitales Zentralbankgeld (CBDC) herauszugeben, eher selten thematisiert. Oft ist wenig bekannt. Konkret eingeführt haben eine CBDC bisher sehr wenige. Im Oktober 2020 wurde der Sand Dollar der Bahamas offiziell gelauncht, im Oktober 2021 der nigerianische eNaira.

Diesen beiden widmet sich das Digitalgelddickicht in der ersten von zwei Folgen zu außereuropäischen CBDC-Projekten. Was hat einen kleinen Inselstaat in der Karibik und das bevölkerungsreichste Land Afrikas dazu veranlasst, eine CBDC einzuführen? Was sind ihre Beweggründe und wie ihre bisherigen Erfahrungen? Was vermögen CBDCs in Ländern zu leisten, deren Bevölkerung nur bedingt Zugang zu Banken hat und viele keine Bankkonto haben? Werden Sand Dollar und eNaira bei Bürgerinnen und Bürgern oder im Handel gut angenommen? Welche Probleme gibt es? Was wurde vor ihrer Einführung diskutiert, verhandelt und gesetzlich geregelt?

Digitalgelddickicht Staffel Digitaler Euro – Folge 9 | 5. August 2024

Weiterführende Informationen und Quellen

Internationaler Überblick

■ Atlantic Council Central Bank Digital Currency Tracker: https://www.atlanticcouncil.org/cbdctracker/

■ CBDC Tracker: https://cbdctracker.org/

■ Bank for International Settlements (BIS) et al: Central bank digital currencies: foundational principles and core features, 2020.

■ MIT Digital Currency Initiative et al: CBDC – Expanding Financial Inclusion or Deepening the Divide. Exploring Design Choices that Could Make a Difference, 2023.

■ International Working Group on Data Protection in Technology (Berlin Group): Working Paper on Central Bank Digital Currency – CBDC, 13. Juni 2024.

Bahamas / Sand Dollar

Video

■ Tagesschau: Die Bahamas nach Hurrikan Dorian (Youtube), 13. September 2019, (aufgerufen am 11. Juli 2024).

■ Internationaler Währungsfonds: The Bahamas: The World’s First Digital Currency, 1. März 2021.

■ Rolle, John ( Gouverneur der Central Bank of The Bahamas): Grußwort, Konferenz Towards a legislative framework for the digital Euro, 7. November 2022, Brüssel, ca. 13 Uhr.

■ Porter, Shaqueno (Central Bank of The Bahamas): An Update on the Sand Dollar (Youtube) Digital Euro Association Conference (DEC24), Frankfurt/Main, 29. Februar 2024.

Audio

Digital Euro Podcast, Episode 52:  Sand Dollar Chief Architect Shares Insights into Bahama’s CBDC, Interview mit U-Zyn Chua, August 2023.

Text

■ Central Bank of The Bahamas: Legal Framework -Onlinedokumentation.

■ Central Bank of The Bahamas: Central Bank of The Bahamas Act, 2020.

■ Central Bank of The Bahamas: Bahamian Dollar Digital Currency Regulations, 2021.

■ Hall, Ian: CBDC-linked Prepaid Card Debuts as Bahamas Central Bank Consults on Regulation, Global Government Fintech, 23. Februar 2021.

■ Barathan, Vipin: Operationalizing the First CBDC – After Ist First Year Island Pay CEO Richard Douglas Shares his Experience, Forbes, 28. November 2021, Forbes.

■ Hall, Ian: Bahamas Central Bank shares CBDC Lessons from Sand Dollars‘ First Two Years, Global Government Fintech, 9. November 2022.

■ Haans, Jeroen / van der Linden, Martin Jeroen et al: Lessons from the first implemented CBDC: the Sand Dollar, Digital Euro Association Blog, 23. Juni 2023, https://blog.digital-euro-association.de/lessons-from-the-sand-dollar.

■ Branch, Sharon, Ward, Linsey and Wright, Allan: The Evolution of SandDollar, in: Intereconomics. Review of European Economic Policy, Jg. 58 (2023), Nr. 4, S. 178 – 184.

■ Rees, Nicholas: Promoting Financial Inclusion in the Carribean. A Broken ATM in the Bahamas Reveals the Need for Digital Banking Solutions Across the Region, NextBillion, 21. Mai 2024.

■ Knobloch, Andreas: Bahamas will Banken zur Nutzung von digitalem Zentralbankgeld verpflichten, Heise online, 1.7.2024.

Nigeria / eNaira

Video

■ Al Jazeera English: Nigeria becomes first African nation to roll out digital currency (Youtube), 26. Oktober 2021.

■ Fosudo, Fisayo: The problems with eNaira ( Youtube), 15. Dezember 2021.

■ Coindesk: Nigeria Changing its eNaira Model to Promote Use of its CBDC (Youtube), 27. Juli 2023.

■ Digivation Network TV: e-Naira Policy – Are Nigerians using the E-Naira Wallet (Youtube), 20. Februar 2024.

■ Fosudo, Fisayo: Talking Tech with US Secretary of State Anthony Blinken (Youtube), 30. Januar 2024.

Audio

■ Chainalysis‘ Public Key Podcast, Episode 37: Powering the Digital Asset Transformation in Nigeria and Beyond, Interview mit Michael Adeyeri (CEO, Busha) und Moyo Sodipo (CPO, Busha), 4. Januar 2023.

Text

■ Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: Politische Situation. Defizite bei Demokratie und Rechtsstaatlichkeit, aufgerufen am 4. August 2024.

■ Idris, Abubakar: Africa’s First e-Currency is off to a Shaky Start, Rest of World, 19. November 2021.

■ Ree, Jookyung: Nigeria’s eNaira – One year after, International Monetary Fund, 2022.

■ Lawal, Temitoyo: Nigeria’s Digital Currency Can’t Compete with Crypto, Rest of World, 17. Mai 2023.

■ Ozili, Peterson: Redesigning the eNaira Central Bank Digital Currency (CBDC) for Payments and Macroeconomic effectiveness, MPRA Paper No. 118807, 2023.

Chainalysis: Cryptocurrency Penetrates Key Markets in Sub-Saharan Africa as an Inflation Mitigation and Trading Vehicle, Chainalysis Blog, 19. September 2023.

Dzirutwe, Macdonald: Nigeria plans additional rules to combat illegal trading in digital assets, Reuters, 7. Mai 2024.

Akintaro, Samson: Crypto P2P – CBN’s Policies Opened Doors for Manipulators, Nairametrics, 9. Mai 2024.

Omatubora, Adekemi: Same Naira, More Possibilities! Assessing the Legal Status of the eNaira and Its Potential for Privacy and Inclusion, Journal of African Law, Jg. 68, Nr. 2, Juni 2024, S. 245-262.

Digitaler Euro

Deutsche Bundesbank: Stand der Dinge – Digitaler Euro (aufgerufen am 4. August 2024)

Alle Folgen des Digitalgelddickichts

Alle ZEVEDI-Podcasts

Creative Commons Lizenzvertrag

Kategorien
Uncategorized

Maximilian Henning

Mercator-Journalist in Residence im Juni/Juli 2024

Ein Portrait von Maximilian Henning

Maximilian Henning ist freier EU-Korrespondent zu Digitalpolitik.

Er schreibt für deutsche und europäische Medien über digitale Regulierung, Infrastruktur und Überwachung. Regelmäßig berichtet er dabei für netzpolitik.org und den Tagesspiegel Background. Seit 2023 lebt er in Brüssel und beobachtet die Entwicklungen in der Europäischen Union aus der Nähe, ob im Parlament, dem Rat oder der Kommission.

Vorhaben

Bei ZEVEDI beschäftigt sich Maximilian mit dem Digitalen Euro. Er will in einer Artikelserie untersuchen, wer was von diesem Großprojekt will. Was plant die EU, was die EZB? Welche Forderungen tragen Banken oder Zahlungsdienstleister vor, wie stehen die verschiedenen Mitgliedstaaten der EU zum Digitalen Euro? So wie das Projekt an sich bisher größtenteils unter dem Radar fliegt, ist auch die Verteilung der Interessen bisher noch nicht weit bekannt.

Der Aufenthalt bei ZEVEDI – Impulse und Effekte

Wer alles weiß, wenn du online bezahlst, netzpolitik.org, 2. Juli 2024.

Digitaler Euro: Was soll mir das bringen? , netzpolitik.org, 3. Juli 2024.

Wieviel Datenschutz darf’s denn sein?, netzpolitik.org, 4. Juli 2024.

Wie Konservative den Digitalen Euro verzögern, netzpolitik.org, 17. Juli 2024.

Online sicher zahlen mit dem Digitalen Euro?, Youtube-Aufzeichnung, Vortrag, TINCON @Reeperbahnfestival, Hamburg, 19. September 2024.

Kategorien
Autor: Konstantin Schönfelder eFin-Blog Farbe: gelb Uncategorized

„Eigenes Risiko als Gefahr für andere“

„Eigenes Risiko als Gefahr für andere“ – ZEVEDI Citizen Lecture mit Joseph Vogl

Ein Beitrag von Konstantin Schönfelder

11. Juni 2024

Eine „Bestandsaufnahme“ nennt der nun emeritierte Professor Joseph Vogl, von Haus aus Literaturwissenschaftler, seine Analysen über den Finanzmarkt, die er seit 2010 anstrengt, dem Erscheinungsjahr vom „heimlichen Bestseller“1 Das Gespenst des Kapitals. Seitdem ließ er mit Souveränitätseffekt (2015) und zuletzt mit Kapital und Ressentiment (2021) zwei weitere monographische und vieldiskutierte Teile einer düsteren Finanzwirtschaftssaga folgen, die wohl auch nach seiner Emeritierung noch fortgesetzt werden wird. Doch es ist „nur“ eine „Bestandsaufnahme“, wie sich Vogl an jenem Vortragsabend in der Technischen Universität Darmstadt bescheidet, als er im Rahmen der Citizen Lecture „Finanzen, Staat, Digitalisierung & Demokratie“ seinen Beitrag zu „Souveränitätsproblemen im Finanzmarktkapitalismus“ ausführt.2 Vogl entwirft keine spekulative Dystopie, keine (etwa marxistische) Parteinahme, dafür interessiere er sich derzeit nicht sonderlich, sondern eine historisch geleitete Beschreibung von der Entstehung, Expansion und Ermächtigung von Finanzmärkten, die in den letzten Jahrzehnten vor allem von Technologien des Digitalen gepusht wurden, um schließlich in etwas, was Vogl „Plattformkapitalismus“ nennt, zu münden. Die aber zuweilen dystopische Züge annimmt. Aber gehen wir es doch einmal schrittweise durch.

Vogl diagnostiziert der Digitalökonomie, der Finanzindustrie, dem Informationskapitalismus – für ihn alles Synonyme – eine diabolische Lüge im Grunde ihres Wesens. Sie gibt vor, etwas zu sein, was sie nicht ist. Denn in Wahrheit ist, laut Vogl, die Finanzindustrie eine machtvolle „vierte Gewalt“, die er auch die monetative Gewalt nennt. In seinem jüngsten Buch hat er dieser ein ganzes Kapitel gewidmet. Diese monetative Gewalt liegt in den unsichtbaren Händen der Finanzregime, die „mehr und mehr staatlichen Ehrgeiz entwickeln“, ohne dabei aber rechtlich gebunden zu sein, wie es andere staatliche Akteure sind. Bei diesen Finanzregimen denkt Vogl vor allem an Plattformen mit „transgouvernementaler Handlungsmacht”3, also an die milliardenschweren Digitalkonzerne Google, Meta und Co., die es in ausgeklügelten Systemen geschafft haben, ihre gewinnbringenden Geschäftsmodelle exponentiell auszuweiten und Haftung in entgegengesetzter Richtung abzustreifen.

Möglich gemacht hat es unter anderem die bis ins Unheimliche gesteigerte Geschwindigkeit der Übertragung von Information. Schon die Zeitung, so leitet es Vogl her, war ursprünglich ein Medium zur Übertragung von Finanznachrichten. Und jene Kaufmänner mit diesem Informationsvorsprung hatten einen Marktvorteil, den sie kapitalisieren konnten. Der gamechanger dahingehend kam durch die Einführung des World Wide Web in den 1990er-Jahren, das Information instantan und massenhaft verfügbar machte. Auswüchse der Finanzindustrie, wie etwa das high frequency trading, sind nur eine logische Folge dieser technologischen Disruption. Die Frage, die sich im Nachhinein damit aufgetan hat, ist: Wie kann man diese nicht rivalisierenden Güter zu Waren machen?

Aus Informationen Waren machen

Mit nicht rivalisierenden Gütern sind jene gemeint, die durch ihren Verbrauch nicht verknappt werden. Benzin wird durch den Verbrauch verknappt, zum Beispiel. Aber Information und Kommunikation wird im Einsatz nur weiter vervielfältigt. Die Antwort, die die Plattformunternehmen darauf gefunden haben, ist, die Daten wie Rohstoffe zu behandeln:

Sie wissen, dass man mit jeder Googlesuche, jedem Tweet oder jeder Bewegung auf sozialen Märkten, Datenrohstoffe produziert. Rohstoffe, die unter der Bedingung stehen, dass man selbst über sie nicht verfügen kann, also dass man digital enteignet wird. Das ist der enorme Gewinn dieser Unternehmen.

Enteignet werden die Nutzenden also dadurch, dass sie bestimmte niedrigschwellige Informationsangebote wahrnehmen – Karten, Datenbanken, Kommunikationsdienste -, aber damit im Gegenzug all ihre angesammelten Daten irgendwo und außer Sichtweite gespeichert, verarbeitet und verkauft werden. Lukrativ ist dieses Geschäftsmodell zunehmend deshalb, da die Datenpakete im Web 2.0 bereits gewinnbringend verbandelt sind. So heißt es in Kapital und Ressentiment:

Unter den technischen Bedingungen des Web 2.0 und der Plattformkommunikationen sollten vielmehr alle Daten, die durch die verfolgbaren Online-Tätigkeiten der gesamten Netzpopulation hervorgebracht werden, als immer schon extrahierte Daten, als Metadaten und somit relationale Objekte begriffen werden, in denen Daten bereits mit Daten korreliert und kollationiert sind und sich zur weiteren Verarbeitung anbieten.4

Nun liegt es nahe, dass die Internetriesen mit dieser selbstwachsenden Saat nicht nur Schnittstellen oder Medien sein wollen, die sich mit Vermittler- und Werbeeinnahmen begnügen. Es geht vielmehr darum, diesen Prozess beschreibt Vogl in der Vorlesung sehr anschaulich, dass sie beginnen, öffentliche Aufgaben zu übernehmen, Infrastrukturen bilden, Krankenhausdienste anbieten etc. Und während die Unternehmen das tun, lancieren sie die These, „und das ist neu […], dass der Kapitalismus, der wirkliche Kapitalismus, keinen Wettbewerb, sondern Monopolisten benötigt.” Diese quasi-staatlichen Akteure mit dem Wunsch, Monopol sein zu dürfen, sind so auch ins Finanzgeschäft vorgedrungen, denn sie haben ja alles, was sie dafür brauchen. Angebote von Bezahldiensten zum Beispiel, neben Investmentfonds und Finanzierungsinstrumenten, gehörten schon seit Längerem zu den „wesentlichen Treibsetzen” amerikanischer und chinesischer Plattformunternehmen. „Sie bieten den Vorzug, dass sie die verlässlichsten Daten zur gezielten Platzierung von Produkten und Werbung liefern und dass sich mit ihnen überdies der dezentrale internationale Zahlungsverkehr zentral überwachen lässt.“ Schon PayPal, so Vogl, sei mit dem Anspruch angetreten, eine Art Internetwährung zu schaffen, um den Dollar im internationalen Zahlungsverkehr zu ersetzen und staatliche Währungsmonopole zu unterlaufen. Und zuletzt hatte Meta versucht, mit Diem (ehemals Libra) eine eigenständige Internetwährung zu gründen, oder wie es Vogl sagt, „private Kontrolle mit para-staatlicher Ausweitung der Konzernmacht zu kombinieren“ – ein Vorhaben, das erst am Einspruch der Federal Reserve Bank gescheitert ist.

Entbunden vom Recht?

Nun scheint an diesem Beispiel ebenso deutlich zu werden, dass diese Plattformakteure nicht gänzlich rechtlich entbunden sind, aber dass sie ein sonderbarer Rechtsstatus kennzeichnet. Vogl rekonstruiert den Moment des Jahres 1996, als im Telecommunications Act, zur Beförderung des Internets, festgelegt wurde, dass die Plattformen für die Daten, die sie zirkulieren, nicht verantwortlich sind. Dieser Ausnahmefall habe uns einen „neuen Kapitalismus beschert“, denn die „Unternehmen machen mit Produkten ihre Geschäfte, die tief in das Soziale, in die Öffentlichkeit hineinwirken, für die diese Unternehmen aber nicht verantwortlich sind.“ Oder kurz: „Nutzer erzeugen, was Konzerne verkaufen.“5

Dies alles berührt das „Souveränitätsproblem des Finanzmarktkapitalismus“ ganz wesentlich. Kurz vor Schluss definiert Vogl schließlich den titelgebenden Begriff seines Vortrags so: „Souverän ist, wer eigene Risiken in Gefahren für andere zu verwandeln vermag und sich als Gläubiger letzter Instanz platziert.“ Sollten mit den Gläubigern letzter Instanz die Plattformunternehmen gemeint sein, lohnt es sich, im subversiven Potential dieses Satzes zu lesen. Von der anderen Seite des Plattformunternehmens aus gesehen, den Nutzenden, ist die „Gefahr für andere“, also ebenso die Gefahr für einen selbst, womöglich ein Handlungsspielraum. Die Idee einer sozialen Vernetzung, auch die Vorstellung einer direkten oder indirekten finanziellen Teilhabe an dieser wirtschaftlichen superpower, muss ja keine sonderbar einerseits privatisierte und andrerseits quasi-staatlich-monopolistische Angelegenheit sein, wie es Vogl mit einer für ihn typischen Wortneuschöpfung „Dämonokratie“ ins Wort setzt. Die EU, so bringt Vogl auf Nachfrage das Referat noch einmal auf eine andere Note, versuche ja, diese Entwicklung der Finanzmärkte einzudämmen. Der Digital Markets Act sei etwa ein außergewöhnlich gutes Beispiel. Es gäbe sicher noch andere. Nun wäre das dann allerdings ein anderes Kapitel, vielleicht ja für ein weiteres Buch, und damit die Fortsetzung der Finanzsaga, die sich vor den kritischen Augen von Joseph Vogl und unseren weiter abspielt – mit offenem Ausgang.


  1. Dietmar Hawranek et al.: „Märkte außer Kontrolle“. In: Der Spiegel, 22.08.2011. ↩︎
  2. Joseph Vogl: „Souveränitätsprobleme im Finanzmarktkapitalismus“. Citizen Lecture Finanzen, Staat, Digitalisierung & Demokratie, 27.05.2024, https://tu-darmstadt.cloud.panopto.eu/Panopto/Pages/Viewer.aspx?id=3df89c29-7164-460b-8aed-b17d0103dc33.  Alle weiteren, nicht ausgewiesenen Zitate oder Belege sind als Wortlaute der Vorlesung entnommen. ↩︎
  3. Joseph Vogl: Kapital und Ressentiment, C.H. Beck: München 2021, S. 60. ↩︎
  4. Ebd., S. 80. ↩︎
  5. Ebd. ↩︎

RSS-Feed RSS-Feed zum eFin-Blog abonnieren

Zurück zur Startseite des Blogs

Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors

Kategorien
Akzentfarbe: hellblau Autor: Georg Fischer Uncategorized Verantwortungsblog

Verantwortung im Zeitalter digitaler Kopien

Verantwortung im Zeitalter digitaler Kopien

Als Walter Benjamin seinen nun berühmt gewordenen Aufsatz zur technischen Reproduzierbarkeit veröffentlichte, konnte er unmöglich vor Augen gehabt haben, wie konkret sich sein Anliegen in unserer Zeit ausdifferenziert hat. Technische Reproduzierbarkeit bedeutet zunächst — eine Entfernung eines Objekts von seinem Ursprung, dem Hier und Jetzt, so nannte es Benjamin seinerzeit schon. Diese Entfernung wirkt durch diverse entkoppelnde Prozesse auf den Ebenen der Repräsentation, Replikation und Referenzierung. Dabei bilden sich neue Formen von Verantwortlichkeiten, besonders in den informellen Zonen des digitalen Raumes. Eine Analyse.

Von Georg Fischer | 28.05.2024

Ein Stabel von Papieren.
Erstellt mit Adobe Firefly. Prompt: „illustration of a pile of digital copies, light blue background, style: mechanistic“

Als Walter Benjamin in den 1930er Jahren seinen Aufsatz Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit verfasste, hatte er vor allem die Fotografie und den Film als Medientechnologien vor Augen. Von digitalen Kopien, Mashups, Memes und Remixes, aber auch von softwaregestützter Datenanalyse, large-language models sowie weltumspannender Vernetzung durch das Internet konnte er zu seiner Zeit nichts wissen. Benjamins Beobachtungen sind berühmt geworden und haben eine Vielzahl an medienwissenschaftlichen Ansätzen nach sich gezogen, in der Mehrheit vor allem mit den Fragen nach Aura und Originalität befasst. Bemerkenswerterweise hat es jedoch Benjamin versäumt, eine präzise Definition von dem zu geben, was er technische Reproduzierbarkeit nannte.

Im Anschluss an Benjamin möchte ich das Stichwort der technischen Reproduzierbarkeit analytisch zergliedern und damit für eine empirisch orientierte und gleichermaßen theoretisch fundierte Erforschung von Verantwortung in der digitalen Transformation aufbereiten. Technische Reproduzierbarkeit lässt sich verstehen als gesellschaftliche Verfügbarkeit solcher Technologien, mit denen sich Kopien anfertigen, verbreiten und bearbeiten lassen. Natürlich ist das Kunstwerk, wie Benjamin auch selbst und gleich zu Beginn seines Aufsatzes schreibt, immer schon reproduzierbar gewesen: Münzen etwa, über handwerkliche Methoden des Gießens oder Prägens. In der Moderne ändern sich aber Charakter und Qualität der Reproduzierbarkeit erheblich. Denn ihr Technisierungsgrad erhöht sich maßgeblich und in der Folge auch die Möglichkeit zur Automatisierung.

Beispielsweise ermöglichte die Erfindung der Fotografie im 19. Jahrhundert, Szenen relativ schnell medial festzuhalten und das in einer Abbildungstreue, die Zeichnungen oder ähnliche manuelle Verfahren nicht zuließen. Auch die Aufnahme und Speicherung von Klängen, die sich ab dem Ende des 19. Jahrhunderts etablierten, stellten eine Steigerung technischer Reproduzierbarkeit dar: Aufgenommene Musikstücke, Klänge, Geräusche und andere Töne konnten zuerst in Form von Wachswalzen, später auch mit Schallplatten oder Tonbändern gespeichert, mitgenommen und an anderer Stelle wieder abgespielt werden.

Darüber hinaus wurden die – als Kopien aufgezeichneten – originalen Schall- und visuellen Ereignisse für weitere Bearbeitung geöffnet, etwa durch Schneiden und Zusammenführen verschiedener Kopien. Das eröffnete die Möglichkeit, Kopien ausschnittsweise und in re-arrangierter Form zueinander in Beziehung zu setzen. Schließlich sind Reproduktionsverfahren zu nennen, die die gespeicherten Inhalte erneut auf Trägermedien bannen konnten, um Vervielfältigung zu erzielen. Der weitaus früher eingeführte Buchdruck dürfte dafür das augenscheinlichste Beispiel sein, da er es über das Lettern-Verfahren ermöglichte, Vervielfältigungen von Texten in ähnlicher Qualität in Serie zu produzieren. Mit dem Aufkommen digitaler Aufnahme-, Speicher- und Verbreitungsverfahren steigerte sich die technische Reproduzierbarkeit etwa seit der Jahrtausendwende noch einmal erheblich.

Ich schlage folgende Gedankenfigur vor, die die medialen Verfahren technischer Reproduzierbarkeit in drei analytischen Ebenen differenziert und damit auch die wechselseitigen Steigerungstendenzen erfassen kann. Die Unterteilung ist grundsätzlich auf handwerkliche, mechanische, industrielle, digitale und andere denkbare Formen technischer Reproduzierbarkeit anwendbar. Im Digitalen zeigen sich wegen der vielfältigen technischen Möglichkeiten die einzelnen Ebenen besonders deutlich.

Technische Reproduzierbarkeit wirkt – wie heute besonders gut zu erkennen ist – auf drei verschiedenen Ebenen: als Repräsentation von Wirklichkeit (1), als Replikation von Objekten (2) und als Referenz zwischen Kontexten (3).

(1) Zunächst zur Repräsentation: Hier ist das tatsächlich in seiner Funktion dokumentarische Aufnehmen und Festhalten von Wirklichkeit gemeint. Per Foto-, Video- oder Audioaufnahme lässt sich beispielsweise eine Szene festhalten, in der ein Raubvogel seine Beute ergreift. Besonders in visuell festgehaltener Form ist das eine reizvolle Szene, die in zahlreichen filmischen Naturdokumentationen vorkommt: zum Beispiel mit Teleobjektiv aus der Ferne herangezoomt und in Zeitlupe wieder abgespielt. Auch viele journalistische Formen des Abbildens zielen darauf, zu zeigen was (wie) war. Die Möglichkeit, ein Ereignis aus der Wirklichkeit – als Abbildung oder auf auditiver Ebene als Tonaufnahme – auf ein Medium zu bannen, in bestimmter Qualität zu speichern und zu einem späteren Zeitpunkt wieder abzurufen, bezeichne ich als Repräsentation.

(2) Eine gebannte Repräsentation lässt sich replizieren, also vervielfältigen und zwar je nach Speichertechnologie mit oder ohne Qualitätsverlusten. Ist die Repräsentation als digitale Datei gespeichert, kann diese in exakt gleicher Qualität auf einen anderen Datenträger übertragen werden (z.B. von einem USB-Stick auf eine Festplatte oder einen Server). Bei einem solchen Replikationsverfahren bleibt die Ausgangsqualität der Repräsentation bestehen. Lädt man das Video allerdings bei YouTube oder ein Foto bei Instagram hoch, kann sich die Qualität der Repräsentation verändern, da (abhängig von der technischen Umgebung) Kompressionsverfahren zur Minderung der Dateigröße zum Einsatz kommen.

(3) Auf der Ebene der Referentialität stehen Praktiken im Vordergrund, die neue Bezüge zur Kopie entstehen lassen – zumeist, indem man diese auch materiell nochmals anreichert. Nehmen wir wieder die Repräsentation mit dem Raubvogel: Sie könnte zum Beispiel mit einer neuen Tonspur unterlegt werden, die die Naturszene ins Lächerliche zieht, humorvoll kontextualisiert oder mit einer Chopin-Melodie in Moll zu einem Trauerspiel verwandelt. Die Szene könnte auch als Remix, Collage oder durch Montagetechniken, also mit Replikationsverfahren, in ein bestimmtes Licht gerückt werden, etwa indem ein Ausschnitt als Loop wiederholt, rückwärts abgespielt oder zerschnitten und rearrangiert wird. Auch eine einfache Betitelung kann die Naturszene mit neuen Bezügen, Bedeutungen, Kontexten etc. – kurz: mit neuen Referenzen – versehen.

Allen drei Ebenen ist gemeinsam, dass sich in ihnen – auf Grundlage von Verfahren technischer Reproduzierbarkeit – Entfernungen zum Original ereignen: die Repräsentation bildet das Objekt A als A¹ ab; die Replikation vervielfacht das Einzelobjekt B hin zu B¹, B², B³ usw.; und die Referenz schafft neue Bedeutungskontexte, indem ein Objekt C neue Bezüge zu C¹ oder C² usw. erhält. Wer sich dafür interessiert, könnte beispielsweise das „Wandern“ einer Kopie durch den (digitalen) Raum anhand von Reproduktionsverfahren näher untersuchen, um die stufenweise(n) Entfernung(en) zwischen Original und Reproduktionen zu beleuchten. Wichtig ist auch der Hinweis, dass mit jedem qualitativ bedeutsamen Schub technischer Reproduzierbarkeit typischerweise Diskurse entstehen, etwa um Originalität, um die Grenzen des Werk- oder Veröffentlichungsbegriffs, um Autor- bzw. Urheberschaft, um die Funktionalität bestehender ökonomischer Verwertungsgefüge sowie um die Zulässigkeit, Kontrollierbarkeit und Verantwortungszuordnung bei der Erstellung von Kopien.

Was lässt sich aus der analytischen Dreigliederung für das Verständnis von Verantwortung im Digitalen lernen? Ich versuche, meine Antwort anhand mehrerer aussagekräftiger Fälle und Phänomene zu formulieren, die den skizzierten drei Ebenen Rechnung tragen und gleichsam Benjamin mit Fragen der digitalrechtlichen Urheberschaft verbinden.

Digitale Reproduktionsverfahren ziehen, vor allem wenn sie in gesellschaftlicher Breite angewendet werden, praktische Verfahren zur Bearbeitung von Verantwortung nach sich. Ich schlage vor, diese unter den Gesichtspunkten der Individuation, Distribution und Delegation von Verantwortung heuristisch zu gliedern. Es ist offensichtlich, dass die definitorische Trennung dieser drei Gesichtspunkte nicht perfekt ist, aber sie sollte dabei helfen, den Blick für die verschiedenen Modi der Verantwortungsverarbeitung in der digitalen Welt zu schärfen.

Als sich um die Jahrtausendwende herum digitale Tauschbörsen für Musik, Filme und digitale Dateien etablierten, reagierte die Medienindustrie mit Kampagnen und juristischer Einflussnahme. Es ging ihr darum, die Verantwortung für das potentiell weltweite digitale Replizieren von urheberrechtlich geschützten Werken möglichst zu individuieren, also auf Einzelpersonen individuell zuzuordnen und damit juristisch verfolgbar und schließlich ökonomisch verwertbar zu machen. Vor allem die technisch affinen Jugendlichen und jungen Erwachsenen hatten zuvor von einem doppelten Schub technischer Reproduzierbarkeit profitiert, denn sie mussten nicht mehr in Plattenläden oder Videotheken gehen, um die Angebote der Unterhaltungsbranche zuhause zu konsumieren. Stattdessen konnten sie – ausgestattet mit Internetanschluss und entsprechender Peer-to-Peer-Software wie beispielsweise Napster – Musik, Filme, Fotos etc. auf den eigenen Rechner herunter- und selbst auch in die Netzwerke hochladen. Technische Kompressionsformate wie das berühmt-berüchtigte MP3 für Audiospuren oder auch MP4, Pendant für audiovisuelle Inhalte, machten es fortan möglich, musikalische und filmische Repräsentationen in akzeptabler Dateigröße zu speichern. Ob sie es merkten oder nicht – mit der Benutzung von Napster und Co. wurden zahlreiche Jugendliche gleichzeitig zu öffentlichen Anbieterinnen und Sendern von urheberrechtlich geschützten Werken, die sie in handlichen Datenpaketen im Internet replizierten – und damit auch zum Ziel der auf Online-Piraterie gerichteten Strafverfolgung.

Die Diskussion um urheberrechtlich relevante Datenspuren nahm in den Folgejahren auch mit avancierteren Sharing-Technologien nicht ab. Unter derartige Spuren fielen auch solche, die auf dem sogenannten BitTorrent-Protokoll basieren, das es ermöglicht, eine Datei aus mehreren, auch unvollständigen Quellen vollständig zu replizieren. Das hieß in der Konsequenz: Eine BitTorrent-Nutzerin musste nicht einmal mehr das komplette Werk als Datei besitzen. Es reichten auch einzelne Datenpakete, um sie zur Senderin des Werks zu machen. Schon mit der partiellen Kopie galt das Werk als technisch reproduziert. Die durchaus fragwürdigen Praktiken der Strafverfolgung kamen erst dann in der Breite zum Erliegen, als die großen Häuser der Medienindustrie teilweise oder vollständige Kontrolle über Streaming-Technologien und damit über die verbundenen Verwertungsgefüge erlangten.

Heute stellt sich die Situation etwas anders dar: Digitale Social-Media-Plattformen wie Facebook, Twitter oder TikTok haben nach ihrem bemerkenswerten Siegeszug in den 2010er Jahren bis heute einen gewaltigen Raum digitaler Reproduzierbarkeit für die Öffentlichkeit geschaffen. Die medientechnischen Kopiervorgänge auf den Plattformen erscheinen uns heute so selbstverständlich, dass wir sie oft gar nicht mehr als Akte technischer Reproduzierbarkeit wahrnehmen, etwa wenn wir ein Selfie aufnehmen (Repräsentation), es von unserem Smartphone dort hochladen (Replikation) und es in humorvoller Absicht mit Filtern, Stickern oder anderen Elementen schmücken oder aber im Kontext interaktiver Internet-Trends (Memes, Remixes, Challenges etc.) veröffentlichen (Referenz). Zugleich hat sich auch die Vorstellung des Kopierens von der Annahme bestimmter technischer Vollzüge, die den Kopier-Akt „ausmachen“, ein Stück weit gelöst.

Wer heute für die in den Sozialen Medien erscheinenden Inhalte verantwortlich ist, darüber gibt es divergierende Vorstellungen. Einerseits dominieren (vor allem kulturell-ethisch geformte) Vorstellungen von individueller Verantwortlichkeit. Andererseits hat sich beispielsweise mit dem Inkrafttreten des Urheberrechts-Diensteanbieter-Gesetz (UrhDaG) im Jahr 2021 oder mit der seit 2019 geltenden Datenschutz-Grundverordnung (DS-GVO) der „Ballast“ der Verantwortung teilweise in Richtung Plattformen oder anderer „Diensteanbieter“ verschoben, was der Individuation von Verantwortung entgegenläuft. Nach dem UrhDaG etwa stehen diverse Plattformen nun selbst in der Verantwortung, Inhalte zu filtern (mehr oder weniger juristisch erzwungen durch die sog. „Upload-Filter“ mit automatisierter Bild-, Sprach- und Texterkennung). Und nach der EU-weit verpflichtenden DS-GVO dürfen die auf Plattformen gewonnenen personenbezogenen Nutzungsdaten nur im Rahmen bestimmter Regeln erhoben, verarbeitet und weitergesendet werden.

Dazu tritt eine neue Generation von Software-Unternehmen (wie beispielsweise OpenAI), die durch ihre Technologien sog. Künstlicher Intelligenz den etablierten Medienindustrien bei der Produktion von Musik, Text, Bildern und Videos Konkurrenz machen. Durch den kürzlich in Kraft getretenen AI-Act werden die Randbedingungen hierfür in der EU teilweise reguliert. Die sog. large-language models (LLM’s) operieren, wenn sie vorhandene Werke nutzen, vor allem auf der Ebene der Referentialität, da sie auf Basis großer, oftmals illegal zusammengetragener Quellen und ausgefeilter statistischer Methoden neue, plausibel oder ästhetisch wirkende Inhalte wie Texte, Bilder oder Musik generieren können. Automatisiert von GPT generierte Texte etwa basieren aber nicht auf Wahrheit oder auch nur semantischen Zusammenhängen in einem strengen, geprüften und „abbildbaren“ Sinne, sondern lediglich auf statistischen Wahrscheinlichkeiten, nach denen der nächste Buchstabe, das nächste Wort oder der nächste Satz errechnet werden. Auch anhand dieses aktuellen Schubs technischer Reproduzierbarkeit lässt sich beobachten, wie die Zurechnung von Verantwortung individuiert wird: So geben sich wissenschaftliche Einrichtungen etwa neue Regelungen (Richtlinien, Leitbilder, Policies), die den Umgang mit KI-Technologien durch die Forschenden deutlicher transparent machen sollen. Gefordert wird auch, genau anzugeben, welche Inhalte Autorinnen und Autoren in welcher Weise mit KI-Technologien erstellt oder bearbeitet haben.

Eine mögliche Antwort auf überbordende Reproduktionsmöglichkeiten ist der Verzicht auf klassische Urheberschaft und auch aufs Original. Im Kontext distribuierter Verantwortung aufgrund gesteigerter technischer Reproduzierbarkeit habe ich zunächst die Online-Enzyklopädie Wikipedia vor Augen. Ihre Funktionsweise liegt im kollektiven Zusammentragen, Schreiben, Editieren und Verbessern von Inhalten auf Grundlage digitaler Werkzeuge. Nutzende tragen Repräsentationen (Fotos, Videos, Klangaufnahmen, Musik etc.) zusammen, laden diese als Dateien in die Wikipedia (Replikation) und referenzieren die verschiedenen Inhalte nach bestimmten Regeln und Mustern miteinander (durch Verlinkungen, Zitate, Einbindungen etc.). Die Wikipedia ist freilich nur ein Beispiel für die vielfältigen Wiki-Praktiken, die auch in anderen Kontexten Anwendung finden. So bietet die Freie Universität Berlin1 allen Angehörigen den Zugang zu ihrem Wiki an, um eine gemeinsame Wissenssammlung zu universitätsbezogenen Vorgängen zu erhalten. Dahinter steht ein quasi-organisches Organisationsprinzip: Die Verantwortung, einen Eintrag in der Wikipedia zu erstellen und zu veröffentlichen, ist nicht auf eine einzelne Person oder Gruppe beschränkt, sondern auf eine große Menge an Personen distribuiert, die sich durch kleinteilige Aushandlungsprozesse darüber einig werden (müssen), wer welche Inhalte beiträgt, sichtet, verbessert etc.

Für das Gelingen der Wikipedia sind offene Lizenzen elementar (in der Regel von Creative Commons), da diese die offene Nutzung, nachträgliche Bearbeitung und Einspeisung der Inhalte erlauben. Offenheit heißt hier: auf allen drei Ebenen technischer Reproduzierbarkeit möglichst uneingeschränkt operieren zu können. Die kollaborativ verfassten Texte stehen meines Wissens alle unter der Lizenz CC BY-SA.2 Diese erlaubt es pauschal, dass Interessierte den Text unter Nennung der Quelle und der Lizenz ohne Mengenbeschränkung replizieren und sogar verändern dürfen (gedeckt durch das sogenannte BY-Modul). Das SA-Modul (Abkürzung für „share alike“) schreibt vor, dass etwaige Veränderungen wiederum unter der gleichen Lizenz veröffentlicht werden müssen. Das soll zukünftige repräsentative, replizierende und referentielle Arbeit so einfach wie möglich machen. Viele andere in der Wikipedia auffindbaren Inhalte, darunter zahlreiche Bilder und Videos, stehen unter der etwas liberaleren Lizenz CC BY,3 also ohne SA-Modul. Weiter sind dort viele gemeinfreie Inhalte zu finden. Gemeinfrei bedeutet, dass der Urheberrechtsschutz abgelaufen ist (englisch: Public Domain) oder die Erstellenden sämtlich darauf verzichten, ihre Urheberrechte an dem Werk geltend zu machen. Das stellen sie etwa über die in der Wikipedia beliebten Lizenz CC0 („CC Zero“)4 sicher, die einen pauschalen Rechteverzicht zum Ausdruck bringt und einen der Gemeinfreiheit gleichgestellten Status der Werke bewirkt.

Interessant ist in diesem Zusammenhang zu bemerken, dass die CC-Lizenzen – von CC0 einmal abgesehen – aufgrund ihrer lizenzrechtlichen Konstruktion nicht ohne individuelle Zurechnung auskommen. Verletzt ein Nutzer die Vorgaben, etwa weil er das genutzte Werk als sein eigenes ausgibt und damit das BY-Modul missachtet, kann ihm das als Urheberrechtsverstoß ausgelegt werden. Entscheidend ist aber der Vertrauensvorschuss, den Lizenzgebende durch Creative-Commons-Lizenzen prinzipiell zu geben bereit sind: Sie signalisieren mit der CC-Lizenz, nicht individuell um Erlaubnis gebeten werden zu müssen, wenn jemand das Werk gemäß der Lizenzvorgaben nachnutzen will – vielmehr geben sie zu erkennen, dass sie auf persönliche urheberrechtliche Kontrolle zu Gunsten ihnen unbekannter Nutzungskontexte zu verzichten.

Es gibt weitere Beispiele aus der digitalen Welt, die im Grenzbereich von distribuierter und delegierter Verantwortung liegen und je nach Fall eher zur einen oder anderen Seite neigen.

Diverse Online-Foren etwa fungieren als digitale Selbsthilfegruppen und nehmen dabei großen Unternehmen ein Stück weit die Arbeit ab. Oft handelt es sich um Foren zu technischen Fragen bei Anbietern von Internet-Tarifen und Mobilfunk. Vodafone bietet beispielsweise ganz offiziell ein großes Forum für die „Vodafone-Community“5 an, in dem Nutzende Fragen stellen, beantworten und damit ihre fachliche Expertise unter Beweis stellen können. Das Forum funktioniert nach dem Prinzip von Nutzerin zu Nutzerin. Für Vodafone dürfte das günstige Effekte haben: der Konzern bekommt auf diese Weise bequem ein „Ohr auf die Schiene“, kann also die individuellen Bedarfe und Anregungen, aber auch dirty little tricks zur Problemlösung der eigenen Kundschaft ohne ausufernde Kosten für Marktumfragen oder ähnliches beobachten und – falls sinnvoll – aufgreifen.

Noch etwas anders gelagert ist das Beispiel akademischer Schattenbibliotheken. Das sind illegale oder zumindest urheberrechtlich fragwürdige Sammlungen von wissenschaftlichen Texten. Sie sind nicht nur Ausdruck lebendiger und einfallsreicher Internet-Kultur – sie beheben auf informelle oder illegale Weise auch das Problem der wissenschaftlichen Informationsversorgung, das im Zuge der Zeitschriftenkrise entstanden ist. Denn mehrheitlich stehen die betreffenden Texte – sofern nicht von Anfang an im Open Access veröffentlicht – hinter den Bezahlschranken der wissenschaftlichen Verlagshäuser. Den Zugang zu solchen Texten erwerben entweder Einzelpersonen oder wissenschaftliche Bibliotheken im Abonnement – das bedeutet in der Realität, dass nicht jeder Forscher von jeder Universität Zugang zu jedem gewünschten Aufsatz bekommen kann. Abhilfe schaffen hier digitale Schattenbibliotheken und -praktiken. Verschiedene Formen lassen sich unterscheiden: Zum einen große, aggregierte Sammlungen mit Anspruch auf größtmögliche Vollständigkeit wie SciHub, Libgen oder Anna’s Archive, die oft aus jahrelangen Sammelaktivitäten oder Leaks hervorgegangen sind und sich durch anspruchsvolle, robuste Technologie mit Redundanzen und Verschleierungen erfolgreich am Leben erhalten. Daneben gibt es kleinere, thematisch spezialisierte Gruppen wie AAARG („Artists, Architects und Activists Reading Group“) oder studentisch organisierte Social-Media-Kanäle auf Telegram, in denen auf Zuruf ein bestimmter Text von einer Benutzerin freigeschaltet wird. Interessant ist auch der Twitter-Hashtag #ICanHazPDF,6 über den man einen Wunsch nach einem Text formulieren kann und dann hoffen muss, dass ein freundlicher Kollege ihn zusendet. Hierfür hat sich eine Online-Etiquette etabliert, die abermals an die individuelle Verantwortung der Nutzenden appelliert: Die Regelung soll verhindern, dass Texte mehrfach besorgt und verschickt werden oder es gar zu juristischen Verwicklungen kommt. Gemäß der Etiquette sollen die Anfragenden ihren Tweet wieder löschen, sobald sich ihre Anfrage erledigt hat. Die Slang-Schreibweise geht übrigens auf das Internet-Meme „I Can Has Cheezburger“7 zurück.

Schließlich möchte ich die sog. Content Moderation als Beispiel für Delegation von Verantwortung im digitalen Raum anführen. Damit sind Organisationen gemeint, die im Auftrag großer Social-Media-Plattformen die von Nutzenden hochgeladenen Inhalte prüfen und dann freigeben oder löschen. Einer größeren Öffentlichkeit bekannt wurde das Verfahren etwa durch den Dokumentarfilm „The Cleaners“,8 der den Alltag von Facebooks Content Moderators zeigte und eindrücklich vor Augen führte, wie Facebook die sehr unangenehme und belastende Aufgabe in Niedriglohn-Länder des Globalen Südens auslagert. Oftmals müssen die sogenannten Cleaner mehrere Bilder pro Minute sichten und über deren Rechtmäßigkeit auf der Plattform entscheiden. Dabei bekommen sie massenhaft Repräsentation von furchtbaren Verbrechen wie Gewaltpornografie, Enthauptungen, Misshandlungen oder Folterungen zu Gesicht, die auf die Plattform hochgeladen werden und von Nutzenden als unzulässig gemeldet werden. Während die überwiegende Anzahl der Nutzenden von Facebook nur den Feed und die dortigen Funktionen kennen, macht der Film die notwendige Arbeit sichtbar, um den Feed möglichst sauber von unzulässigen Darstellungen zu halten und damit das werbebasierte Geschäftsmodell von Facebook nicht zu gefährden. Die psychischen Schäden, die Facebook bei den Content Moderators anrichtet, ist mit Geld nicht aufzuwiegen, denn die Betroffenen tragen die ausgelösten Traumata oft jahrelang oder für ihr ganzes Leben mit sich herum.

Die verschiedenen dargestellten Phänomene, die allesamt auf Steigerungen technischer Reproduzierbarkeit in den genannten drei Ebenen zurückzuführen sind, lassen erkennen, mit welchen diversen Praktiken und Motivlagen und von welchen verschiedenen Gruppen und Akteuren Verantwortung im Digitalen nachgekommen wird. Technische Reproduzierbarkeit bedeutet dabei in erster Linie eine Entfernung eines Objekts von seinem Ursprung, dem Hier und Jetzt, wie Benjamin es seinerzeit schon nannte. Diese Entfernung wirkt durch entkoppelnde Prozesse auf den Ebenen der Repräsentation, Replikation und Referenzierung. In bestimmten Konstellationen wird das als Kontrollverlust, im oben genannten Beispiel der CC-Lizenzen sogar als gezielter Kontrollverzicht wahrgenommen. Dennoch löst sich das Band zwischen dem, was jemand nutzt, und einer Herkunft, die es zur Kopie macht, nicht völlig auf. Das Internet ist bislang kein Reich der völligen Beliebigkeit geworden, und auch formlose Regeln der Weitergabe von Kopien können Bestand gewinnen. Verantwortung heißt in diesem Zusammenhang also, für das eigene Handeln eine Reaktion, gewissermaßen eine Antwort, vorzuhalten, und zwar möglichst so, dass die Antwort den ausgelösten Effekten, zu befürchteten Konsequenzen oder zu erwarteten Folgehandlungen gerecht wird. Die Darstellung zeigte dabei auch, wie vielfältig das Spektrum der Verantwortungsübernahme aussehen kann: durch Individuation, Distribution oder Delegation.

  1. Freie Universität Berlin (2024): Wikis an der Freien Universität [Webseite], https://www.cedis.fu-berlin.de/services/systeme/wikis/index.html [08.05.2024]. ↩︎
  2. Creative Commons (2024): CC BY-SA 4.0 DEED [Webseite],  https://creativecommons.org/licenses/by-sa/4.0/deed.de, [08.05.2024]. ↩︎
  3. Creative Commons (2024): CC BY 4.0 DEED [Webseite], https://creativecommons.org/licenses/by/4.0/deed.de, [08.05.2024]. ↩︎
  4. Creative Commons (2024): CC0 1.0 DEED [Webseite], https://creativecommons.org/publicdomain/zero/1.0/deed.de, [08.05.2024]. ↩︎
  5. Vodafone (2024): Vodafone Community [Webseite], https://forum.vodafone.de/t5/Mit-Vertrag-Tarife-Rechnung/bd-p/2001, [08.05.2024]. ↩︎
  6. X (2024): #IcanHazPDF,  https://twitter.com/search?q=%23icanhazpdf&src=typed_query&f=live, [08.05.2024]. ↩︎
  7. Wikipedia (2024): I Can Has Cheezburger,  https://en.wikipedia.org/wiki/I_Can_Has_Cheezburger%3F, [08.05.2024]. ↩︎
  8. The Cleaners (2018) von Hans Block & Moritz Riesewieck [Film], http://www.thecleaners-film.de/, [08.05.2024]. ↩︎

Fischer, Georg (2024): Verantwortung in Zeiten digitaler Kopien. In: Verantwortungsblog. https://zevedi.de/verantwortung-im-zeitalter-digitaler-kopien [28.05.2024].
https://doi.org/10.60805/3xe4-e007

Kategorien
Akzentfarbe: grün Autor: Petra Gehring Uncategorized Verantwortungsblog

Versuch über das V-Wort

Versuch über das V-Wort

Man muss es schon zugeben: „Verantwortung“ ist zwar schnell gesagt, aber eigentlich kann niemand rasch mal angeben, was der Ausdruck wirklich meint. Auch die Philosophie tut sich mit dem Wort schwer. Zu wuchtig, irgendwie zeigefingerhaft – und eben: trotzdem kaum auf den Punkt zu bringen.

Von Petra Gehring | 15.05.2024

Ein digital anmutender Safe.
Erstellt mit Adobe Firefly. Prompt: „illustration of safe digital technology, mechanistic; grey, green, and black colors; minimalistic, cubism“

Versuchen Sie es mal. Oder suchen Sie nach einer überzeugenden Definition. Im Historischen Wörterbuch der Philosophie finden Sie die Unterscheidung einer auf Rechenschaftslegung abstellenden Form des Verantwortungsdenkens, für welches die Maßstäbe eines Gegenübers (auf die wir „antworten“ müssen) ausschlaggebend sind, von einer „ethischen“ Verantwortungsdiskussion. Letztere umfasse Aspekte wie Rollenbilder (es gibt Amts- oder berufstypische Verantwortung), die Sorge um einen Gegenstand (für den Verantwortung übernommen werden muss) sowie Verantwortlichkeiten im Großmaßstab, denn auch kollektiv kann Verantwortung entstehen (vgl. Holl u.a. 2001). Wikipedia macht es uns etwas einfacher und stellt ab auf Psychologie: Verantwortung ist die richtige Einschätzung unserer Fähigkeit, ein bestimmtes Ziel zu erreichen und uns darauf dann auch zu verpflichten – also sagen wir mal: die Fähigkeit nicht zu viel zu versprechen, eine Art planerische Kompetenz. Zudem sei Verantwortung ein „Gefühl“ (vgl. o.A. 2004).

So oder so hat der digitale Wandel die Verantwortung zum Zauberwort gemacht. Verantwortungsvoll, verantwortungsbewusst – das meint dann etwa: zentriert auf den Menschen, rechtlich abgesichert, Vermeidung unerwünschter Technikfolgen. Ethikgremien entwickeln hierzu „Prinzipien“, so nennt beispielsweise 2019 eine KI-Expertengruppe der EU „respect for Human Autonomy”, „Prevention of harm“, „Fairness”, „Explicability” und hält zuvor fest, KI habe „lawful, ethical and robust“ zu sein. Denn: „It is our individual and collective responsibility as a society to work towards ensuring that all three components help to secure Trustworthy AI” (AI-HELG 2019: 12, 5 –Hervorhebung von mir).

Auch auf Unternehmenswebseiten finden sich Bekenntnisse in Sachen Digitalverantwortung, denn „CDR“, Corporate Digital Responsibility ruft ebenfalls oft „Prinzipien“ auf. Sieben Stück sind es etwa in einem „CDR-Manifest“ von 2021, initiiert durch den (so stellt er sich vor) „Digital Transformation Influencer“ Rob Price (2021). Die Deutsche Telekom stellt auf ihrer Webseite sogar ein ganzes „Haus der Verantwortung“ vor (Deutsche Telekom 2004a). „Es ist unsere Digitale Verantwortung“, kann man dort lesen, „sich (sic!) […] an der Diskussion um Ethik zu beteiligen und die Entwicklung ethischer Rahmenbedingungen für unsere Technologien zu fördern. Unsere Werte und die bewusste Entscheidung, den Mensch in den Mittelpunkt zu stellen, geben uns die Richtung im digitalen Raum vor“ (Deutsche Telekom 2004b). Die Unternehmensberatung pwc wiederum ordnet der Verantwortung weniger die Diskussionsbeteiligung und die Förderung von Rahmenbedingungen zu, als vielmehr die Forderung, Ethik auch wirksam werden zu lassen:

„Digitale Ethik ist die strategische Ausrichtung nach dem richtigen Handeln in der Digitalisierung und Digitale Verantwortung fordert, dieses Handeln nach gesellschaftlichen, ökologischen und ökonomischen Nachhaltigkeitsanforderungen umzusetzen.“ (pwc Deutschland 2024)

Und das Beratungsunternehmen Swiss Insights, das ein digitalethisches Fairness-Label vertreibt, hält fest:

„Digitalisierung fordert von Unternehmen Wertebewusstsein und verantwortungsvolles Handeln – nur so kann die Akzeptanz der Gesellschaft für neue Technologien und Geschäftsmodelle erreicht werden.“ (Swiss Insights 2024) 

Die Reihe der Beispiele ließe sich fortsetzen. Insbesondere stellt die Rede von Verantwortung oder Verantwortungsübernahme irgendwie auch aufs Handeln ab. Von daher könnte man es glatt bei dieser Minimalbedeutung des V-Wortes lassen: Bloßes Geschehenlassen reicht nicht aus.

Bliebe „Verantwortung“ im Diskurs um Digitaltechnologie damit also kaum mehr als ein unbestimmtes Signalzeichen – wie: „Macht endlich!“ oder auch: „Bitte nicht zu krass“? Oder: „Don’t be evil“? Oder wäre der Ausdruck sogar in dieser Hinsicht leer und stünde somit lediglich für die Versicherung, derjenige, der Verantwortung beschwört, sehe zwar Gefahren, bringe aber gute Absichten mit?

Immerhin ist zumindest der Ruf nach Verantwortung kein Spaß. Nicht nur Unternehmen, sondern auch besorgte Bürgerinnen und Bürger, Medienschaffende, Wissenschaftler und auch Parlamentarierinnen setzen Hoffnungen in das Wort. Sie verbinden damit eine ähnlich dringliche Erwartung, der Digitale Wandel müsse gestaltbar sein – dürfe also nicht aus dem Ruder laufen und solle vielleicht sogar in gewissen Punkten klare Grenzen haben – wie es hinsichtlich der Biodiversitäts- und Klimakrise der Fall ist und wie es auch angesichts der Atomkraft seit Tschernobyl und Fukushima auf der Hand liegt. Fast scheint es, als könne man neuen Technologien kaum mehr etwas anderes in den Weg stellen als das V-Wort. Das nur bitte endlich mal jemand mit Macht hereinschieben soll, damit es bewirkt, was es meint. Wir sind in der Defensive – das spüren wir, wenn der Ruf nach Verantwortung erklingt.

Verantwortung werde uns „aufgezwungen“ – das ist auch die Sicht des Technikphilosophen Hans Jonas, der (noch nicht am Beispiel des Digitalen) „Furcht“ für den besseren Ratgeber hält als ein Technikvertrauen, demzufolge man das Verantwortungsproblem auf später verschieben kann. 1 Jonas macht den rigiden Vorschlag, neue Technologien müssten erst den Erweis ihrer Harmlosigkeit erbringen, bevor man sie politisch zulässt (und Neuerungen mit Restrisiko müssten zudem rückholbar bleiben). Leider schlägt auch Jonas nur Maximen vor, an die wir uns bei der Zulassung gefährlicher neuer Technologien halten sollen, hantiert aber mit dem Verantwortungsbegriff, als sei dessen Kern im Grunde klar.

Versuchen wir dennoch, digitalpolitische und digitalethische Verantwortungskonzepte zu sortieren. Recht klar lassen sich nämlich ein juristischer Zuschreibungsbegriff, demgemäß Verantwortung die Zuweisung einer rollenbedingten Zuständigkeit (mit Rechenschaftspflichten und gegebenenfalls auch Haftung) meint, von einem moralischen Selbstverpflichtungssignal unterscheiden, das gerade die Freiwilligkeit und auch das Bemühenshafte der Verantwortungsübernahme herausstellt. Im ersten Fall muss sich jemand kümmern (und auch dafür einstehen). Im zweiten Fall ist Verantwortung eine Sache der Selbstfestlegung und damit auch der guten Absicht: jemand will aus freien Stücken moralisch sein, stellt dies heraus und wirbt hinsichtlich der Glaubwürdigkeit dieses Schrittes um öffentliches Vertrauen.

In einem dritten Verständnis (und hier sind wir dann sehr dicht bei der Defensive und beim Zwang) kippt Verantwortung um und wird ein Forderungsbegriff, ein Ausdruck nämlich, der Auge-in-Auge einem potenziellen Verantwortungsträger gegenüber den Appell formuliert, jemandem – sei es den Schwächsten, sei es der Natur, sei es kommenden Generationen oder gar der Menschheit insgesamt – werde die Übernahme von Verantwortung geschuldet. Verantwortung wird in diesem dritten Fall also eingeklagt. Dabei kann entweder eine bereits bestehende Verpflichtung ins Feld geführt werden (Fall 1 – die Verantwortung existiert in unbestreitbarer Weise) oder aber die Erwartung zielt darauf ab, jemanden zum Schritt in die Verantwortung zu bewegen (Fall 2 – eine bislang noch offene Verantwortlichkeit gälte es zu übernehmen). Wer möchte, kann die erste Konstellation dem Recht zuordnen und die zweite der Moral, was allen, die Verantwortung als Forderungsbegriff nutzen wollen (Fall 3), die Machtfrage vor Augen führt: Wo Verantwortung nur „ethisch“ ist, hängt man von der Bereitschaft derjenigen ab, die man in die Pflicht nehmen will. Und auch Umfang, Dauer, Zumutbarkeit etc. von Verantwortung bleiben im Zweifel bestreitbar. Das Hauptproblem ist freilich, wo es um Verantwortung für neue Technologien geht, ein anderes. Das nämlich, dass „wir“ fast immer sowohl in der Rolle desjenigen, der Verantwortung schon hat als auch derjenigen, die sie zu übernehmen hätte, als auch in der Rolle jener sind, die Verantwortung möglichst dringlich einfordern möchten.

Anders gesagt: Nur, wo er überhaupt ein echtes, ein auf andere Weise als sich selbst zum Handeln berufenes Gegenüber findet, hat der „Ruf“ nach Verantwortung überhaupt Sinn. Die Mehrwertigkeit der Verantwortung wird zur Falle, wo Verpflichtung (Fall 1), Eigenverantwortung (Fall 2) und Inpflichtnahme (Fall 3) nicht mehr wirklich trennbar sind. Auch aus diesem Grund müssen klassische Ethiken an der Dimensionierung neuer Technologien scheitern: Die Bewältigung gesamtgesellschaftlicher Herausforderungen lassen sich umso schlechter einem Verantwortungsträger zuschreiben, je diffuser der öffentliche Diskurs die Herausforderungen eigentlich bei sich selbst zu suchen hätte und je stärker es der Konsumwillen aller ist, der die Technologieentwicklung treibt – und dies zu Lasten nicht sinnfälliger Weise der Natur (wie im Rahmen der ökologischen Frage), sondern ‚lediglich‘ zu Lasten zivilisatorischer Errungenschaften wie Bildung, Frieden oder Demokratie. Verantwortung bedarf zwar des Nachdenkens – und in der eigenen Person kann man Rollen-, Eigen- und vielleicht sogar Menschheitsverantwortung verbinden. Aber Verantwortungssemantik, die politisch etwas bewirken will, verträgt keinen Kurzschluss ihrer drei Versionen. Diese bittere Einsicht geht über Jonas hinaus, der sich noch an einen „Staatsmann“ richtet, der den Einsatz von Technik als ein „Mittel“ vor sich sieht, auf das er auch verzichten kann.2 Gebraucht werde „Macht über die Macht“ (Jonas 1979: 254) – auch das legt eher das Umsteuern eines Staatsapparates nahe als Formen der Bändigung einer Technologieentwicklung, die sich aus der Gesellschaft selbst heraus ergibt. 3

Ich schwenke zurück zum digitalethischen Feld, wo sich in der Tat das V-Wort vor allem dann bewährt, wenn es auf eine haftungsrechtliche Verantwortlichkeit abzweckt. So hat eine 2018 zunächst im Bundesministerium für Justiz und Verbraucherschutz, inzwischen beim Bundesumweltministerium und einem mit diesem kooperierenden „Institut für Verbraucherpolitik“ (vgl. ConPolicy 2024) verortete CDR-Initiative einen Kodex mit neun Prinzipien formuliert, von denen eines „Verantwortlichkeit“ heißt:

Prinzip 8: Verantwortlichkeit. Wir stellen sicher, dass die Verantwortung für die Gestaltung und den Einsatz unserer technischen Systeme in letzter Instanz bei eindeutig definierten menschlichen Verantwortungsträgern liegt.“ (Corporate Digital Responsibility Initiative 2024: 3)

Eindeutig definierte natürliche Personen – da ist Haftung nicht weit. Auch die KI-Gesetzgebung der Europäischen Union scheint den Weg einzuschlagen, einer Verantwortungsdiffusion für die Folgen der neuen Technologie durch Anmeldepflichten der Marktteilnehmer im europäischen Rechtsraum sowie durch eine hinreichend griffige Form der Herstellerhaftung entgegenwirken zu wollen. Etwas seltsam wirkt es, wenn die EU High-Level Expert Group 2019 ausdrücklich festhält, auch KI-Experten hätten sich an Recht und Gesetz zu halten:

„[I]t is the responsibility of AI practitioners to ensure that they comply with their legal obligations, both as regards horizontally applicable rules as well as domain-specific regulation.” (AI HLEG 2019: 15)

Man fragt sich: Ja was denn sonst? Immerhin aber schließt hier hinreichend deutlich ein Verantwortungsbegriff hartes Recht nicht aus, sondern ein. Auch „Accountability“, also Zurechenbarkeit konkreter Technikfolgen auf jemanden, dem man dann Verantwortlichkeit nachweisen kann, gehört zu den Anforderungen der EU4.

Ein Beispiel für eine konsequent lediglich als eine moralische Selbstbindung ausgelegte Verantwortungsübernahme liefern die 2017 formulierten, 2019 erneuerten Asilomar AI Principles des Future of Life Institute. Zu den Mitgliedern dieser Vereinigung gehören prominente Softwareentwickler und Pop-Akteure wie der auf Investitionen in transformative Technologien spezialisierte Konzernchef Elon Musk oder der technikbegeisterte Physiker Stephen Hawking. In Sachen Verantwortung springt in den Asilomar-KI-Prinzipien der neunte Leitsatz ins Auge:

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications. “ (Future of Life Institute 2017a)

Die deutsche Übersetzung lautet – durch das Entfallen der Wendung von den „Stakeholders“ – nicht ganz identisch:

„9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.“ (Future of Life Institute 2017b)

In beiden Versionen der Aussage ist deutlich: Erstens geht es um Moral, genauer sogar um „moralische Folgen“ der neuen Systeme (was auch immer das genau sein mag). Und zweitens sehen sich die Produzenten der Technologie als Beteiligte, an welche lediglich als moralische „Stakeholder“ appelliert werden kann, im Deutschen sogar als Leute, die lediglich „mitbestimmen“. Eine Allein- oder Vollverantwortung anzuerkennen, sieht anders aus.

Im März 2023 veröffentlicht das Future of Life Institute den offenen Brief Pause Giant AI Experiments, in welchem ausgerechnet im fraglichen Feld auf aggressive Weise unternehmerisch tätige KI-Entwickler die Weltöffentlichkeit vor den möglicherweise verheerenden Folgen ihre Produkte warnen und nach staatlichen Regeln sowie Kontrollen rufen:

Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.“ (Future of Life Institute 2023a)

Das klingt fast ein wenig nach Hans Jonas. Obzwar der Verantwortungsbegriff nicht fällt, handelt es sich doch um eine Geste der Bereitschaft zur Verantwortlichkeit. Die Verfasser des Briefs bringen sogar den Gesetzgeber ins Spiel, den sie um eine Art Moratorium bitten. Der Duktus der Verantwortungsübernahme kann allerdings kaum darüber hinwegtäuschen, dass mit der Adressierung des Statements etwas nicht stimmt. Eine Gruppe mächtiger Lobbyisten maßt sich hier in eigener Sache an, im Namen der Menschheit zu allen Regierungen der Welt zu sprechen – und dies um ihnen Pflichten aufzuerlegen, an die sie sich gewissermaßen selbst erinnern.5 Was ebenfalls auffällt: In keiner Weise erwägen die Verfasser des offenen Briefes, ob die mit vielen Fragezeichen geschilderte gefahrvolle Entwicklung nicht heute schon bestehendes Recht bricht. Denn KI-Systeme wie das große Sprachmodell „GPT“ sind zwar nicht völlig im Geheimen entstanden. Jedoch stellt weder die augenscheinlich bedenkenlose Beschaffung von Trainingsdaten für das System noch dessen von PR begleitete weltweite Freischaltung ein Interesse an existierenden rechtlichen Regeln unter Beweis. Vielmehr hat Open AI das Produkt freigesetzt, ohne sich um existierendes Recht zu scheren.

Den Verfassern des Briefs muss man wiederum zugutehalten: Sie nutzen das V-Wort im April 2023 in einem Empfehlungspapier Policymaking in the Pause tatsächlich im Sinne der juristischen Rechenschaftslegung und Haftung:

„Key among measures to better incentivize responsible AI development is a coherent liability framework that allows those who develop and deploy these systems to be held responsible for resulting harms.“

Der Gesetzgeber habe umgehend ein „framework for the liability for AI derived Harms” zu schaffen (vgl. Future of Life Institute 2023b: 4).

Großbegriffe, deren Bedeutungsstränge sich dauerhaft verfilzen, richten Schaden an und verkommen zur leeren Hülse. Für „Ethik“ im Ganzen mag das gelten, aber auch um die „Verantwortung“ ist es nicht gut bestellt – zumal, wenn die Vermutung zutrifft, dass sich einfach auch keine rechte Adressierung mehr für die Appellfunktion des V-Worts findet. Dabei ist der dritte Gebrauchsfall ja vielleicht der politisch wichtigste der drei: der Fall des Aufrüttelns, um Verantwortung dort zu mobilisieren, wo nicht rechtlich bereits alles klar ist.

Wird das Wort also unbrauchbar? Sollte man die verwickelte Auseinandersetzung um Digitaltechnologien besser ganz ohne Rekurs auf „Verantwortung“ führen? Es gibt in der Tat eine Verantwortungskritik, die ungefähr das besagt: Der Ausdruck bemäntele mehr schlecht als recht, dass Ethik die Falschen in die Pflicht nimmt (man bürdet der Gesellschaft und konkret den Bürgerinnen und Bürgern, etwa in der Medizin, Verantwortung auf (vgl. Illich 2019: 232 f.) während sie denjenigen, denen Recht und Moral ohnehin gleichgültig ist, zusätzliche rhetorische Spielräume bietet. Und zahlungskräftige Unternehmen machen sich diese flugs zu eigen. Mittels Ethik-PR. Ein Kritiker nicht der Digital- aber der Bioethik streicht die „Verantwortung“ aufgrund solcher Inanspruchnahme mit dem folgenden Statement aus seinem Vokabular: „Die Natur, Die Humanität, Das Leben, Die Würde der Frau, Die Menschenrechte, Der Kosmos, DieVernunft, Die Wissenschaft, Die Verantwortung, Die Moral und so fort. Alles zu Markenzeichen verkommene Ideen – Markenzeichen, mit denen sich die Oberschicht der (redenden und schreibenden) Konsumenten der Macht identifiziert. Die Macht steckt eben nicht in den Markenzeichen, aber sie wird durch den Gestus des Tragens solcher Zeichen abgesichert. […] ‚Verantwortung‘ und ‚Ethik‘ sind, so wie sie heute in Gebrauch sind, Aufkleber, die über Preis und Qualität des Beklebten nur vermeintlich etwas aussagen.“ (Patze 1988: 28)

Den gegenteiligen, aber auch auf die Verzichtbarkeit des Worts zulaufenden Weg wählt die Politik, wenn sie Verantwortung einfach mit Umsicht und Klugheit gleichsetzt. Denn damit nimmt man ihr – diesseits der geschilderten drei Stoßrichtungen des Wortes – nahezu jeglichen Stachel, den Pflichtaspekt und auch den Charakter der Handlungsaufforderung. Der Bericht der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz von 2020 wählt jedoch diesen Weg. Es wird definitionsartig angesetzt, aber schon die Überschrift – „6.2.5 Verantwortung (Gutes tun, Akteure, Zusammenarbeit)“ – löst jede Kontur auf. Die angebotene Begriffsbestimmung gibt die Verantwortung einer (ohnehin) moralischen Handlung nur noch wie eine Art Zusatz bei. Als vernünftige Vorausschau auf mögliche Folgen:

„Der Begriff der Verantwortung macht darauf aufmerksam, dass es ein wichtiges Kennzeichen einer moralischen Handlung ist, die Folgen seiner eigenen Handlung abzusehen und zu bewerten und sein Handeln dann evtl. auch zu verändern. Handeln gemäß einer klugen und vernünftigen Einschätzung der Folgen des eigenen Handelns unter Hinzuziehung von moralischen Kriterien (Werten, Normen, Prinzipien, Maximen) – das kann man mora­lisch verantwortliches Handeln nennen.“ (KI Enquete-Kommission 2020: 85)

Kann man, muss man aber nicht. Denn Verantwortung reduziert sich damit auf ein der Moralität nachgeschaltetes Zusatzkalkül.

Lässt sich das V-Wort noch retten? Es verknäuelt Bedeutungen, lässt sich zu PR-Zwecken verflachen und ist nicht wirklich durch Theorietraditionen gesichert. Es gleicht eher einer Metapher oder einem Akkord mit vielen Unter- und Nebentönen. Immerhin bleibt da die eingangs beschriebene Wucht. Das Gestische. Das Moment des Eintretens für eine Norm. Wird die Rede von der „Verantwortung“ nicht nebelhaft-allgemein verwendet, sondern mit Namen, konkreten Gefahrenlagen – und idealerweise: mit Rechtsfolgen bis hin zur Haftung auch für lange Folgenketten, die Betroffene einklagen können – verbunden, erschließt sich so etwas wie ein Ebenenwechsel: Einfach nur machen und auf den Fortschritt vertrauen, reicht dann nicht mehr.

Ebenso kommt das ins Spiel, was der Soziologe Niklas Luhmann (1984: 515 f.) als den Unterschied zwischen gegenwärtiger Zukunft und künftiger Gegenwart beschreibt: Technologen verschieben das heute Widersprüchliche auf künftige Gegenwarten, weil sie hoffen, bis dahin ließen sich die Probleme, auch dank erst noch zu erfindender neuer Technologien, irgendwie schon abarbeiten. Wir schieben heute daher einen Berg wohlmöglich unlösbarer Aufgaben vor uns her. Zudem stellen wir uns eben auch nur vor, was aus einer neuen Technologie alles an zu bewältigenden Folgen hervorgehen könnte. Wirklich wissen (und wirklich zu bewältigen haben) werden es erst die Menschen von morgen. 

Von daher … bewahren wir das V-Wort. Ja: um des Ebenenwechsels willen, sprechen wir es ab und zu aus und wiederholen es nötigenfalls auch. Solange wir nichts besseres haben, kann es eines der weniger schlechten unter den schlechten Werkzeugen sein. Und wenn wir es nicht aufgeben: vielleicht entwickelt die Verantwortung doch noch klare Konturen. Wo die Gefahr wächst, wächst auch die Präzision.

  1. Jonas hebt auf die unabsehbaren – das menschliche Entscheiden überfordernden – Folgen und Fernwirkungen neuer Technologien ab. Die tägliche Sphäre sei heute „überschattet von einem wachsenden Bereich kollektiven Tuns, in dem Täter, Tat und Wirkung nicht mehr dieselben sind wie in der Nahsphäre, und der durch die Enormität seiner Kräfte der Ethik eine neue, nie zuvor erträumte Dimension der Verantwortung aufzwingt.“ (Jonas 1979: 26)  ↩︎
  2. Vgl. Jonas 1979, S. 80: „[S]elbst zur Rettung seiner Nation darf der Staatsmann kein Mittel verwenden, das die Menschheit vernichten kann.“ ↩︎
  3. Immerhin appelliert Jonas in dem Sinne an den Überlebenswillen der breiten Bevölkerung, dass er den Bürgern das Recht auf ein im Ergebnis fatales Wegsehen von Problemen abspricht: „Über das individuelle Recht zum Selbstmord läßt sich reden, über das Recht der Menschheit zum Selbstmord nicht.“ (Jonas 1979: 80) ↩︎
  4. Vgl. noch einmal das Papier der AI Ethics High-Level Expert Group, es postuliert: „mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.“ (AI HLEG: 15). ↩︎
  5. Vorbild solcher Briefe ist das von Benjamin Russell, Albert Einstein und anderen formulierte Pugwash-Manifest vom 9. Juli 1955 für eine nuklearwaffenfreie Welt, das aber eben als Brief an öffentlichen Universitäten tätiger Grundlagenforscher geschrieben wurde und nicht etwa von (mutmaßlich am Umsatz beteiligten) Personen aus Entwicklung und Management kommerziell tätiger Tech-Unternehmen. Ebenso verlangten Russell und Einstein nicht, dass man ihnen selbst ein Verbot auferlegen sollte, sondern sie forderten den Waffenverzicht von der Politik (wie auch der Wirtschaft). ↩︎

AI HLEG [= Independant High-Level Expert Group on Artificial Intelligence der EU] (2019): Ethics Guidelines for Trustworthy AI. Brüssel: EU, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf [19.3.2024].

Deutsche Telekom (2004a): Cororate Digital Responsibility [Webseite], https://www.telekom.com/de/konzern/digitale-verantwortung/cdr [19.3.2024].

ConPolicy, Institut für Verbraucherpolitik (2024): Corporate Digital Responsibility, https://www.conpolicy.de/themen/corporate-digital-responsibility [17.3.2024].

Corporate Digital Responsibility Initiative (2024): Corporate Digital Responsibility-Kodex. Freiwillige Selbstverpflichtung mit Bericht, https://cdr-initiative.de/uploads/files/2024-01_Kodex_CDR-Initiative.pdf [19.3.2024].

Deutsche Telekom (2004b): Deutsche Telekom (2004b): Ein Blick auf unsere Handlungsfelder – Digitale Ethik. https://www.telekom.com/de/konzern/digitale-verantwortung/cdr/details/ein-blick-auf-unsere-handlungsfelder-digitale-ethik-1007518 [19.3.2024].

Future of Life Institute (2017a): Asilomar AI Principles [11.8.2017], https://futureoflife.org/open-letter/ai-principles/ [19.3.2024].

Future of Life Institute (2017b): Asilomar AI Principles [11.8.2017] https://futureoflife.org/open-letter/ai-principles-german/ [19.3.2023].

Future of Life Institute (2023a): Pause Giant AI Experiments. An open Letter [22.3.2023], https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [19.3.2024].

Future of Life Institute (2023b): Policymaking in the Pause. What can Policymakers do now to combat Risks from advanced AI Systems? [19. April 2023] https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf [17.4.2024].

Holl, Jann /Red. [Teil I] und Lenk, Hans/Maring, Matthias (2001) [Teil II]: Art. „Verantwortung“. In: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie Bd. 11. Basel: Schwabe, Sp. 566–575.

Illich, Ivan (2019): Die Substantivierung des Lebens im 19. und 20. Jahrhundert – eine Herausforderung für das 12. Jahrhundert. In: Klaus Jörk/Bernd Kaufmann/Rocque Lobo/Erica Schuchardt (Hrsg.): Was macht den Menschen krank? 18 kritische Analysen. Basel, Boston, Berlin: Birkhäuser, S. 225–234.

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Suhrkamp 1984.

KI Enquete-Kommission (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, ökologische und soziale Potenziale. In: Deutscher Bundestag: Drucksache 19/27300 vom 28.10.2020.

Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main 1985.

o.A. (2024): Art. „Verantwortung“. In: Wikipedia, https://de.wikipedia.org/wiki/Verantwortung [19.3.2024].

Patze, Bernd (1988): Markenzeichen der Macht. Wissenschaft, Ethik und DAS GANZE. In: Wechselwirkung 10, Nr. 87, S. 24–28.

Price, Rob (2021) The International CDR Manifesto. https://corporatedigitalresponsibility.net/cdr-manifesto [19.3.2024].

pwc Deutschland (2024): „Unser Verständnis von Digitaler Ethik & Verantwortung“ [Webseitentext], https://www.pwc.de/de/risk-regulatory/risk/so-lassen-sich-digitale-ethik-und-verantwortung-wirkungsvoll-verankern.html [19.3.2024].

Swiss Insights (2024): Label Data Fairness. https://swiss-insights.ch/label-data-fairness/ [19.3.2024].

Gehring, Petra (2024): Versuch über das V-Wort. In: Verantwortungsblog. https://zevedi.de/versuch-ueber-das-v-wort/ [15.05.2024].
https://doi.org/10.60805/0cv4-e997

Kategorien
Uncategorized

Follow the [New] Money

Auf den Spuren von Krypto, Karten, Coins und Cash

Ein Film von Sophia Igel und Philipp Scholtysik

Am 16. September 2023 fand in Frankfurt am Main unter dem Titel Follow the Money – Von analogen Werten, digitalem Geld und der Bezifferung der Welt ein Markt für nützliches Wissen und Nicht-Wissen statt. Dabei handelt es sich um ein Projekt der Mobilen Akademie Berlin, produziert vom Künstler:innenhaus Mousonturm in Kooperation mit ZEVEDI. Im 1:1 Gespräch mit Besucher:innen – und einhörbar via Veranstaltungsradio – verfolgten rund 90 Expert:innen die Spuren des Geldes im Großen, im Kleinen und im eigenen Leben. Alle Infos zum Film sind auch hier als Booklet verfügbar.

Das Video dokumentiert in Auszügen 8 dieser 192 Gespräche, in denen Perspektiven digitalen Bezahlens thematisiert werden: Es geht um die soziale Bedeutung von Bargeld und Beschränkungen beim digitalen Bezahlen. Andere Gespräche drehen sich um den digitalen Euro, ein Zentralbankgeld, das digital aber ähnlich wie Bargeld funktionieren soll. Kryptowerte wie Bitcoin und Technologien wie die Blockchain spielen eine Rolle. Es entsteht ein Eindruck vom Digitalgelddickicht, in dem wir uns als Individuen, aber auch als Gesellschaft bewegen. Für einen Überblick über das weitere Geschehen siehe den eFin-Blog-Beitrag Ein Markt des nützlichen Wissens und Nicht-Wissens.

Die Expert:innen in Reihenfolge ihres Auftretens samt Beiträgen zum Thema:

Brett Scott ist ein ehemaliger Broker und publiziert inzwischen als Bargeld-Aktivist. Er ist Autor des Newsletters Altered States of Monetary Consciousness und des Buches Cloudmoney – Cash, Karte oder Krypto: Warum die Abschaffung des Bargelds unsere Freiheit gefährdet (2022).

Prof. Dr. Barbara Brandl ist Wirtschaftssoziologin an der Goethe-Universität Frankfurt am Main. In einem eFin-Blog-Beitrag beschreibt sie Was die Digitalisierung des Geldes mit sozialer Ungleichheit zu tun hat.

Dr. Carola Westermeier ist Sozialwissenschaftlerin und von April bis Dezember 2024 ZEVEDI Young Investigator an der TU Darmstadt. Bei der re:publica 23 hielt sie einen als Video aufgezeichneten Impuls-Vortrag zum Thema Brauchen wir den digitalen Euro oder (wie) geht Geld demokratisch?. Gemeinsam mit Marek Jessen fordert sie in einem Artikel im November 2023: Den digitalen Euro als öffentliches Gut entwickeln.

Jana Ringwald ist Oberstaatsanwältin bei der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) der Generalstaatsanwaltschaft Frankfurt am Main. Einen Einblick in ihre Arbeit liefern die Video-Interviews des Künstlers Rainer Lind.

Alexandra Keiner ist Soziologin und forscht als Wissenschaftliche Mitarbeiterin am Weizenbaum-Institut Berlin. Unter dem Titel Von eingefrorenen Konten und ungleichen Bedingungen im internationalen Zahlungsverkehr spricht sie in einem Interview über ihre Forschung zu „Bezahlverboten im Netz“ und deren Vermittlung beim Markt für nützliches Wissen und Nicht-Wissen.

Claus George ist Leiter für Digitalisierung und Innovation bei der DZ Bank. Sein Vortrag Digitalzahlungen – gestern, heute, morgen, den er im April 2022 im Rahmen der Reihe Verstehen Sie Krypto! an der TU Darmstadt gehalten hat, ist als Video-Aufzeichnung verfügbar.

Dr. Gerald Nestler ist ein Künstler und Autor, der sich u.a. mit dem Thema „Finance“ auseinandersetzt. Für seine Projekte, Texte und Vorträge siehe hier.

Jürgen Geuter ist u.a. als Kritiker von Kryptowerten bekannt. Für aktuelle Blog-Beiträge sowie eine Auswahl an Publikationen und Präsentationen siehe seine Online-Präsenz hier.

Zitationsvorschlag:

Igel, Sophia/Scholtysik, Philipp: Follow the [New] Money. Auf den Spuren von Krypto, Karten, Coins und Cash. Darmstadt: Zentrum verantwortungsbewusste Digitalisierung, 2024, Video 16:42 Minuten, online: https://zevedi.de/film-follow-the-new-money/.