„Security through obscurity?” Die EZB und mögliche Design-Probleme des Digitalen Euro
Christian Grothoff im Interview mit Eneia Dragomir – Teil 2
23. September 2024
Bezahlsysteme reichen weit in unseren Alltag hinein und werfen fundamentale datenschutzrechtliche Fragen auf. Wenn man solche Systeme konzipiert, sollte man so tun, als würde man sich selbst nicht über den Weg trauen, so Christian Grothoff. In Teil 2 des Interviews mit dem Experten für IT-Sicherheit und Taler-Initiator geht es um das Design einer CBDC sowie um mögliche Probleme des Digitalen Euro.
Herr Grothoff, das berühmte Bitcoin-White-Paper ist 2008 damit angetreten, die Banken, Zentralbanken und andere Third Parties aus dem Spiel zu nehmen. Taler will das nicht. Dennoch heißt es in einem Paper, die Zentralbanken sollten sich als böswillige Akteure imaginieren, wenn sie das System konzipieren. Warum?
Wir haben mit unserem Text auf ein Paper der Europäischen Zentralbank (EZB) geantwortet, in dem es sinngemäß hieß, wir sind eine öffentlich-rechtliche Institution, deswegen können Sie uns Ihre Daten anvertrauen, die EZB werde sie nicht verkaufen. Das erste Problem dabei: Die EZB ist keine rein öffentlich-rechtliche Institution. Das Eurosystem beinhaltet Griechenland und die griechische Zentralbank ist in privater Hand. Nicht alle Zentralbanken sind öffentlich-rechtliche Institutionen. Die Schweizer Nationalbank beispielsweise auch nicht. Sie hat zwar staatliche Aufgaben und ist staatlich reguliert, aber sie ist eine Aktiengesellschaft.
Das zweite Problem: Es ist schön, dass eine Behörde meint, dass sie zu den Guten gehört, aber vielleicht ist das irgendwann nicht mehr der Fall. Ich sollte daher mein System nie in der Annahme designen, dass ich zu den Guten gehöre. Wenn wir Systeme bauen, die so fundamentale Eingriffe ermöglichen, wie Bezahlsysteme, von denen die Wirtschaft abhängt, die aber auch in das Alltagsleben der Menschen hineinreichen, dann ist besondere Vorsicht geboten. Ich sollte immer den Fall berücksichtigen, dass ein Böser an meine Stelle tritt. Selbst, wenn ein Diktator an meine Stelle tritt, sollte nichts Schlimmes passieren können, selbst dann sollte der Datenschutz gegeben sein. Das ist der richtige Anspruch für das Systemdesign. Dass meine Daten verkauft werden, ist bei weitem nicht das größte Problem. Da sollte der Anspruch sein: Ich vertraue mir selbst nicht und baue das System entsprechend. So halten wir es auch mit dem Taler-System.
Wir laden alle ein, sich unser System anzusehen und nach Schwachstellen zu suchen: Alle Spezifikationen, der gesamte Quellcode, die gesamte Dokumentation, das ist im Netz für alle einsehbar. Alle können sich das ansehen und analysieren und Schwachstellen gerne veröffentlichen, damit wir sie beheben können. Es gibt bestimmt Fehler in der Software, aber maximale Transparenz ist das beste Mittel, das wir haben, um diese zu finden und zu beheben. Das macht die EZB leider anders: Der EZB-Sprecher wurde von einem unserer Mitarbeiter auf einem Forum in Wien gefragt, wie die EZB die Offline-Funktion des Digitalen Euro sicher machen möchte. Antwort: das ist geheim. „Security through obscurity?“, kommentierte mein Mitarbeiter. Sicherheit durch Geheimniskrämerei? Wikileaks und Edward Snowden haben gezeigt, dass selbst Geheimdienste nicht alle ihre Geheimnisse sichern können, aber der EZB wird das gelingen? Geheimhaltung bringt uns weder mehr Sicherheit noch eine vernünftige demokratische Kontrolle der Institution.
Wenn eine Zentralbank das Taler-Bezahlsystem nutzen würde, dann wäre es eine CBDC, also ein digitale Zentralbankwährung?
Genau, eine Retail-CBDC.
Sie haben in verschiedenen Papern die Pläne der EZB für den Digitalen Euro kritisiert. Das letzte ist 2022 erschienen. Gilt diese Kritik auch für den Verordnungsentwurf aus dem Juni 2023?
Auch die aktuellen Entwürfe sind schlecht. Ich sehe da ganz grundlegende Probleme: Der Digitale Euro, so wie die Pläne derzeit sind, bringt eigentlich niemandem einen Vorteil. Ein weiteres Bankkonto, nur diesmal bei der Zentralbank? Die meisten Menschen im Euro-Raum haben schon ein Bankkonto, als europäische Bürger haben wir ein Recht darauf. Brauchen wir ein weiteres Bankkonto? Mit 3.000 Euro Maximalguthaben und ohne Kredit? Bei meiner regulären Bank habe ich eine Einlagensicherung bis 100.000 Euro. In einem weiteren Konto sehe ich keinen Mehrwert.
Weiteres Problem: Für die Kunden sollen die Transaktionen kostenlos sein, für die Händler aber nicht. Für eine SEPA-Überweisung zahle ich heute auch schon nichts. Für die Händler, die dazu verpflichtet werden sollen, Digitale Euro anzunehmen, soll die Transaktion aber nicht kostenlos sein. Wer trägt die Kosten, die bei der Umstellung entstehen? Die Händler werden die Kosten auf die Preise umlegen. Millionen Händler im Euro-Raum werden diese Umstellung vornehmen müssen, innerhalb einer bestimmten Frist, die nicht allzu groß sein darf. Was werden dann die Dienstleister machen, die diese Umstellung vornehmen und die mit Aufträgen überrannt werden? Die Kosten für die technische Umstellung werden steigen, wenn nur wenige Dienstleister Millionen Kunden zeitnah umstellen sollen.
Ein weiteres Problem ist die Verknüpfung mit dem Konto, das man bei seiner Geschäftsbank hat. Warum? Weil auf dem Konto mit den Digitalen Euros nicht mehr als 3.000 Euro gehalten werden dürfen. Jeder Euro, der darüber liegt, soll automatisch auf mein Geschäftsbankkonto „fließen“, das ist die sogenannte Waterfall-Funktion. So soll verhindert werden, dass den Geschäftsbanken die Liquidität entzogen wird. Das leuchtet mir ein. Aber der Wasserfall geht auch in die andere Richtung: Wenn die Deckung des Kontos, auf dem ich Digitale Euro halte, nicht ausreicht, soll automatisch auf das Guthaben des Geschäftsbankkontos zugegriffen werden. Dadurch ergeben sich erhebliche Probleme: Was passiert, wenn mein Konto, auf denen ich Digitale Euro halte, gehackt wird? Dann wird mein Girokonto gleich von den Angreifern über den Wasserfall auch leergeräumt. Wer haftet dann dafür? Die Geschäftsbanken werden wohl kaum das Risiko auf sich nehmen. Und was, wenn das Girokonto ins Minus gezogen wird? Müssen die Geschäftsbanken automatisch Kredite vergeben? Und für die Geschäftsbanken ergibt sich durch das Onboarding auch ein Kostenproblem.
Inwiefern?
Die EZB will nicht selbst 300 Mio. Kunden onboarden – 300 Mio. Kunden prüfen bedeutet, 300 Mio. Personalausweise prüfen etc. Dafür wäre ein Filialnetz nützlich, das die EZB nicht hat. Die EZB will diesen Know-Your-Customer-Prozess an Payment Service Provider (PSP) auslagern, also an kommerzielle Anbieter. Welche kommerziellen PSP sollen diesen KYC-Prozess kostenlos für 300 Mio. Menschen durchführen? Es soll die Kunden ja nichts kosten. Die Eröffnung eines Bankkontos kostet eine Bank etwa 50 Euro. Welche kommerziellen Unternehmen werden das für potenziell 300 Mio. Menschen übernehmen, ohne den Kunden die Kosten zu berechnen?
Eine Antwort ist die europäische eID, also die europäische digitale Identität. Die ist aber erstens nicht ausgerollt und zweitens ist der Aufwand auch mit der eID nicht gleich null, denn auch die eID könnte gestohlen worden sein oder es gibt Probleme beim Vorgang. Und überhaupt ist die Frage nicht geklärt, ob wir die eID wirklich wollen. Die eID birgt erhebliches Überwachungspotential: Muss ich mich, wenn sie eingeführt wird, überall im Netz damit ausweisen? Haben wir diese Gefahr politisch diskutiert?
Zurück zur Kostenfrage: Neben der Kontoeröffnung sollen kommerzielle PSP auch den Kundensupport übernehmen, auch das soll für die Kunden kostenlos sein. Aber sie dürfen bei den Händlern Gebühren erheben. Damit der Digitale Euro attraktiv ist, sollen diese Gebühren gedeckelt werden. Jetzt sind zwei Fälle denkbar: Der Deckel ist zu hoch und der Digitale Euro ist für die Händler unattraktiv oder der Deckel ist zu niedrig, niedriger als die aktuellen Gebühren. Welches private Unternehmen steigt dann aber da ein? Als jemand, der sich mit IT-Sicherheit befasst, überlege ich mir, was könnte das Geschäftsmodell für die privaten Unternehmen sein? Ich darf bei den Kunden keine Gebühren erheben und die Gebühren für die Händler sind stark gedeckelt – wo verdiene ich da Geld? Es bleibt nur die Möglichkeit: Ich spare bei der Sicherheit. Und zwar nicht ein wenig, sondern im WireCard-Stil: gar keine Sicherheit. Sicherheitskosten gehören neben den Kosten für Compliance zu den höchsten Kosten im Bankenumfeld. Ich weiß nicht, wie die EZB sowohl hohe Sicherheit als auch niedrige Kosten erreichen will.
Mit dem Taler-Bezahlsystem können wir das erreichen, weil es technisch ganz anders aufgestellt ist: Die Kundenidentifizierung bleibt bei den Geschäftsbanken, das Double-Spending-Problem lösen wir durch Kryptografie und Anonymität stellen wir durch blinde Signaturen her. So kann ich Einiges einsparen. Der Digitale Euro soll aber kontenbasiert sein, es soll ein Bankkonto sein, also werden auch die Kosten eines Bankkontos anfallen.
Im Bezug zur Retail-CBDC wird die Möglichkeit von Offline-Zahlungen diskutiert. Eine taler-basierte CBDC soll aber „online only“ sein. Warum?
Das Problem bei Offline-Zahlungen mit einer CBDC ist, wie bei anderem digitalem Bargeld, das schon angesprochene Double Spending: Wie verhindere ich, dass jemand seine elektronischen Wertbestände kopiert und doppelt ausgibt? Und die Antworten, die wir historisch kennen, raten zur Vorsicht: Wir haben die verschiedensten Arten des Digital Restrictions Managements (DRM), also des Kopierschutzes. Und was hat das gebracht? Waren die Film- und die Musikindustrie mit ihrem Kopierschutz erfolgreich? Nein! Man kann das Kopieren erschweren, aber mit genügend Aufwand geht es immer. Man muss auch kein Informatiker sein, um Filme oder Musik zu kopieren. Das Kopierproblem verschärft sich beim digitalen Bezahlen: Wenn die kriminelle Energie da ist, einen Film zu kopieren, wie groß ist dann die kriminelle Energie, Geld selbst zu drucken? Dazu kommen noch geopolitische Interessen: Wenn Russland der Wirtschaft der EU schaden könnte, indem es Trillionen von Digitalen Euros druckt, wäre es blöd, das nicht zu tun. Es geht also nicht nur darum, dass Privatleute mit beschränkten Ressourcen versuchen könnten, eine CBDC zu kopieren, sondern wir müssen damit rechnen, dass staatliche Akteure mit großem Budget und guter Technik das versuchen werden.
Und deswegen sollte mit einer CBDC nur online gezahlt werden können?
Ja, denn die einzige effektive Möglichkeit, das Kopieren zu verhindern, ist das Digital Watermarking: Ich markiere jede Kopie mit einem mehr oder weniger eindeutigen Siegel, das sagt, „diese Kopie hatte ich dem Herrn Müller gegeben“. Und wenn Herr Müller Kopien anfertigt, dann weiß ich, dass es seine Kopien sind. Jetzt kommt das Problem mit dem Offline-Modus ins Spiel: Die Europäische Zentralbank (EZB) sagt, das Offline-Zahlen wird vollanonym sein. Dann kann ich aber nicht mehr feststellen, dass es Herr Müller war, der die Kopien gemacht hat, denn er war anonym. Und selbst ohne Anonymität gibt es dann noch das Enforcement-Problem. Ein denkbarer Fall wäre: Eine Person in der Familie steht kurz vor dem Tod, ich kopiere ihr Geld, sie verstirbt und ich bringe das kopierte Geld in Umlauf. Selbst wenn der Bezahlvorgang nicht anonym ist, wie soll die EZB das kopierte Geld von der verstorbenen 90-jährigen Oma zurückbekommen? Eine dritte Möglichkeit, das entstehende Problem zu lösen: Die EZB kann dem Händler, der kopiertes Geld entgegengenommen hat, schlicht sagen, dass es doppelt ausgegeben wurde und er Pech gehabt hat und auf seinen Kosten sitzen bleibt. Das kann auch bei Kreditkartenzahlungen passieren: Wenn jemand mit einer gestohlenen Kreditkarte bei einem Händler bezahlt, der gerade offline ist, kann es sein, dass die Kreditkartenfirma dem Händler sagt, „Die Karte war schon gesperrt, Du hast das nicht geprüft, Du bleibst auf Deinen Kosten sitzen.“ Die EZB verspricht aber hohe Sicherheit. Das Erste, was ich von einem sicheren digitalen Bezahlsystem erwarten würde, wäre, dass, wenn mir mein Computer sagt, „Du hast das Geld bekommen“, dass ich das Geld auch wirklich bekommen habe. Das ist aber im Offline-Modus schlicht nicht möglich.
Wir wissen, dass es trotz der DRM-Maßnahmen möglich sein wird, digitale Daten zu kopieren. Man könnte auch Taler offline nutzen, dann können wir aber auch nicht garantieren, dass die Daten nicht kopiert sind bzw., dass das Geld, das ich erhalte, nicht doppelt ausgegeben wurde. Das muss man den Leuten erklären: Das Offline-Bezahlen mit digitalem Cash ist möglich, aber nicht sicher und anonym.
Im Katastrophenfall könnten wir das Risiko hinnehmen. So macht man das in Japan beispielsweise mit der Bezahlkarte für die öffentlichen Verkehrsmittel: Kommt es zu einem Erdbeben und ist das System offline, dann funktioniert die Karte trotzdem, damit die Leute nachhause kommen können. Man rechnet damit, dass es in wenigen Fällen zu Betrug kommen wird, aber wichtiger ist, dass die Menschen nach Hause kommen können. Im Katastrophenfall wird also Menschlichkeit gegenüber korrekter Abrechnung priorisiert.
Die EZB betont immer wieder, der Digitale Euro wird erst nach einem politischen Beschluss eingeführt. Haben Sie noch Hoffnung, dass der Digitale Euro doch noch als token-basiertes System umgesetzt wird?
Während die EZB das verspricht, hat sie schon eine Ausschreibung für 1,3 Mrd. Euro gemacht, in der schon ganz konkrete Vorgaben genannt werden. Und auf diese Ausschreibung konnten sich nur Unternehmen mit einem Mindest-Jahresumsatz von 10 Mio. Euro bewerben. Kleine Akteure, die angeblich auch gefördert werden sollen, sind also schon aus dem Spiel. Die Ausschreibung hatte eine Frist von sechs Wochen, die kürzeste mögliche legale Frist. Man kann doch nicht sagen, wir machen nichts ohne politischen Beschluss und gleichzeitig Gelder für die technische Umsetzung vergeben, die an enge technische Vorgaben geknüpft sind. Damit werden Fakten geschaffen. Und von einem token-basierten Ansatz ist in der Ausschreibung nichts zu finden. Dass die EZB nach einem politischen Beschluss auf einen grundlegend anderen Ansatz umschwenkt, ist nicht zu erwarten.
Ich glaube, dass man sich nur nach einem Scheitern der aktuellen Pläne Hoffnungen darauf machen kann, dass ein token-basierter Ansatz verfolgt wird. Erst wenn der Digitale Euro entweder politisch oder ökonomisch oder technisch gescheitert ist, haben wir aus meiner Sicht eine Chance, eine ordentliche politische Debatte darüber zu führen, was wir eigentlich als Gesellschaft haben wollen. Vielleicht könnte es dann in 15 Jahren einen neuen Anlauf geben. Und dann können wir sehen, ob es mit der Tokenisierung was wird oder nicht.
Die Marketing-Abteilung der Firma Palantir dürfte es als großen Erfolg betrachten, dass ihr Produkt in den Behörden gleichsam zum Eigennamen für digitale Strafverfolgung überhaupt avanciert ist. Ob der Einsatz der Software allerdings rechtmäßig ist, bleibt äußerst zweifelhaft. Ein Kommentar.
Von Michael Bäuerle | 12.09.2024
Erstellt mit Adobe Firefly. Prompt: „painting; minimalist; placed on top of a police car in white and blue lies a small magical glass ball; blurry background.“
Mit dem Urteil vom 16.02.20231 hat das Bundesverfassungsgericht eine Norm des hessischen Polizeigesetzes2 für verfassungswidrig erklärt, die den polizeilichen Einsatz einer sogenannten automatisierten Anwendung zur Datenanalyse erlaubte. Die Norm war zugeschnitten auf eine Analyseplattform, die auf dem Programm „Gotham“ der Firma Palantir Inc. beruht, das Hessen im Jahr 2017 im Rahmen eines politisch umstrittenen Vergabeverfahrens erworben und unter dem Namen HessenDATA auf die polizeiliche Datenverarbeitung hatte zuschneiden lassen.3 Außer in Hessen kommt die Analysesoftware auch in Bayern unter dem Namen VeRA (verfahrensübergreifendes Recherche- und Analysesystem) und Nordrhein-Westfalen unter dem Namen DAR (System zur Datenbankübergreifenden Analyse und Recherche) zum Einsatz.4
Da das Bundesverfassungsgericht eine bis zum 30.09.2023 befristete vorübergehende Fortgeltung der beanstandeten Regelung angeordnet hatte,5 konnte HessenDATA zunächst trotz der Unvereinbarkeit der Regelung mit dem Grundgesetz zunächst weiter genutzt werden, bedurfte jedoch nach Ablauf der Frist einer neuen verfassungskonformen Rechtsgrundlage. Eine solche sollte durch die kurzfristige Einfügung einer neuen Regelung in ein bereits laufendes Gesetzgebungsverfahren geschaffen werden.6
Rechtspolitisch umstritten war der Rückgriff auf eine Software von Palantir nicht zuletzt wegen eines zweifelhaften Rufs der Firma und ihrer Gründer.7 Diesen Aspekt hatte das Bundesverfassungsgericht dezent mit der Formulierung aufgegriffen: „Wird Software privater Akteure oder anderer Staaten eingesetzt, besteht zudem eine Gefahr unbemerkter Manipulation oder des unbemerkten Zugriffs auf Daten durch Dritte.“8
Grundsätzlich reiht sich das Urteil indessen ein in den inzwischen über zwei Dutzend Urteile und Beschlüsse umfassenden Bestand an „Ja, aber“-Entscheidungen des Bundesverfassungsgerichts zu den Befugnissen der Sicherheitsbehörden in Bezug auf den Umgang mit personenbezogenen Daten der Bürger:innen.9 In diesen Entscheidungen hat das Gericht bisher einerseits kein Eingriffsinstrument und keine neue Sicherheitstechnologie gänzlich für unzulässig erklärt. Es hat andererseits mit Blick auf den nach Intensität des Eingriffs unterschiedlich zu gewichtenden grundrechtlichen Schutz der informationellen Selbstbestimmung regelmäßig Korrekturen an den gesetzlichen Grundlagen verlangt, insbesondere im Hinblick auf deren Bestimmtheit und Verhältnismäßigkeit.10
Da diese Rechtsprechungslinie ihren Ausgangspunkt bereits im Jahr 1999 hatte, sollte von den Gesetzgebern in Bund und Ländern inzwischen eine gewisse Erfahrung in der Schaffung verfassungskonformer Rechtsgrundlagen für entsprechende Eingriffsinstrumente erwartet werden können; eine solche spiegelt sich indessen in den entsprechenden Gesetzentwürfen häufig nicht wider. Die Länder testen was geht, Datenschützer sehen eine Überschreitung von Grenzen, so dass die Entscheidungsserie des Bundesverfassungsgerichts nie abgerissen ist.
Eine Fortsetzung dieser Serie zeichnet sich nunmehr auch im Fall der Nutzung der Palantir-Software durch die Polizei ab. Bereits seit dem Jahr 2022 ist eine Verfassungsbeschwerde gegen die nordrhein-westfälische Regelung in Karlsruhe anhängig.11 Und auch gegen die neue hessische Regelung – die ganz auf die Nutzung gerade der Palantir-Software zugeschnitten ist und den verfassungsrechtlichen Anforderungen unter mehreren Gesichtspunkten wiederum nicht genügen dürfte12 – wurde jüngst erneut Verfassungsbeschwerde eingelegt.
Rechtspolitisch zeigt die Entwicklung, dass es der Firma Palantir offensichtlich gelungen ist, ihr Produkt bei den Entscheidungsträgern der Sicherheitsbehörden als unentbehrlich für eine effektive Gefahrenabwehr und Strafverfolgung zu verankern. So hat das Land Bayern nach einer europaweiten Ausschreibung bereits 2022 einen Rahmenvertrag über die Software mit Palantir abgeschlossen, dem der Bund und andere Länder ohne ein weiteres Ausschreibungsverfahren beitreten können.13
Tatsächlich denken ausgerechnet die Befürworter einer softwaregestützten Strafverfolgung augenscheinlich nicht über einen zumindest weniger bedenklichen Software-Partner nach. Als die Bundesinnenministerin im Sommer 2023 entschied, diese Option für die Bundesebene – die inzwischen die Bezeichnung Bundes-VeRA erhalten hatte – nicht zu nutzen, hatte dies einen Antrag der CDU/CSU Fraktion mit dem bezeichnenden Titel „Handlungsfähigkeit der Strafverfolgungsbehörden sichern – Entscheidung des Bundesministeriums des Innern und für Heimat bezüglich der polizeilichen Analyse-Software Bundes-VeRA revidieren“ zur Folge.14 Dieser Antrag führte zu einer öffentlichen Anhörung im Innenausschuss, in der sich zwar alle Vertreter von Polizei und Sicherheitsbehörden, aber keiner der geladenen Expert:innen für die Nutzung der Palantir-Software aussprach.15
Die Marketing-Abteilung der Firma Palantir dürfte es als großen Erfolg betrachten, dass ihr Produkt in den Behörden gleichsam zum Eigennamen für digitale Strafverfolgung überhaupt avanciert ist. Stolz ist man sicher auch auf die Tatsache, dass von der polizeilichen Nutzung ihrer Software nach Wertungen im rechtspolitischen Raum Berlins offenbar nicht weniger als die Handlungsfähigkeit der deutschen Sicherheitsbehörden abhängt. Aus verfassungsrechtlicher Sicht lässt indessen schon das erste Urteil des Bundesverfassungsgerichts zweifeln, ob es gelingen wird, die Nutzung dieser Software verfassungskonform „einzuhegen“. Fest steht indessen erneut: Das letzte Wort aus Karlsruhe ist noch nicht gesprochen. ■
§ 25a des Hessischen Gesetzes über die öffentliche Sicherheit und Ordnung (HSOG) in der bis zum 12.07.2023 geltenden Fassung, der mit Wirkung zum 04.07.2018 in das HSOG eingefügt worden war durch Gesetz vom 25.06.2018 (GVBl. S. 302). ↩︎
Vgl. dazu Bäuerle in Möstl/Bäuerle: BeckOK Polizei- und Ordnungsrecht Hessen, 33. Ed. 2024, § 25a, Rn. 1 ff. (5); Arzt in Lisken/Denninger: Handbuch des Polizeirechts, 7. Aufl. 2021, Abschnitt G, Rn. 1304 ff. ↩︎
Arzt in Lisken/Denninger 2021, Abschnitt G, Rn. 1305 (zu NRW) und www.stmi.bayern.de/med/pressemitteilungen/pressearchiv/2022/59/index.php (zu Bayern), vgl. auch BT-Drucks. 20/8390, S. 2 ff. (Antworten der Bundesregierung auf eine kleine Anfrage der CDU/CSU-Fraktion zur Einführung eines solchen Analysetools). ↩︎
Vgl. zu den aus der Kurzfristigkeit der Einfügung der Norm in das laufende Verfahren resultierenden Bedenken gegen deren formelle Verfassungsmäßigkeit Bäuerle in Möstl/Bäuerle, BeckOK Polizei- und Ordnungsrecht Hessen, 33. Ed. 2024, § 25a, Rn. 16 ff. ↩︎
Vgl. die Übersicht bei Bäuerle, Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung, Frankfurt 2024, S. 88 ff. ↩︎
Dazu im Einzelnen m.w.N. Bäuerle, Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung, Frankfurt 2024, S. 18 ff. ↩︎
Haben jene Länder, die bereits ein digitales Zentralbankgeld (CBDC) eingeführt haben, geringes politisches Gewicht, so diskutieren und testen doch auch die großen Volkswirtschaften der Welt eigene CBDCs. Diese Folge des Digitalgelddickichts beleuchtet daher die Besonderheiten der CBDC-Projekte in den USA, Russland und China und fragt nach ihrem geopolitischen Potenzial: Welche Ziele verfolgen Washington, Moskau und Peking mit digitalem Zentralbankgeld? Und vermögen es digitaler Dollar, Rubel oder Yuan, die globale Finanzlandschaft und Währungshierarchie zu verändern? Wie weit sind die jeweiligen CBDC-Pläne fortgeschritten und welche Lehren kann die EU für den digitalen Euro daraus ziehen?
Zunächst beleuchtet die Folge den US-amerikanischen Diskurs zu einer eigenen CBDC. Wie beeinflusst die dominante Rolle der USA im internationalen Finanzmarkt die Debatte um einen digitalen Dollar? Und was bedeutet die globale Hegemonie des Dollars für die CBDC-Ambitionen anderer G20-Staaten, besonders in konfliktreichen Zeiten? Der digitale Rubel ist Teil eines russischen Maßnahmenpakets, das seit Besetzung der Krim und insbesondere des Angriffskrieges auf die Ukraine angesichts westlicher Finanzsanktionen das russische Zahlungswesen widerstandsfähiger machen soll. CBDCs können als alternative Finanzinfrastrukturen größere Autonomie bieten und etablierte Finanzverbindungen umgehen. Ein Blick auf Chinas Experimente mit dem digitalen Yuan zeigt zunächst, wie er sich in die chinesische Zahlungslandschaft einfügt. Angesichts Chinas wachsender Macht stellt sich die Frage, ob und wie CBDC-Pioniere wie China auch außerhalb ihrer Grenzen Einfluss gewinnen und Standards setzen könnten.
Digitalgelddickicht Staffel Digitaler Euro – Folge 10 | 12. September 2024
Dr. Jiaying Jiang ist Assistenzprofessorin für Recht an der University of Florida. Ihr Forschungsschwerpunkt liegt auf den politischen und regulatorischen Aspekten aufkommender Technologien wie künstlicher Intelligenz, FinTech, Blockchain-Technologie, digitalen Zentralbankwährungen und Kryptowährungen. Als Hauser Global Fellow an der New York University School of Law hat sie 2020 bis 2022 in Zusammenarbeit mit dem Paul Tsai China Center der juristischen Fakultät in Yale ein Projekt zu CBDCs mitgeleitet.
Ehlke, Roxana: Alternative Financial Infrastructures in Russia, Vorabdruck, erscheint in: Carola Westermeier, Malcolm Campbell-Verduyn, Barbara Brandl (Hrsg.): The Cambridge Companion to Financial Infrastructure .
Wie sieht sie aus, die „lebenswerte Welt“ im digitalen Zeitalter? Digitale Zwänge gehören nicht dazu, meint der Verein Digitalcourage. Mit einer Petition möchte er dazu anregen, das Grundgesetz zu erweitern.
Julia Witte von Digitalcourage e.V. im Gespräch mit Eneia Dragomir | 28.08.2024
Erstellt mit Adobe Firefly. Prompt: „Stil: minimalistisch, Kubismus; ein Menschen ist an ein Smartphone gekettet; Farben: blautöne, grau“.
Gibt es die Bahncard bald nur noch über die Bahn-App? Kann man das bestellte Paket in Zukunft nur noch an der Packstation abholen, wenn man die App der Post nutzt? Entwickelt sich der Komfort, den Smartphones und Apps gebracht haben, zu einem Zwang? Der Verein Digitalcourage e.V. beschreibt sich als „technikaffin“, beobachtet aber mit Sorge die Zunahme digitaler Zwänge, erfasst diese mit seinem „Digitalzwangmelder“ und macht mit den „BigBrotherAwards“ auf bestimmte Fälle aufmerksam. Zum 75. Jahrestag des Grundgesetzes hat der Verein eine Petition gestartet, um das Grundgesetz um ein „Recht auf Leben ohne Digitalzwang“ zu erweitern. Eneia Dragomir hat mit Julia Witte von Digitalcourage e.V. über die Kampagne und darüber gesprochen, wie die „lebenswerte Welt im digitalen Zeitalter“ aussieht, für die sich ihr Verein einsetzt.
V: Frau Witte, Artikel drei des Grundgesetzes behandelt Fragen der Gleichheit bzw. der Gleichheit vor dem Gesetz, der dritte Absatz Diskriminierungsverbote: „Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden.“ Zum 75. Geburtstag des Grundgesetzes hat Ihr Verein Digitalcourage am 23. Mai 2024 eine Petition gestartet, (Digitalcourage 2024a) in der Sie dazu aufrufen, die Reihe der Diskriminierungsverbote zu erweitern. Das Grundgesetz soll künftig verbieten, Menschen, die ein bestimmtes vernetztes Gerät oder eine digitale Plattform nicht nutzen können oder wollen, bei der Grundversorgung zu benachteiligen. Warum halten Sie das für notwendig?
Julia Witte: Man sieht gerade, dass an vielen Stellen Infrastruktur abgebaut wird. Angestoßen wurde bei uns das Thema durch einige Umstellungen bei der Deutschen Bahn (DB). Zuerst hatte die DB angekündigt, dass es die Bahncard in Zukunft nur noch über die App geben soll, also über den DB Navigator. Daraufhin gab es viel Kritik an diesem Vorhaben und die Bahn ist ein bisschen zurückgerudert. Jetzt gibt es auch eine alternative Lösung: Man kann sich den QR-Code ausdrucken, als Ersatz für die Bahncard. Allerdings gibt es diese Alternative nur für Leute, die einen Onlineaccount haben. Man muss also einen Onlineaccount bei der Bahn haben, um eine Bahncard haben zu können. Die Bahn nennt das selbst eine „vorübergehende Alternative“, die Menschen den „Übergang in die digitale Welt erleichtern“ soll. Das ist für uns ein Fall, wo Menschen von der Möglichkeit ausgeschlossen werden, bezahlbare Zugtickets zu bekommen, wenn sie die App oder den Onlineaccount nicht haben wollen – dabei ist Bahnfahren Teil einer Grundversorgung.
Das Ende der Plastikkarte hat die Bahn damit begründet, dass sie Plastik einsparen wollen, was wir für eine Luftnummer halten. Es hätte viele Wege gegeben, wenn es wirklich um das Plastik gegangen wäre. Man hätte beispielsweise für Dauerabonnent:innen eine Karte einführen können, die man nicht ständig austauschen muss. Es gibt auch Chipkarten, die größtenteils aus Holz oder biologisch abbaubarem Material bestehen. Bei der Maßnahme ging es unserer Meinung nach darum, die Leute zur Nutzung der App zu drängen. Auch bei den kostengünstigen Sparpreis-Tickets gab es eine Änderung: Diese Tickets werden an den Automaten gar nicht mehr verkauft und am Schalter sollen Kund:innen jetzt eine Telefonnummer und eine E-Mail-Adresse hinterlegen. Auch das geht in diese Richtung und hat viele Anfragen bei uns zur Folge. Unseres Erachtens völlig zu Recht, denn auch das ist ein Fall von Grundversorgung, die an bestimmte Bedingungen geknüpft wird. Das waren konkrete Auslöser für unsere Initiative.
V: Solche Fälle sind eine neuere Erscheinung?
JW: Das Thema treibt uns schon länger um. Wir haben schon vor ein paar Jahren einen „Digitalzwangmelder“ ins Netz gestellt. (Digitalcourage 2024b) Der Grund war damals die kritische Diskussion der Luca-App während der Coronapandemie: Ist es in Ordnung, wenn eine private Firma massenhaft Daten über die Aufenthaltsorte von Leuten einsammelt und in einer zentralen Datenbank speichert? Wir wollten dann wissen: Wo gibt es noch solche Fälle, in denen man zu einer bestimmten digitalen Lösung genötigt wird, weil man sonst von wichtigen Leistungen oder dem öffentlichen Leben ausgeschlossen ist?
Wir haben sehr unterschiedliche Rückmeldungen bekommen. Auch Amüsantes, wie die Meldung einer Körperfettwaage, die sich sofort mit der Cloud des Herstellers verbinden wollte. Da kann man den Kopf schütteln und sagen, „Okay, schick sie zurück und kauf ein anderes Produkt“. Es gab aber auch Meldungen, die in den Bereich der Grundversorgung gingen und bei denen sich uns die Nackenhaare hochgestellt haben. Das war etwa die Meldung, dass die Post auf Packstationen ohne Display umstellt, die für die Kund:innen nur noch per App bedienbar sind. Dafür haben wir der Deutsche Post DHL Group letztes Jahr einen BigBrotherAward verliehen. (Tangens 2023) Das Szenario ist Folgendes: Ich bekomme ein Paket, bin aber nicht zuhause. Das Paket wird zu einer Packstation umgeleitet, die nach diesem neuen Modell funktioniert und kein Display hat. Ich möchte mein Paket abholen und an der Packstation steht: Bitte laden Sie die App herunter, um Ihr Paket zu bekommen. Wenn ich die App nicht möchte, muss ich eine Neuzustellung beantragen – das Formular dazu ist allerdings auf der Webseite von DHL nicht leicht zu finden. Das ist aus unserer Sicht ein Fall von App-Zwang.
Das also war die Situation, in der wir diese Petition gestartet haben. Der übergeordnete Grund ist, dass sich unserer Meinung nach gerade etwas zusammenzieht: An immer mehr Stellen findet eine gedankenlose Digitalisierung statt, die oft sehr schlecht und wenig inklusiv umgesetzt wird. Und wir haben Sorge, dass ein neuerliches entsprechendes Angebot immer unwahrscheinlicher wird, wenn die analoge Infrastruktur erst abgebaut ist. Bei der Bahn geht es dabei beispielsweise um Serviceschalter und um Fahrkartenautomaten. Wir glauben, dass es keine gute Idee ist, diese Infrastrukturen komplett auf null zurückzufahren.
V: Was genau ist das Problem daran? Dass ein analoges Leben nicht mehr möglich ist?
JW: Ich bin ein bisschen vorsichtig mit dem Begriff „analog“. Es gibt digitale Lösungen, die nicht automatisch sehr viele Menschen ausschließen. Ich habe grundsätzlich kein Problem damit, wenn in einem Bahnhof ein digitaler Abfahrtsmonitor hängt. Klar, es gibt das Resilienzproblem, insofern der Monitor ausfallen kann. Aber das ist ein Beispiel für eine Form von Digitalisierung, die keine Barriere aufbaut in dem Sinne, dass ich ein bestimmtes Endgerät brauche und eine bestimmte App, um den Dienst nutzen zu können.
Im Großen und Ganzen geht es uns um vier Hauptargumente: Das erste ist die Teilhabe. Es gibt Menschen, die bestimmte Dienste nicht nutzen können. Und es wird oft versucht, das mit dem Argument abzutun, dass es nur mehr Schulungen bräuchte, um diesen Leuten beizubringen, wie sie Apps installieren und bedienen. Das sind gute Initiativen. Aber ich glaube, dass man dadurch das Problem nicht vollständig lösen kann, weil es trotzdem zum Beispiel weiterhin Menschen geben wird, die kein Geld für ein Smartphone haben. Es gibt auch Menschen, die eine Krankheit oder Einschränkung haben, wegen der sie bestimmte digitale Geräte oder Dienste nicht nutzen können. Für all diese Menschen muss Teilhabe sichergestellt werden.
Dann ist für uns das Thema Überwachung und Datenabfluss ganz wichtig. Digitalisierung läuft zurzeit leider häufig so ab, dass Anbieter beschließen: „Wir machen jetzt eine App und bieten unsere Services dann nur noch auf diesem Weg an. Und wo wir schon dabei sind, verbauen wir in der App noch ein paar Tracker. Dann können wir zusätzliche Analysen machen. Und wo wir die Daten schon mal haben, können wir sie auch gewinnbringend für etwas anderes nutzen oder weiterverkaufen.“ Diese kommerzielle Überwachung wird immer umfangreicher, jede Verhaltensäußerung wird erfasst. Die Wirtschaftswissenschaftlerin Shoshana Zuboff hat diese Tendenz als „Überwachungskapitalismus“ beschrieben. (Zuboff 2018) Digitalzwang und diese Sammelwut bezüglich alltäglicher Verhaltensdaten gehen oft Hand in Hand.
Eine große Rolle spielt für uns auch das Thema Wahlfreiheit. Ich finde es gruselig, mir vorzustellen, dass ich in vielleicht zwei, drei oder fünf Jahren in einer Welt lebe, in der ich ohne Smartphone nicht mehr aus dem Haus gehen kann. Weil ich ohne Smartphone nicht mehr einkaufen, Zug fahren oder am öffentlichen Leben teilhaben kann – vielleicht nicht mal mehr einen Bus nehmen kann, weil der Abfahrtsplan hinter einem QR-Code versteckt ist. Das ist eine Wahlfreiheit, die ich gerne erhalten würde. Es ist doch eine legitime Entscheidung von Leuten, kein Smartphone zu haben oder vielleicht auch nur ein paar Jahre darauf verzichten zu wollen, oder? Es gibt sehr viele Konstellationen, die dazu führen können, dass Leute sich gegen ein Smartphone oder gegen bestimmte digitale Dienste entscheiden. Ich persönlich möchte zum Beispiel möglichst wenig Google-Dienste auf meinem Handy haben und schon das schließt mich von vielen Möglichkeiten aus. Ich möchte nicht, dass ich in ein paar Jahren nicht mehr Bahn fahren kann, weil ich den Google Play Store nicht auf meinem Handy haben möchte. Wir können doch nicht Leistungen der Grundversorgung davon abhängig machen, dass ich bereit bin, Apple oder Google meine Daten auf dem Silbertablett zu servieren.
Und zuletzt geht es uns auch um Resilienz. Im März 2024 waren mehrere Länder in Afrika ohne Internet, weil ein Unterseekabel beschädigt war. (tagesschau.de 2024) Eine verbreitete Software kann großflächig Probleme verursachen oder die zugrunde liegende Infrastruktur kann ausfallen. Es wäre schön, wenn unsere Gesellschaft in solchen Fällen nicht völlig explodieren würde.
V: Was würde „explodieren“ bedeuten?
JW: Je mehr wir analoge Lösungen abschaffen, desto abhängiger werden wir von bestimmten digitalen Diensten und von durchaus vulnerablen Infrastrukturen. Es geht mir dabei nicht nur um den technisch bedingten Ausfall von Diensten, sondern auch um die Monopolisierung ganzer Bereiche, die uns in Abhängigkeiten treibt. Wenn wichtige Teile unserer öffentlichen Infrastruktur zum Beispiel auf den Angeboten von Google aufgebaut und davon abhängig sind, dann stellt sich die Frage: Welche Möglichkeiten hat zum Beispiel die Europäische Kommission oder das Kartellamt noch, Google zu regulieren? Wenn beispielsweise die Kommission anstreben würde, den Konzern Google aufzuspalten – übrigens eine langjährige Forderung von Digitalcourage (Tangens & padeluun 2013) –, dann könnte Google androhen, bestimmte Dienste in der EU nicht mehr anzubieten und die Behörden hätten eine sehr schwere Verhandlungsposition. Deswegen sollten wir analoge Strukturen an sehr wichtigen Stellen erhalten, und uns zusätzlich bei unserer technischen Infrastruktur nicht völlig abhängig machen von den Monopolisten auf dem Markt, sondern auf freie Software-Lösungen und offene Schnittstellen setzen.
Dafür gibt es auch noch einen anderen guten Grund: Wenn es nur eine einzige digitale Lösung gibt, um an einen wichtigen Dienst zu kommen, dann gibt es keine Konkurrenz. Und damit gibt es wenig Motivation, ein digitales Angebot attraktiv zu gestalten. Wenn eine bestimmte App die einzige Möglichkeit ist, um z.B. an Zugtickets zu kommen, dann ist es egal, wie bedienbar diese App ist, wie wenig dabei auf die Privatsphäre geachtet wird oder wie vertrauenswürdig sie insgesamt erscheint. Die Kund:innen müssen sie nutzen. Auch deswegen setzen wir uns gegen Digitalzwang ein: Ohne solche Zwänge müssen die Anbieter digitale Angebote erarbeiten, die die Leute überzeugen.
V: Sie haben davon gesprochen, dass eine „gedankenlose Digitalisierung“ stattfindet. Das meint eine Digitalisierung, die einem falschen Leitbild der Vereinfachung folgt – und dadurch mit einem Abbau von Wahlfreiheit und Resilienz einhergeht?
JW: Wir dürfen nicht nur darauf schauen, was auf den ersten Blick einfach und bequem für das Individuum zu sein scheint. Wir müssen auch darauf schauen, was für gesellschaftliche Auswirkungen sich ergeben. Mit unserer Kampagne treten wir gegen Digitalzwang ein, aber nicht gegen Digitalisierung oder gegen digitale Angebote. Im Gegenteil: Wir begrüßen digitale Angebote, aber wir möchten, dass noch andere Wege existieren.
V: Befürchten Sie, dass sich dieser Trend zu alternativlosen Digitalgeräten oder Apps fortsetzt und weitere Bereiche der Grundversorgung erfasst?
JW: Ja, absolut. Bei der Deutschen Bahn zum Beispiel sehen wir das als eine Salamitaktik: Erst gibt es nur einige Tickets und Services ausschließlich digital. So kann das Unternehmen sich vorerst noch herausreden und auf andere Tickets verweisen, die noch ohne App erhältlich sind. Aber für die Bahn lohnt es sich natürlich, wenn sie die analogen Wege irgendwann abschaffen kann und diese Infrastruktur nicht mehr erhalten und pflegen, bzw. das Personal dafür finanzieren muss. Da sehen wir auf jeden Fall einen Trend, der sich weiter fortsetzen wird – wenn wir uns als Gesellschaft nicht entschließen, gegenzusteuern.
V: Kostenersparnis ist also auch ein Treiber. Sie haben das Problem der Überwachung und die Gefahr des „Überwachungskapitalismus“ angesprochen sowie die Gefahr der Monopolisierung, von der ja auch im Kontext der Diskussion um den sogenannten „Plattformkapitalismus“ gesprochen wird. Sie hatten im Zuge dessen Maßnahmen der EU erwähnt. Finden Sie solche Maßnahmen wünschenswert?
JW: Ja, selbstverständlich. Ich glaube, da findet gerade auch ein großes Umdenken statt. Ich würde behaupten, dass wahrscheinlich kaum jemand die Maßnahmen, die jetzt im Digital Markets Act (DMA) beschlossen wurden, vor einigen Jahren für politisch realistisch gehalten hätte. Das Gesetz schränkt die Möglichkeiten der ganz großen Tech-Unternehmen ein, ihre Funktion als Türsteher auszunutzen, um eigene Angebote zu bevorzugen und die Spielregeln immer zum eigenen Vorteil zu machen.
Ich glaube, dass dem ein großer gesellschaftlicher Diskurs vorausgegangen ist. Das Bewusstsein für das Manipulationspotenzial, das Konzerne wie Google haben, hat zugenommen. In den USA gibt es eine Strömung progressiver Kartellrechtler:innen, die als „New Brandeis School“ den schädlichen Einfluss von Monopolen auf unsere Demokratien betont. Immer häufiger taucht die Forderung auf – nicht nur von uns –, sehr große Digitalkonzerne zu entflechten. Und zwar nicht als Reaktion auf einzelne Vergehen, sondern weil diese Unternehmen eine so enorme Menge an Informationen über uns angehäuft haben – und damit eine so enorme Manipulationsmacht haben –, dass das nicht mehr mit unserer Demokratie verträglich ist. Im Fall von Google liegt das auf der Hand und auch Amazon ist ja gerade stark unter Druck.
Maßnahmen wie den DMA und auch den Digital Services Act (DSA) finden wir grundsätzlich begrüßenswert. Es wird in den nächsten Jahren spannend, wie schlagkräftig die Durchsetzung dieser Gesetze sein wird.
V: Was hat Ihrer Einschätzung nach zu dieser Verschiebung in der Haltung zu solchen großen Tech-Konzernen geführt?
JW: Neben der unermüdlichen Aufklärungsarbeit, die wir und viele andere gemacht haben, gibt es sicher auch eine Reihe von Enthüllungen, die eine große öffentliche Reichweite bekommen und Bewusstsein für bestimmte Probleme geschaffen haben. Zum Beispiel der Skandal um die Wahlbeeinflussung durch Cambridge Analytica in den USA. Damals ist vielen klar geworden, dass personalisierte Online-Werbung nicht harmlos ist, dass es nicht nur darum geht, dass mir die Turnschuhe angezeigt werden, für die ich mich interessiere, sondern dass solche Werbung auch für gezielte politische Manipulation benutzt wird.
In den Jahren danach ist immer mehr über diesen Werbemarkt aufgedeckt worden. Eines der jüngsten Beispiele ist eine Recherche von Netzpolitik über den Datenmarktplatz Xandr. (Dachwitz 2023) Die Journalist:innen haben sich angeschaut, in was für Kategorien Leute dort eingeteilt werden – und festgestellt, dass die Kategorien nicht nur sehr feingranular, sondern ethisch mehr als fragwürdig sind. Sie können Ihre Werbung an konservative Rentner ausspielen lassen, an Minderjährige, an Betroffene von Brustkrebs, an Menschen mit Essstörungen, mit Geldsorgen, an Glücksspielsüchtige, an Menschen, die sich gerade scheiden lassen oder in der Menopause sind. Ich denke, da wird den meisten Menschen klar, dass diese Art von Kategorisierung nicht in meinem Sinne ist, weil ich dann nette Angebote bekomme, sondern, dass das massenhafte Sammeln solcher sensiblen Informationen für unsere Gesellschaft eine Gefahr darstellt.
Auch das Bewusstsein dafür, dass die Monopolisierung im digitalen Bereich ein Problem ist, steigt. Vorher hatten viele die Überzeugung, dass Google einfach ganz tolle Produkte hat und die Suchmaschine halt die beste ist – ein gerechtfertigtes Monopol sozusagen. Mittlerweile sagen immer mehr Leute, dass der Kipppunkt erreicht ist: Die Google-Suche wird immer schlechter, weil Google die Monopolstellung hat. Es gibt quasi keine Konkurrenz auf dem Markt und Google nutzt seine marktbeherrschende Stellung immer ungehemmter. Bei Amazon ist es vermutlich ein ähnliches Phänomen. Am Anfang haben alle gesagt: „Hurra! Eine Plattform, die alles miteinander verbindet. Wie großartig! Ist das nicht bequem?“ Dann wurden immer mehr kleine Händler aus dem Geschäft gedrängt, indem Amazon gezielt seine eigenen Angebote bevorzugt hat.
Es wird immer offensichtlicher, dass auch im digitalen Bereich Monopole weder der Gesellschaft und unserem demokratischen Frieden dienen noch sind sie marktwirtschaftlich gut. Denn am Ende führen sie auch zu schlechteren Produkten und Diensten.
V: Ihr Verein setzt sich für „eine lebenswerte Welt im digitalen Zeitalter“ ein. Was macht diese lebenswerte Welt im Digitalzeitalter aus?
JW: Ich glaube, das müssen wir in der pluralistischen Gesellschaft immer wieder miteinander neu aushandeln. Ich wünsche mir eine Digitalisierung, die mehr Möglichkeiten und Freiheiten schafft, nicht weniger. Um bei der Bahn zu bleiben und ein positives Beispiel zu nennen: Es gibt Versuche der Bahn mit Video-Schaltern. Das sind Geräte, die z.B. an einem Bahnhof stehen und wenn ich Beratung möchte, wird jemand vom Serviceteam per Video zugeschaltet. Das ist eine digitale Lösung, die auch Leute mitdenkt, die mit Smartphones oder mit Automaten nicht zurechtkommen. Manchmal hat man auch eine Frage, die einem kein technisches Gerät beantwortet und die in einer Computer-Telefonschleife nicht vorgesehen ist. Wenn es nur noch Chatbots mit vorgefertigten Antworten gibt, dann kann ich diese Frage nirgendwo mehr stellen – das ist sehr frustrierend.
In Bezug auf die Bahntickets kann ich mir auch gute digitale Lösungen vorstellen, die mir weniger Zwänge auferlegen. Die Tickets der Deutschen Bahn sind ja im Grunde genommen nur ein QR-Code. Warum soll ich diesen QR-Code in der App der Deutschen Bahn präsentieren? Warum kann sich die Bahn nicht ein System ausdenken, mit dem ich diese Informationen auf beliebige Art vorzeigen kann? Zum Beispiel auf einem uralten Smartphone oder Laptop mit einem PDF-Reader meiner Wahl, auf einem E-Book-Reader oder auf Papier. So könnten freie Open-Source-Apps entstehen, in die Tickets geladen werden könnten und die Fahrpläne anzeigen. Meines Erachtens gibt es keine sinnvolle Begründung, warum Bahnkund:innen genötigt werden müssen, diese eine App zu nutzen.
V: Man könnte seine individuelle Bahncard herstellen…
JW: Genau. Man könnte sich bei vielen Prozessen vorstellen, andere, kreativere Ansätze zu wählen. Der Trend geht aber, wie angesprochen, in eine andere Richtung: Man muss diese bestimmte App nutzen, die man nur im Google Play Store oder Apple Store herunterladen kann. Diese Digitalisierung ist eine Verengung. Das ist nicht die lebenswerte Welt im digitalen Zeitalter, die wir uns wünschen.
Digitalcourage versteht sich als sehr technikaffin. Wir interessieren uns für Open Source, wir haben Lust, mit unseren Geräten herumzuspielen, unser Wissen und unsere Möglichkeiten damit zu erweitern. Aber ich habe den Eindruck, als Gesellschaft verstehen wir uns in Beziehung zu unseren Geräten immer mehr als reine Konsument:innen. Ich möchte aber nicht nur konsumieren, ich möchte mit meinem Gerät selbst etwas machen können. Das ist es auch, was der Begriff „Hacker“ ursprünglich gemeint hat: Die Dinge zweckentfremden, irgendwie ganz anders angehen, neu interpretieren, eine neue Lösung für ein Problem finden. Das Gerät mal kräftig schütteln und gucken, ob man es anders zusammenbauen kann. Ich glaube, dieses Spielerische geht uns gerade verloren. Wir erleben uns in Bezug auf unsere technischen Geräte immer seltener als selbstbestimmt handelnde Personen. Die technische Entwicklung verengt unsere Teilnahme auf, „Da ist der App-Store, da kann man was herunterladen, das kann man dann auf eine bestimmte Weise nutzen“. Vielleicht gibt es dann noch drei Einstellmöglichkeiten, aber unsere Systeme werden tendenziell immer geschlossener und der spielerische Geist geht uns verloren.
Wir sollten Technik wieder mehr als etwas begreifen, das von Menschen geschaffen und veränderbar ist, womit wir uns auch ausdrücken können. Das ist eine wichtige Grundhaltung für viele Lebensbereiche – darauf baut nicht zuletzt unsere Demokratie auf.
V: Seit 1987 begleitet Digitalcourage die Digitalisierung kritisch. Wofür steht der Begriff „Digitalcourage“? Warum bedurfte es dieser Form von Courage? Und wie sieht es heute aus?
JW: Auf die Frage gibt es wahrscheinlich so viele Antworten, wie wir Mitglieder haben. Für mich bezieht sich der Name auf das, was ich Ihnen eben skizziert habe: Die Courage, die Welt – in unserem Fall vor allem die digitale Welt – aktiv beeinflussen und gestalten zu wollen. Eigene Ideen davon zu entwickeln und dafür zu werben.
V: Ihr Verein setzt sich auch für „Digitale Mündigkeit“ ein. Was meint dieser Begriff?
JW: Digitale Mündigkeit bedeutet, Verantwortung für das eigene Handeln im digitalen Raum übernehmen zu können. Das ist ein wichtiges Konzept für uns und wir versuchen auf verschiedene Weise – unter anderem mit Anleitungen und praktischen Tipps – Leute zu ermutigen, sich Wissen und eine gewisse Urteilsfähigkeit über Digitales anzueignen.
Gleichzeitig ist mir bewusst, dass das stark von den jeweiligen Ressourcen abhängig ist, die ein Mensch zur Verfügung hat: zum Beispiel Bildung, Zeit und Geld. Das muss ich alles haben, um mich damit auseinandersetzen zu können. Wenn ich nach einem langen Arbeitstag völlig ausgepowert bin, dann noch mein Kind ins Bett bringen muss, um danach die Küche aufzuräumen und meine Steuererklärung zu machen, dann habe ich wahrscheinlich wenig Energie übrig, um die Funktionsweise meines Messengers verstehen zu lernen.
Deshalb setzen wir uns als Digitalcourage auch dafür ein, dass digitale Grundrechte eingehalten und gestärkt werden. Um ein konkretes Beispiel zu nennen: Wir führen eine Klage gegen die Deutsche Bahn, bei der es um das nicht abwählbare Sammeln und Weitergeben von Trackingdaten in der App geht. Man kann Smartphones so konfigurieren, dass Tracking weitestgehend unterbunden wird. Ein Personenkreis mit bestimmtem Wissen und Fähigkeiten kann so auf technischem Wege seine Privatsphäre wiederherstellen. Aber das reicht nicht. Denn ein Grundrecht zu haben, bedeutet, dass dieses Recht nicht davon abhängig ist, dass ich die Ressourcen habe, es selbst für mich einzufordern. Privatsphäre ist wichtig für unsere Demokratie und steht uns allen zu – unabhängig davon, ob jemand Zeit, Geld und Wissen hat, um darauf zu pochen.
V: Man hört immer wieder, mit der Digitalisierung gehe es in Deutschland nicht schnell genug voran. Und dieser Vorwurf kommt nicht nur von den Stimmen, denen digitale Rechte und Datenschutz nicht am Herzen liegen. Was würden Sie zu einer solchen Kritik sagen?
JW: Dass Digitalisierung nicht schnell genug vorangeht, stimmt und stimmt nicht. Letztlich ist es völlig unterkomplex, von der Annahme auszugehen: je mehr Digitalisierung, desto besser. Digitalisierung ist kein Selbstzweck und hat keinen Wert an sich. Bestes Beispiel: Ich kann ganz viele iPads in Schulklassen verteilen; wenn ich aber kein pädagogisches Konzept dazu habe, dann ist das nicht besser, dann haben die Kinder nur Bildschirme. Es muss eine nützliche Digitalisierung sein, die auf eine gute Art und Weise gestaltet ist. Und es geht nicht darum, das möglichst schnell zu machen, sondern es möglichst gut zu machen. Wenn das zügig geht, dann ist es toll. Es ist wichtig, Digitalisierung nicht als eine Art Naturgewalt zu betrachten, die einfach über uns kommt. Wir müssen sie als einen Prozess begreifen, den wir alle gemeinsam gestalten sollten und gestalten können.
Tangens, Rena (2023): Laudatio zur Preisverleihung an die Deutsche Post DHL Group [Webseite]. https://bigbrotherawards.de/2023/deutsche-post-dhl [29.07.2024].
Zuboff, Shishana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus Verlag.
Zitiervorschlag
Witte, Julia & Eneia Dragomir (2024): Ein Recht auf ein Leben ohne Digitalzwang. In: https://zevedi.de/ein-recht-auf-ein-leben-ohne-digitalzwang/ [28.08.2024]. https://doi.org/10.60805/6fph-8h98
Fehler korrigieren, nicht vermeiden Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen?
Bei der Digitalisierung öffentlicher Leistungen zeigt sich exemplarisch, dass es nicht zielführend ist, wenn Vorhaben zwar formal absolut korrekt durchgeführt werden, aber nicht zu brauchbaren Ergebnissen führen. Faktoren wie Geschwindigkeit, Lernfähigkeit, Adaptivität und Fehlertoleranz sollten hingegen künftig an Bedeutung gewinnen – es braucht ein neues Verständnis von verantwortungsvollem staatlichem Handeln.
Von Benjamin Seibel | 22.08.2024
Mit Adobe Firefly generiert. Prompt: „kubistisches Gemälde; minimalistisch; Stadt, durch die viele verknüpfte Linien verlaufen“.
An einem Nachmittag im Frühjahr 2015 entwickelte ich meine erste Open Data-App.1 Es handelte sich um eine kleine Kartenanwendung für Smartphones, die Menschen mit wenig Geld einen Überblick über staatliche Unterstützungsangebote und Ermäßigungen in Berlin bot. Die App war weder besonders raffiniert noch aufwändig in der Entwicklung, aber trotzdem sehr viel hilfreicher als das, was die Berliner Landesverwaltung über ihre Website an Informationen bereitstellte. Für mich handelte es sich um ein reines Hobbyprojekt, ich hatte Lust gehabt, meine eingerosteten Programmierkenntnisse etwas aufzufrischen und dachte, dann könnte ich mich auch gleich an etwas Sinnvollem versuchen.
Nachdem ich aus verschiedenen Richtungen ermutigendes Feedback erhalten hatte, beschloss ich, das Gespräch mit der zuständigen Fachverwaltung für Soziales zu suchen. Ich wollte vorschlagen, dass man die App zu einem Teil des offiziellen Online-Angebots der Stadt machen könnte. Der freundliche Herr in der Behörde sagte mir, er freue sich immer über bürgerschaftliches Engagement, aber eine Integration in bestehende Systeme sei leider aus verschiedenen Gründen unmöglich. Ich dürfe die Anwendung gerne privat weiter betreiben. Das wiederum wollte ich nicht. Zum einen verursachte die Anwendung laufende, wenn auch überschaubare Kosten und sie benötigte eine regelmäßige Wartung, die ich nicht gewährleisten konnte. Vor allem aber klang mir das nach zu viel Verantwortung: Ein essenzielles Informationsangebot für potenziell hunderttausende hilfsbedürftiger Menschen bereitzustellen, schien mir als gelegentliche Freizeitbeschäftigung ungeeignet. Ich fragte den Beamten, ob es heutzutage nicht Aufgabe des Staates sein müsse, seinen Bürger:innen solche digitalen Angebote zu machen. Er lächelte nur sanftmütig.
1.
In den folgenden Jahren hatte ich Gelegenheit, mich eingehender mit dem Zustand der Digitalisierung im öffentlichen Sektor zu beschäftigen. Ich lernte etwa, dass es in Berlin eine lebendige „Civic Tech“-Community aus engagierten Menschen gab, die wie ich in ihrer Freizeit Ideen oder sogar funktionsfertige Applikationen für ein digitales Gemeinwesen entwickelt hatten, damit aber bei offiziellen Stellen selten Gehör fanden. Und ich lernte auf der anderen Seite eine öffentliche Verwaltung kennen, die zwar für viele Aspekte dieses Gemeinwesens Zuständigkeit beanspruchte, aber selbst regelmäßig an der Entwicklung funktionierender Online-Angebote scheiterte.
Die Vermittlung zwischen beiden Welten erwies sich als schwierig. Auf der einen Seite eine lose Gemeinschaft aus Entwickler:innen, die ein hohes Maß an IT-Kompetenz mitbrachten, aber lieber drauflos programmierten als nach den komplizierten Regeln der Behörden zu spielen. Auf der anderen Seite eine Verwaltung, die im Zustand einer „Paralyse durch Analyse“ gefangen schien. Zwar setzte man sich auch dort intensiv mit dem Thema Digitalisierung auseinander, aber im Ergebnis wurde fast immer nur Papier produziert: Machbarkeitsstudien, Konzepte und Gutachten, wie Digitalisierung aussehen könnte gab es zuhauf. Zu einer tatsächlichen Umsetzung, also zur Entwicklung digitaler Angebote für Bürger:innen, kam es fast nie und wenn, waren die Ergebnisse meist katastrophal.
2.
Im Sommer 2019 gründeten wir aus der Technologiestiftung Berlin heraus das CityLAB, ein gemeinnütziges Innovationslabor für öffentliche Digitalisierung. Inspiriert vom pragmatischen Vorgehen der Civic Tech-Community schlugen wir vor, das Vorgehen bei der Entwicklung digitaler Angebote vom Kopf auf die Füße zu stellen. Das CityLAB ist als Ort konzipiert, an dem die Gestaltung gemeinwohlorientierter Digitalisierung grundlegend anders gedacht und gemacht wird, als es sonst im öffentlichen Sektor üblich ist. Praxisnah und mit einer gewissen unbürokratischen Hemdsärmeligkeit, aber auch partizipativ, offen und von den Nutzenden her gedacht.
Aus einem kleinen Pilotprojekt hat sich das größte Stadtlabor im deutschsprachigen Raum entwickelt: Finanziert durch die Berliner Senatskanzlei arbeiten heute mehr als 35 Beschäftigte im ehemaligen Flughafen Berlin-Tempelhof mit einem großen Netzwerk aus Verwaltungsbeschäftigten, Forschungseinrichtungen und der Stadtgesellschaft an zahlreichen Digitalisierungs- und Transformationsprojekten. Einige unserer erfolgreichsten Angebote, etwa die Plattform „Gieß den Kiez“, die Bürger:innen bei der Pflege von Stadtbäumen unterstützt, oder die KI-Suchmaschine „Parla“, die parlamentarische Vorgänge für ein breites Publikum nachvollziehbar macht, werden heute nicht nur von tausenden Berliner:innen genutzt, sondern auch von anderen Kommunen und Ländern adaptiert.
Ein erster wichtiger Unterschied unseres Vorgehens liegt im so genannten „Rapid Prototyping“. Dabei geht es darum, vielversprechende Ideen innerhalb eines möglichst kurzen Zeitraums zu validieren, und zwar indem man sie einfach ausprobiert. Das mag banal klingen, steht aber dem üblichen Vorgehen der öffentlichen Verwaltung geradezu diametral entgegen. Während in der Verwaltung einem Digitalisierungsprojekt in der Regel eine monate- oder gar jahrelange Phase der Planung, Bedarfserhebung, Prüfung und Abstimmung vorausgeht, ziehen wir die ersten Entwicklungsschritte vor die bürokratische Klammer. Software-Prototypen im CityLAB entstehen binnen weniger Tage oder Wochen und werden anschließend in einem kontinuierlichen Dialog mit der Öffentlichkeit schrittweise verbessert (oder, auch das kommt vor, wieder verworfen).
Das führt direkt zu einem zweiten Prinzip, dem partizipativen Arbeiten „im Offenen“. Weil die digitale Transformation der Stadt alle Bewohner:innen betrifft, ist es wichtig, möglichst viele unterschiedliche Perspektiven einzubeziehen. Das machen wir zum einen über partizipative Prozesse und Austauschformate, die sich teils gezielt an sogenannte „stille“ Zielgruppen richten, also an Menschen, die üblicherweise nicht an klassischen Beteiligungsprozessen teilnehmen (Kinder, Wohnsitzlose, Geflüchtete etc.). Zum anderen durch eine konsequente Ausrichtung an Open Source-Prinzipien, weshalb alle Arbeitsergebnisse des Labs, von Workshopmaterialien über Softwarecode bis zur Projektdokumentation frei lizensiert und verfügbar gemacht werden. Das eröffnet grundsätzlich allen Interessierten die Möglichkeit, an unseren Projekten mitzuarbeiten. Bis heute ist unser Arbeitsplatz in Tempelhof zugleich ein öffentlicher Ort, an dem täglich interessierte Menschen aus Verwaltung und Stadtgesellschaft ein- und ausgehen, um sich über laufende Projekte zu informieren oder einfach gleich mitzumachen.
3.
Trotz Wachstums und einiger sehr erfolgreicher Projekte ist das CityLAB bis heute ein Experiment geblieben. Jeder Entwicklungsprozess dient in erster Linie dazu, mehr darüber zu lernen, wie die Gestaltung gemeinwohlorientierter Digitalisierung an der Schnittstelle von öffentlicher Hand und Bürger:innen gelingen kann. Insbesondere in der Zusammenarbeit mit Verwaltungen führt das bewusste Abweichen von sonst üblichen Prozessen aber nicht nur zu Erkenntnisgewinnen, sondern regelmäßig auch zu Reibungen und Konflikten. Die wiederum haben ihre Ursache auch in unterschiedlichen Vorstellungen davon, was unter „verantwortungsvoller“ Digitalisierung zu verstehen ist.
Für Verwaltungen steht in der Regel die Rechtssicherheit an erster Stelle. Aus geltenden Gesetzen und Vorschriften ergeben sich bestimmte Prozessschritte für die Entwicklung eines digitalen Angebots, die dann einfach sukzessive abgearbeitet werden. Entscheidungen werden nicht in individueller Verantwortung, sondern durch die möglichst objektive Anwendung eines Regelwerks getroffen („es ist zu entscheiden“ statt „wir entscheiden“). Vor der eigentlichen Umsetzung liegt eine detaillierte Phase der Planung, die das Risiko, dass später etwas Unvorhergesehenes passiert, minimieren soll.
Das klingt verantwortungsvoll, führt aber bei der Digitalisierung regelmäßig zu schlechten Ergebnissen. Aufgrund der hohen Komplexität sieht man sich bei der digitalen Produktentwicklung ständig mit Fragen konfrontiert, die noch nicht klar geregelt sind. Ein auf vorschriftsgemäßes Arbeiten ausgerichtetes System neigt hier zur Blockade, weshalb sich Digitalisierungsprojekte der Verwaltung regelmäßig um Jahre verzögern (und dann erst recht nicht mehr zeitgemäß wirken). Noch schlimmer kann es werden, wenn Vorschriften offensichtlich von der Realität überholt sind, aber trotzdem angewandt werden. Die beinah groteske Nutzerunfreundlichkeit mancher digitaler Verwaltungsangebote ist letztlich nur ein Ausdruck der Prozesse, in denen sie entstehen.
Die Alternative, die wir im CityLAB verfolgen, ist die radikale Ausrichtung an den Bedürfnissen und Erwartungen der Nutzenden eines Angebots, die im klassischen Verwaltungshandeln erstaunlicherweise kaum eine Rolle spielt. Weil wir Arbeitsstände frühzeitig veröffentlichen, Zielgruppen einbeziehen und deren Feedback ernst nehmen, verlaufen unsere Entwicklungsprozesse deutlich weniger linear, sondern eher in sich wiederholenden Schleifen aus Entwicklung, Test, Lernen und Veränderung. So nähern wir uns schrittweise einer Lösung, die am Ende auch ganz anders aussehen kann als ursprünglich gedacht.
Die Arbeit mit Prototypen, die noch nicht bis ins letzte Detail „zu Ende gedacht“ sind, sorgt in der Verwaltung immer wieder für Irritationen. Der Verzicht auf eine gründliche Detailplanung zugunsten eines offenen und adaptiven Umgangs mit Überraschungen erscheint aus ihrer Sicht riskant. Wir hingegen sehen in dieser Arbeitsweise einen Weg, Risiken zu reduzieren, weil sie, entsprechende Lernbereitschaft vorausgesetzt, frühzeitige Kurskorrekturen erlaubt. Der Faktor „Zeit“ spielt für uns also – auch das ein Unterschied zum klassischen Verwaltungshandeln – eine zentrale Rolle, denn ob eine Korrektur nach zwei Wochen oder erst nach zwei Jahren erfolgt, ist ein entscheidender Unterschied.
Die dafür nötige Geschwindigkeit lässt sich jedoch nur erreichen, wenn man auch unter unsicheren Rahmenbedingungen und in Ermangelung klarer Vorschriften bereit ist, Entscheidungen zu treffen, die dann natürlich auch falsch sein können. Wichtig ist für uns aber auch nicht das Vermeiden von Fehlern, als vielmehr die Fähigkeit, sie schnell erkennen und korrigieren zu können. Ein grundlegender Wertekonsens, den man gemeinsam reflektieren und weiterentwickeln kann, sowie ein transparenter Umgang mit Unsicherheit bieten dafür oft bessere Grundlagen als ein starrer Vorschriftenkatalog.
4.
In meiner Gegenüberstellung wird eine grundsätzliche Herausforderung sichtbar, mit der sich unsere demokratischen Systeme heute konfrontiert sehen. Denn die Frage, wie öffentliche Institutionen unter sich immer schneller wandelnden Bedingungen überhaupt handlungsfähig bleiben können, stellt sich längst an verschiedenen Stellen mit großer Dringlichkeit. Bei der Digitalisierung öffentlicher Leistungen zeigt sich exemplarisch, dass es nicht zielführend ist, wenn Vorhaben zwar formal absolut korrekt durchgeführt werden, aber nicht zu brauchbaren Ergebnissen führen. Wo hingegen Faktoren wie Geschwindigkeit, Lernfähigkeit, Adaptivität und Fehlertoleranz an Bedeutung gewinnen, benötigen wir auch ein neues Verständnis von verantwortungsvollem staatlichem Handeln, das sich dann vielleicht nicht mehr allein in einem Apparat aus Vorschriften begründen lässt. ■
Anmerkungen
Darunter versteht man digitale Anwendungen oder Webseiten, die von der öffentlichen Verwaltung bereitgestellte oder gemeinfreie Daten nutzen. ↩︎
Zitiervorschlag
Seibel, Benjamin (2024): Fehler korrigieren, nicht vermeiden – Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen? In: Verantwortungsblog. https://zevedi.de/fehler-korrigieren-nicht-vermeiden/ [22.08.2024]. https://doi.org/10.60805/6AXT-FM76
„Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene
Es klingt, als wolle Brüssel sich zur Cyberpunk-Metropole entwickeln: eine Expertengruppe, die nicht so heißen darf, damit man nicht wissen kann, wer ihre Mitglieder sind. Datenzugriff auf Geräte, Services und Infrastrukturen, wann immer „die Sicherheit“ es für nötig erachtet. Einflussnahme auf Industriestandards, damit dies stets in Echtzeit möglich ist. Wenn nicht, müsse man bedauerlicherweise auf Schwachstellen zurückgreifen und Haft verhängen gegen die, die nicht „kooperieren“. Was schon die Bezeichnung – „Going Dark“ – aussehen lässt wie das verbrannte Niemandsland zwischen Neuromancer und V for Vendetta, hat einen administrativen Namen: „High-Level Group on Access to Data for Effective Law Enforcement“, eingesetzt 2023. Die weitreichenden Vorschläge dieser EU-Arbeitsgruppe wurden von der ungarischen Regierung als „beeindruckend und zukunftsweisend“ bewertet. Sie sollen Schwerpunkt der aktuellen Ratspräsidentschaft werden. Und in Geschichte und Gegenwart dieser Entwicklung immer mitten drin: wissenschaftliche Infrastrukturen.
Von Renke Siems | 13.08.2024
Mit Adobe Firefly generiert. Prompt: „kubistisches Gemälde; minimalistisch; offene Scheunentore in ein Smartphone hinein“.
Demokratie hat ihre Paradoxien. So verwies Christian Stöcker im ZEVEDI-Podcast Digitalgespräch (Stöcker 2024) kürzlich darauf, dass in einer Demokratie das Lügen nicht grundsätzlich verboten werden könne, denn um so ein Verbot durchzusetzen, bräuchte es eine zentrale „Wahrheits-Behörde“, und dann hätte man keine Demokratie mehr, sondern ein totalitäres Regime. Eine Gesellschaftsform, die ihre Entwicklung grundlegend aus einem vernunftgeleiteten Diskurs gemeinsamer besserer Einsicht bezieht, kann sich damit nur begrenzt gegen die Manipulation ihrer Grundlagen wehren, sondern ist auf Workarounds angewiesen, was mal besser und – in Zeiten von Trollarmeen und News Deserts – auch mal schlechter funktioniert. Eine freiheitliche Demokratie ist somit in ihren Strukturen mit einer gewissen Notwendigkeit fragil, und wir mussten es in unserer Geschichte ja auch schon erleben, dass sie sogar auf mehr oder weniger demokratische Weise abgeschafft werden kann. Das war ein Extrem, es gibt jedoch auch (bislang) nicht so weitreichende und eher schleichende Prozesse, worin Grundrechte mithilfe von Grundrechten bekämpft werden. Prozesse dieser Art prägen unsere digitale Welt seit Jahrzehnten.
Digitales Law enforcement
Ein Großteil dessen, was den aktuellen Konflikt in Brüssel ausmacht, hat seinen Ursprung in den 1980er Jahren mit einem Kokain-Schmuggler, der die Seiten wechselte.1 Als Hank Asher – ein in Europa wenig bekannter Daten-Pionier – sein Business zu heiß wurde, bot er sich der Drug Enforcement Administration (DEA) als Informant an. Dort fand er seine Berufung, denn die DEA war eine der ganz frühen law enforcement agencies, die mit einer zentralen Datenbank arbeitete: Verdächtige wurden im System erfasst, bekamen einen Identifier und blieben dort für immer gespeichert. Asher lernte schnell, besorgte sich Hardware und machte 1992 seine eigene Firma auf. Als Kunden hatte er zunächst die Versicherungswirtschaft im Blick, der er das verkaufen wollte, was heute ein Teil der digitalen Risk Solutions ist: Daten, mit denen sich Schadensereignisse vorab kalkulieren und am besten auch gleich noch Prozesse automatisieren lassen. Bei der Sammlung von Führerschein- und Kennzeichendaten begriff er dabei etwas, was man die Grundrechtsschleife nennen kann, die alle Data Broker seit ihm ausnutzen: Datenschutz- und Informationsfreiheitsgesetze gab es zwar schon seit Jahrzehnten, aber die Rechte, die sie begründeten wie die informationelle Selbstbestimmung, waren so konzipiert wie etwa die Wissenschaftsfreiheit auch – als Abwehrrecht gegenüber dem Staat. Der Staat sollte keine Geheimnisse vor den Bürgern haben können, aber die Bürger gegenüber dem Staat. Hank Asher war nun nicht der Staat, also suchte er sich eine Anwältin und begann, die Daten aus den öffentlichen Stellen herauszuholen: Fahrzeughalter, Standesamtsdaten, Schwerbehinderungen, Immobilien, Konzessionen, Adressänderungen, Insolvenzen schwemmten in seine Server, wurden zu Personenprofilen aufbereitet und seinen Kunden angeboten. 1997 erfolgte der Dammbruch und er bekam auch Daten von Kreditkarten- und Versorgungsunternehmen. Damit war Ashers Produkt AutoTrack unhintergehbar geworden, denn all die Mechanismen, die wir heute z.B. gegen das Tracking der digitalen Werbung ins Feld führen, griffen in diesem Universum harter Echtzeitdaten nicht: es gibt kein Opt-Out gegenüber dem Standesamt, das meine Eheschließung beurkundet, und kein Recht auf Vergessen gegenüber dem Energieversorger, der in diesem Moment meinen Rechner mit Strom versorgt.
Diese Unausweichlichkeit führte Asher wieder zum law enforcement zurück, nun als interessierte Kunden – beginnend mit Leigh McMorrow, einer IT-Mitarbeiterin von einem benachbarten Police Department, der er sein Produkt vorführte.
„‚How are you doing that?‘ she wondered aloud. He explained that he was gathering public records to build a product for the insurance industry. ‚I was just so flabbergasted‘, McMorrow says. ‚The minute he showed it to me, I’m like, my God, oh my God. I said ‚You’re sitting on a gold mine. Law enforcement will eat this up with a spoon.‘“ (Funk 2023, 73)
So kam es dann auch und die Grundrechtsschleife zog sich zu: der Staat, der keine Geheimnisse haben durfte, mietete sich den Zugang zu denen seiner Bürger über außerstaatliche Third Parties. In der Welt nach 9/11 entwickelten sich data fusion solutions zu einem Multimilliardenmarkt mit jährlichen Wachstumsraten von 15 bis 20 Prozent (Verified Market Research 2024, Chemical Industry Latest 2023) überboten nur von den explosionsartigen Datenmengen, die aus Social Media und Werbetracking hinzukommen. Auch die Anwendungsgebiete wuchsen, wenn z.B. Gesichtserkennung als digitales Instrument zur Überwachung der Offline-Welt eine neue Unentrinnbarkeit erzeugt: „You could delete your social media account. You could leave your phone at home. You couldn’t leave your face at home.“ (Funk 2023, 197) Data Fusion führt dabei nicht nur zu Profiling, sondern sowohl im staatlichen wie Wirtschaftsbereich zu immer mehr Scoring. Was in China der social credit score, sind in der westlichen Welt eine immer größere Reihe an Scores: renter scores, juror scores, voter scores, customer-lifetime-value scores, welfare-benefits scores – und in der Pandemie dann noch socioeconomic health scores, die Maßnahmen und Verteilung von Ressourcen begründeten.
Wenngleich der Markt für Data Fusion groß ist, sind die relevanten Marktteilnehmer eher überschaubar in der Anzahl und einige Marktführer davon auch in der Wissenschaft sehr bekannt: RELX (der Mutterkonzern von Elsevier), Thomson Reuters, Clarivate und Palantir. Warum teils so bekannte Wissenschaftssupplier hier vorne dran sind, hat seine Ursache in der Digitalisierung der Wissenschaft: Elsevier z.B. hatte in den Jahren um 2000 noch eine erdrückende Papierquote bei seinen verlegten Zeitschriften. Der Verlag suchte in der Furcht, vom aufstrebenden Internet überrollt zu werden, nach einer Alternative und als Hank Asher gesundheitlich zusehends ausbrannte und seine Firma zum Verkauf stand, griff Elsevier zu und fusionierte Ashers Erbe mit dem eigenen Datendienst LexisNexis. Auch in Palantir wurde bereits 2006 investiert. (RELX 2021)
Seitdem wachsen führende Anbieter für wissenschaftliche Services in den Risk Solutions-Bereich hinein, liefern Datenprodukte für Predictive Policing (Wang et al. 2022) und übertragen die Arbeitsweisen dieses Bereichs immer mehr in die Wissenschaft. Vor Jahren hat die DFG bereits über das Datentracking in der Wissenschaft berichtet und wie die vormaligen Verlage nun als Data Analytics-Unternehmen ihre Plattformen mit Überwachungstechnologien ausstatten (DFG 2021) – nur um aktuell festzustellen, dass sich bei den Verhandlungen zu den großen DEAL-Verträgen nur teilweise ein rechtskonformer Zustand herstellen ließ. (Altschaffel et al. 2024) Seit langem an ein Scoring mit fragwürdigen Indikatoren gewöhnt, lässt sich die Wissenschaftsgovernance nach dem Muster von law enforcement jetzt international „Research Intelligence“ anbieten und greift zu – ohne dass anscheinend groß überlegt wird, was die Gewinnung dieser „Insights“ für Forschende an Gefährdungen bedeutet, welcher Wissens- und Technologieabfluss dadurch möglich wird und welche neuen Möglichkeiten sich auch für die Merchants of Doubt bieten, mit diesen Strukturen und Anreizsystemen die Wissenschaft in den gleichen Morast zu führen, in dem ein großer Teil des Nachrichtenwesens schon liegt und der auch hier dazu führen kann, die vormals gemeinsame Faktengrundlage durch den Wettkampf konkurrierender Narrative zu ersetzen (Siems 2024b) und wissenschaftliche Infrastrukturen immer näher an den fantasy industrial complex heranzuführen, den Renée DiResta beschreibt. (DiResta 2024)
Und nun die EU?
Die EU-Initiative „Going Dark“ ist auf diesen Boden gewachsen und anscheinend dafür angetreten, die Entwicklung nochmals zu eskalieren. Getrieben von der Befürchtung, aufgrund der Verbreitung und der Fortschritte bei Verschlüsselungstechnologien könnte die Strafverfolgung erblinden – eben „going dark“ – wurde die eingangs benannte High Level Group unter der schwedischen Ratspräsidentschaft im Juni 2023 eingesetzt. (European Commission 2023) Die Gruppe sollte ursprünglich vielfältige Perspektiven einbringen, nicht nur law enforcement und criminal justice, sondern auch data protection und privacy, cybersecurity, private sector, non-govermental organisations, und academia. Dazu scheint es nicht gekommen zu sein – die High Level Group versank gleichsam selbst ins Dunkel – (FragDenStaat 2023) Mitgliederlisten wurden geschwärzt, und abgesehen vom Europäischen Datenschutzbeauftragten als Gast scheint law enforcement und dessen Umfeld unter sich zu sein. Die wesentlichen Schritte der Expertengruppe stehen nun im Zeitraum der ungarischen Ratspräsidentschaft an: die Veröffentlichung der Empfehlungen (European Commission 2024) fällt ins direkte Vorfeld, im Verlauf des Herbsts erscheint der Schlussbericht und wird auch das Arbeitsprogramm der neuen Kommission veröffentlicht. Abschließend tagt im Dezember auch noch der Rat der Europäischen Union mit einem Austausch zum Thema (Council of the European Union 2024). Ungarn hat „retention and access to law enforcement data“ ausdrücklich in sein Arbeitsprogramm aufgenommen. (Hungarian Presidency 2024)
Die „Going Dark“-Gruppe setzt für ihre Arbeit drei Schwerpunkte: Zugang zu den Daten auf Endgeräten, Zugang zu den Daten, die bei den Providern liegen, und Zugang zu den Datenflüssen. Ein besonderer Schwerpunkt liegt auf den Over-the-top (OTT)-Services, die in Konkurrenz zu den traditionellen Kommunikationsdiensten stehen wie Messaging und Videotelefonie. Internationale Kooperation auch außerhalb der EU wird hervorgehoben, hier werden die USA genannt. Sehr viel Wert legt die Gruppe auch darauf, ihre Vorstellungen mit bereits bestehenden Regulierungen zu verknüpfen, mehrfach wird dabei der Digital Services Act als Ansatzpunkt genannt.
Hinsichtlich der Gerätedaten beklagt die Gruppe die mangelhafte Kooperation der Hersteller mit law enforcement, weshalb es sehr schwierig sei, legal Daten aus dem Gerät herauszuholen und unverschlüsselt mit den nötigen Metadaten gerichtsverwertbar zu machen. Zentral seien daher zwei Dinge: law enforcement müsse zum einen mehr Einfluss als bislang auf die Standardisierungsgremien nehmen und damit Protokolle, Schnittstellen und technische Architekturen formen, damit künftige technische Standards von Beginn an entsprechend entwickelt werden. Zum anderen sollten der Industrie, wenn sie nicht freiwillig kooperiere, dann eben Verpflichtungen auferlegt werden.
Bei den Providerdaten kommt unweigerlich das Thema Vorratsdatenspeicherung auf den Tisch, das mit Nachdruck und ausführlich behandelt wird weit über klassische Telekommunikationsdienste hinaus: insbesondere OTT-Services sollen „Transparenz schaffen“ über die Daten, die bei ihnen anfallen, verarbeitet und gespeichert werden. Interessanterweise werden auch Autohersteller dabei als communication service betrachtet und Instrumente diskutiert, um bei denen Compliance zu erzwingen, die heute von der „Connectivity“ ihrer neuen Modelle schwärmen, und davon den Zugang zum europäischen Markt abhängig zu machen. Diskutiert wurde ebenso „the opportunity to legislate on data already in the possession of providers for business purposes.“ Das kann nun vieles bedeuten: Zugriff auf die Nutzerdaten in der Breite, wie sie etwa der Data Act versteht, oder auch Zugriff auf die Datenbestände der Data Broker, denn auch deren beliebtestes Produkt Lokalisierungsdaten werden in diesem Zusammenhang angesprochen.
Datenflüsse stellen für die Gruppe die Anforderung, mit großen Datenmengen in Echtzeit umzugehen. Auch hier soll deshalb Einfluss auf Standardisierung genommen werden, etwa bei 5G/6G. Bei unkooperativen Providern müsse man wohl weiterhin auf die Nutzung von Schwachstellen zurückgreifen, hier und insgesamt wäre daher Verschlüsselung sehr im Weg: „law enforcement authorities need to have a pre-established lawful access to readable data“ – daher sind Initiativen wie Apples Private Relay gar nicht gerne gesehen.
Im Einzelnen schlagen die Empfehlungen dann u.a. mehr Geld für Forschung und Entwicklung zur Datenbeschaffung vor (Nr. 4), Verbesserung der Schwachstellennutzung (Nr. 6), Einbindung der Wissenschaft (Nr. 8), Ausbau der Fähigkeiten, große Datensätze in Echtzeit zu übertragen (Nr. 9) und – in Ergänzung zu Nr. 6 – anscheinend das gezielte Knacken von Geräten und Services, wenn man anders an die Daten nicht herankomme (Nr. 10). Der Einfluss auf technische Standards soll das gesamte Spektrum des Internet of Things abdecken wie etwa connected cars und auch Satellitenkommunikation (Nr. 20). Hersteller von Hard- und Software, aber auch Cybersecurity, Datenschutz- und Standardisierungsexperten sollen insgesamt verstärkt eingebunden werden in eine „technology roadmap“, „in order to implement lawful access by design in all relevant technologies in line with the needs expressed by law enforcement“ (Nr. 22). Ziel ist ein „EU-level handbook“ der einschlägigen Gesetzgebung (Nr. 25), „a harmonised EU regime on data retention“ (Nr. 27) und auch eine Harmonisierung der strafrechtlichen Werkzeuge, Kooperation zu erzwingen, bis hin zur Inhaftierung (Nr. 34). Dabei sind insgesamt Zentralisierungsbestrebungen weg von den Mitgliedsstaaten hin zu EU-Einrichtungen festzustellen, die z.B. als „Single Point of Contact“ gegenüber Unternehmen dienen sollen.
Angesichts dessen, dass hier offenkundig keine Snowflakes am Werk waren und die Pläne weit über das hinausgehen, was bislang unter dem Label Chatkontrolle Furore machte, ist das öffentliche Echo auf dieses ausufernde Überwachungspaket bislang erstaunlich dünn. Das Arbeiten im administrativen Untergrund, ein Thema, das in seiner technischen Komplexität für klassische Presseberichterstattung meist eher unattraktiv ist, und ein offenbar ebenso stiller wie weitreichender Konsens unter vielen Mitgliedsstaaten trugen dazu bei, dass bislang kein breiter Diskurs entstanden ist, obwohl schlichtweg jede und jeder in einem europäischen Land betroffen sein wird. Es sieht so aus, als wenn die europäische Öffentlichkeit im Bereich Überwachung, über den schon so lange gestritten wird, mittlerweile einen Ermüdungsbruch erlitten hat.
Was geschieht?
Bislang widmen sich dem Thema hauptsächlich ausgewählte Tech-Presse wie Netzpolitik und Europaparlamentarier. Hier ist insbesondere Patrick Breyer hervorzuheben, der hartnäckig dieses Thema verfolgte2 – nur damit die EU-Kommission eine Anfrage von ihm monatelang ignorierte, bis er nach den Wahlen jetzt aus dem EU-Parlament ausscheidet. (European Parliament 2024) Fasst man die digitalaktivistische Kritik dabei bewusst überspitzt zusammen, steht hier der Vorwurf einer „Stasi 4.0“ im Raum: ein völlig von der Kette gelassener Sicherheitsapparat, der keinerlei Interesse mehr daran hat, sich von Grundrechten und bürgerlichen Freiheiten einhegen zu lassen. Ob man die Kritik in ihrer Schärfe teilt oder nicht – man wird beim Blick auf den Maßnahmenkatalog zugeben müssen, dass dieser in höchstem Maße invasiv ist – law enforcement will in den Fahrersitz, und zwar allein. Und wenn im Empfehlungspapier wiederholt darauf rekurriert wird, dass dies alles die Ende-zu-Ende-Verschlüsselung nicht schwächen werde und Datenschutz und Privacy gesichert seien, so wird das zu werten sein wie die „Technologieoffenheit“ in der Klimapolitik: ein dekoratives Wording, das zur Sache nichts beiträgt, sondern ablenken soll.
Zu beachten ist auch, dass „Going Dark“ an sich schon wenig mit der Wirklichkeit zu tun hat, sondern vor allem ein sorgfältig gepflegter politischer Mythos ist. Immer wieder haben hochrangige Studien wie vom Berkman Center for Internet and Society an der Harvard University belegt, dass die Befürchtungen wenig fundiert sind. (Berkman Center 2016) Strafverfolgungsbehörden stehen heute ein Vielfaches an Informationen zur Verfügung als ehedem und sie erzielen entsprechende Ermittlungserfolge. Teils wird dabei auf durchaus „kreative“ Lösungen zurückgegriffen, wie bei der von Joseph Cox erzählten Geschichte der gesicherten Kommunikationsplattform Anom, die sich in der organisierten Kriminalität verbreitete mit dem kleinen Haken, dass sie verdeckt vom FBI betrieben wurde. International konnten Behörden ihre Kundschaft wie im Goldfischglas beobachten und zuschlagen. (Cox 2024) Aber auch dort zeigten sich bereits die Grenzen, da dieser honey pot so erfolgreich war, dass er aus dem Ruder zu laufen begann, ebenso wird die Verwertbarkeit der Beweise vor Gericht vielfach in Frage gestellt.
Der Maßnahmenkatalog rollt letztlich auch alle Debatten wieder auf, die z.B. bei den Verhandlungen zum Data Act geführt wurden hinsichtlich des Schutzes von Geschäftsgeheimnissen. „Access by Design“ hieße Zugriff nach Bedarf auf Services, Konsumgüter, Industrieproduktion, Forschung & Entwicklung. Sind wir sicher, dass etwa die Automobilhersteller in Europa dies mit Begeisterung mittragen werden? Setzt sich dies dennoch durch, wäre damit auch die so aufwendig erarbeitete Europäische Datenstrategie diskreditiert, nachdem bislang schon den in den Maßnahmen als Anknüpfungspunkt genannten Digital Services Act wie ein Schatten die Vorwürfe verfolgten, hinter der rechtstaatlichen Fassade autoritären Entwicklungen Vorschub zu leisten. (z.B. European Digital Rights 2022)
Entscheidender sind aber dennoch die Aussichten für die Bürgerinnen und Bürger in Europa, die im Gegensatz zu denen der Sicherheitsbehörden tatsächlich sehr düster sind. „A VPN won’t help either“, erklärt Jan Jonsson von Mullvad. „It would mean total surveillance and that Europe’s inhabitants carry state spyware in their pockets.“ (Jonsson 2024) Was hierbei noch wenig diskutiert wird, ist, dass im Ernstfall das reine Ausmaß der invasiven Eingriffe zu riesigen Datenmengen und entsprechendem Bearbeitungsbedarf führen wird und damit dazu, dass law enforcement neuerlichen Bedarf für vertraute Dienstleister schaffen wird: Palantir ist schon in die deutsche Sicherheitsinfrastruktur hineingewoben, obwohl die fortlaufenden Gerichtsverfahren zeigen, dass sich dort das Schaffen von Tatsachen mehr auf den Datenzugriff als von validen Rechtsgrundlagen bezieht. (Abbe 2023) LexisNexis hat bereits Zugang zur Europäischen Datenstrategie, indem es in den Bereich der Mobilitätsdaten eingedrungen ist. (LexisNexis Risk Solutions 2020) Während die großen Plattformen wie Google, Amazon und Microsoft sich in den letzten Jahren immer mehr zu military contractors entwickelt haben,3 haben die spezialisierten Plattformen – das dem Wissenschaftsbereich entsprungene „GAFAM der kuratierten Information“ – parallel sich mit ihren data fusion solutions immer weiter den Markt der inneren Sicherheit erobert. Dabei ist die fachliche Bilanz dieser Firmen überaus durchwachsen: hatte Sarah Lamdan bereits für den Wissenschaftsbereich analysiert, dass die von ihr so genannten „Datenkartelle“ mit dem starken Anwachsen der Datenmengen und der Einführung von KI-Anwendungen keineswegs bessere Leistungen erzielen (Lamdan 2022), so referiert McKenzie Funk Berichte des US-Senats, die unzählige Datenschutzverstöße feststellten, „but – despite an estimated billion dollars in taxpayer support – no evidence they had helped stop any terror attacks.“ (Funk 2023, 184) Stattdessen füllen sich Abschiebezentren durch data driven deportation vorzugsweise mit den einfach zu findenden Personen: Mütter, die vor ihren kleinen Kindern verhaftet werden, Schüler, Arbeitnehmer im Betrieb – und ebenso Gefängnisse mit denen, die einer falschen Evidenz zum Opfer fallen. Funk erzählt beispielsweise die Geschichte von John Newsome, den die schlampige Bedienung von LexisNexis um seine mühsam aufgebaute Existenz brachte. Er schaffte es, kein Schuldgeständnis zu unterschreiben und einen Anwalt zu bekommen, daher sieht er sich als begünstigt an, denn „there’s plenty of people that could tell you the story that I’m telling you right now. But they’re gonna tell it to you, and the ending of theirs is gonna be like, ‚and when I got out of jail fifteen years later…‘“ (Funk 2023, 189)
Was man heute „AdInt“ nennt, die Verschmelzung von Werbetracking und Risk Solutions zu einer „Advertising Intelligence“, ist dabei besonders fehlerträchtig (Meineck/Dachwitz 2024) und zugleich die prominenteste Form einer unheimlichen Allianz von Tech-Industrie und Politik auf dem Weg zu immer mehr Überwachung. (Tau 2024) Die mit den Risk Solutions verknüpfte Data Broker-Branche gilt dabei mittlerweile selbst als „hidden security crisis“ (Cracked Labs 2023): Beschäftigte in kritischen Infrastrukturen, Militärangehörige, Mitarbeiter von Nachrichtendiensten lassen sich in den zügellos gehandelten Daten identifizieren, ihre Bewegungsmuster und Alltagshandlungen nachvollziehen. (Brunner et al. 2024, Meineck/Dachwitz 2024) Dies gilt auch für die Wissenschaft, denn im „Xandr“-Leak vergangenes Jahr zeigten sich auch Belege dafür, dass etwa LexisNexis Daten von geschützten Berufsgruppen wie Anwälte und Forschende an den Data Broker LiveRamp weitergab,4 ebenso sammeln die auf den Wissenschaftsplattformen verankerten Tracker, Fingerprinter und Audience Tools fortlaufend Daten. (Siems 2022) Das bedeutet nicht nur ein Risiko für die Personen, sondern da diese Daten sehr breit und niederschwellig zu bekommen sind, ist es auch ein Risiko für Forschungs- und Technologieabfluss. Während die G7 in Sachen Wissenschaftsspionage um ihre Position zu China ringen und dabei diplomatische Verärgerung riskieren, (Gabel 2024; Directorate-General for Research and Innovation 2024) stehen die virtuellen Scheunentore zu sensiblen Daten hochgezüchteter Forschungsteams die ganze Zeit sperrangelweit offen.
Ein – nicht nur wissenschaftspolitischer – Schluss
Wenn Risk Solutions damit selbst so große Risiken beinhalten – was ist dann die Motivation von „Going Dark“? Warum dieser unbedingte Wille, demokratiefeindliche Maßnahmen durchzusetzen? Gibt es den vielberufenen Systemwettbewerb zwischen China und der westlichen Welt am Ende gar nicht, weil eigentlich alle chinesisch werden und Kapital und Kontrolle maximal glücklich verbinden wollen? Vielleicht muss man nochmal zum Beginn der Geschichte zurückkehren, wo Hank Asher der Polizistin McMorrow das erste Mal AutoTrack vorführte. Sie sorgte für eine Demo in ihrem Police Department und es geschah genau das, was sie sich gedacht hatte: „The chief, the deputy chief, all the detectives […] freaked out over it, absolutely freaked out over it.“ (Funk 2023, 73) Data Fusion hat eine starke Verführungskraft durch ihren Glanz der (scheinbaren) Evidenz und weil die Sicherheitsbehörde überdies damit alle rechtstaatlichen (und damit anstrengenden) Checks & Balances überspringen kann: man braucht keinen richterlichen Untersuchungsbeschluss mehr, man muss sich keinen Fragen mehr stellen, alles, was man will, kann man per data shopping on the fly bekommen – ein All you can eat für Personendaten. Als Behörde muss man auch sich selbst und die vielleicht nicht mehr so ganz zeitgemäßen Arbeitsformen und das behördliche Gestrüpp nicht in Frage stellen, denn Data Fusion legt einem ja trotzdem alles glänzend vor die Füße. Dass es voller Fehler ist, kann man ignorieren, trifft ja schließlich nicht die Anwender, sondern die Verzeichneten wie den Bibliothekar Shea Swauger, der im Selbstversuch sein Profil aus dem LexisNexis-Konkurrenten Thomson Reuters herausholte: 41 Seiten detailliertester Informationen – aber bis hin zum Geschlecht eben auch vielfach falsch.5
Wenn wir im Kontext von „Going Dark“ von Verantwortung sprechen, reden wir damit nicht nur über die Freiräume von Wissenschaftlerinnen und Wissenschaftlern, sondern zugleich von den grundlegenden Rechten der Bürgerinnen und Bürger sowie auch von den grundlegenden Funktionen und Prozessen unserer Gesellschaft. Das kann die Wirtschaft sein, das kann unser Miteinander schlechthin sein – aber reden wir auch ausreichend darüber, was das alles für die Wissenschaftsfreiheit bedeuten soll, wenn künftig alle Geräte, die in Labor und Büro stehen, quasi eine Standleitung zum law enforcement haben sollen? Alle Services, die (auch) Forschende nutzen, eine Mitwirkungspflicht zur Verfolgung haben? Wie sollen sich Forschungsdateninfrastrukturen weiterentwickeln, an denen ein Großteil der künftigen Wertschöpfung hängt, aber auch von digitaler gesellschaftlicher Entwicklung insgesamt? Wie soll noch zu Datenaltruismus motiviert werden, wenn ehrlicherweise alle nur antworten könnten: „Vielen Dank – hab schon gespendet!“
Es ist damit in verschiedener Hinsicht durchaus fraglich, wo hier etliches sowohl im Dunkeln wie auch im Argen liegt. ■
Hinweise
Die Darstellung hier folgt Funk 2023 und meiner Rezension des Buches in der Bibliothekszeitschrift o-bib (Siems 2024a), aus der auch einige Sätze für diesen Beitrag übernommen wurden. ↩︎
Vgl. die von ihm erstellte Themenseite unter Breyer 2024. ↩︎
Vgl. Keegan/Eastwood 2023 und das dort verlinkte GitHub-Repository. ↩︎
„To wrap it up, @Westlaw, through CLEAR, collects a shit ton of data about you. They share it with law enforcement, including @ICEgov, and anyone who has enough money to buy CLEAR. And for most people, there’s nothing you can do about it”. (Swauger 2019) ↩︎
Altschaffel, Robert u.a. (2024): Datentracking und DEAL – Zu den Verhandlungen 2022/2023 und den Folgen für die wissenschaftlichen Bibliotheken. In: Recht und Zugang, 2024, Heft 1, S. 23-40. https://doi.org/10.5771/2699-1284-2024-1-23.
European Parliament (2024): Transparency of High-Level Expert Group on access to data for effective law enforcement, Question for written answer E-001335/2024 to the Commission, Rule 138, Patrick Breyer (Verts/ALE) [25.04.2024], https://www.europarl.europa.eu/doceo/document/E-9-2024-001335_EN.html [22.07.2024].
Siems, Renke (2024a): Rezension zu: Mckenzie Funk: The Hank Show: how a house-paintig, drug running DEA informant built the machine that rules our lives. In: o-bib. Das offene Bibliotheksjournal 11 (2024) Nr. 1. https://doi.org/10.5282/o-bib/6021
Siems, Renke (2024b): Subprime Impact Crisis. Bibliotheken, Politik und digitale Souveränität. In: Bibliothek Forschung und Praxis 2024. https://doi.org/10.1515/bfp-2024-0008.
Siems, Renke (2022): Das Lesen der Anderen. Die Auswirkungen von User Tracking auf Bibliotheken. In: o-bib. Das offene Bibliotheksjournal, Bd. 9 (2022), Nr. 1; https://doi.org/10.5282/o-bib/5797.
Wang, Nina/Allison McDonald/Daniel Bateyko/Emily Tucker (2022): American Dragnet: Data-Driven Deportation in the 21st Century, Center on Privacy & Technology at Georgetown Law [10.05.2022], https://americandragnet.org/ [22.07.2024].
Zitiervorschlag
Siems, Renke (2024): „Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene. In: Verantwortungsblog. https://zevedi.de/going-dark-datentracking-und-datenzugriff-auf-europaischer-ebene/ [13.08.2024]. https://doi.org/10.60805/p7w9-d268
Viele Mythen ranken sich um die Künstliche Intelligenz. Einer davon ist der Non-Bias-Mythos: die Vorstellung, dass es vor allem mehr und bessere Daten bräuchte, um Maschinen ein vorurteilsfreies Handeln zu lehren. Doch wir sollten skeptisch sein.
Von Matthias Brandl & Johannes Lenhard | 06.08.2024
Erstellt mit Adobe Firefly. Prompt: Painting of a tower made of data cables; yellow tones.
Sie müssen ihr Kind zur Betreuung geben, um eine wichtige Konferenz über künstliche Intelligenz zu besuchen. Ausgerechnet jetzt wird die KiTa bestreikt. Wem vertrauen sie ihr Kind an? In einem Blog über AI und Verantwortung liegt die Frage nahe, ob sie einer intelligenten Maschine vertrauen würden. Aber darauf wollen wir (vorerst) nicht hinaus. Wie wäre es stattdessen mit einer menschlichen Professorin für Sozialpädagogik? Also eine echte Expertin, sogar spezialisiert auf die Altersgruppe ihres Kindes und zudem dekoriert mit einem Wissenschaftspreis für ihren Aufsatz zur adäquaten Kurzbetreuung von Kindern. Ein kleines Problem gibt es: Die Professorin lebt in einer Jugendstil-Villa (mitsamt ihrer Bibliothek) und da sie ihren Wohn- und Arbeitsort selten verlässt, müssten sie also das Kind dort hinbringen. Ist aber nicht weit vom Workshop. Würden sie das tun?
Sie zögern? Fügen wir also eine gehörige Dosis an Idealisierung hinzu: die Professorin hat wirklich alles gelesen, kann auf ihr angelesenes Wissen jederzeit zugreifen, ohne je etwas zu verwechseln oder zu vergessen. Sie hat zudem direkten Zugang zu allen relevanten Datenbanken mit sämtlichen Messungen und aktuellen Studienergebnissen. Wenn man so will: eine stets aktualisierte Bibliothek bietet der Professorin eine perfekte Datengrundlage für eine vorurteilslose und verantwortungsvolle Betreuung ihres Kindes. Sie zögern noch immer? Oder sie zögern jetzt erst recht? Seltsam. Oder vielleicht gar nicht seltsam. Unsere Intuition sagt uns, dass kein Buchwissen – und sei es noch so profund und aktuell – ausreicht (und vielleicht nicht einmal nötig ist), um einer Person das eigene Kind anzuvertrauen.
Wir denken, es gibt einen modernen Mythos, den diese Intuition offenlegt. Nämlich den Glauben, es reiche aus, die Welt gut erfassen und beschreiben zu können, um auch angemessen zu handeln. Drei Aspekte dieses Mythos möchten wir hervorheben.
Der Mythos nährt sich aus dem Glauben, dass die Reichhaltigkeit (räumlich und zeitlich) der Welt begrifflich von uns vollständig erfasst werden kann. Bestimmt nicht ohne Hilfe eines wissenschaftlich-technischen Apparates und vielleicht nicht jetzt, aber prinzipiell werden wir in (naher) Zukunft dazu in der Lage sein. Dieser Glaube – oder sollte man eher sagen: diese Phantasie – hält sich auch unter Wissenschaftlern hartnäckig. Der von Laplace erdachte Dämon (Laplace 1814) zeugt davon und erst kürzlich hat Stephen Wolfram (der prominente Kopf hinter der Software Mathematica) diese Idee als Antriebsfeder seines Schaffens beschrieben (Wolfram 2023).
Auch suggeriert der Mythos, die Frage des verantwortlichen Handelns könne über die Eigenschaften einer fundierten Beschreibung der Welt beantwortet werden. Dieser langlebige Mythos stellt also einen unmittelbaren Zusammenhang her zwischen (epistemischem) Wissen und (moralisch angemessenem) Handeln. Diese Neigung, Handeln allein aus korrekter Beschreibung abzuleiten, ist philosophisch hartnäckig, gleichzeitig erscheint sie uns auch seltsam. Bilder wie „Bücherwurm“ oder „Elfenbeinturm“ verdeutlichen das und sind in der Regel abwertend konnotiert. Darum das Beispiel der kinderhütenden, sozial isolierten Professorin. Leicht lassen sich weitere Illustrationen beibringen, wie etwa den Schriftgelehrten Peter Kien in Elias Canettis Roman „Die Blendung” (1948), der eine riesige Bibliothek besitzt und seine Kontakte mit der „realen” Welt auf seine Haushälterin verengt (unter deren aktivem Zutun). Sein Bezug allein zu Büchern lässt ihn an der Welt scheitern und Canetti präsentiert in brillanter Mitleidlosigkeit die sich entfaltende Tragödie.
Eine philosophische Grundlage dieses Mythos ist eine spezifische Auffassung von Sprache als Beschreibung – meisterhaft seziert in Wittgensteins Philosophischen Untersuchungen (1953: gleich ab §1). Sprache ist in dieser Vorstellung ein Instrument, das hauptsächlich dazu dient, die Welt abzubilden. Sprache so gedacht, würde dann, wenn richtig eingesetzt, ein komplettes Abbild der Welt, ihrer Gegenstände, ihrer Struktur und ihrer Dynamik ermöglichen. Diese Sprachauffassung vernachlässigt jedoch, dass sprechen und schreiben selbst raum-zeitliche Handlungen in der Welt sind. Einige Philosophen und Linguistinnen nennen das den performativen Charakter der Sprache. Sie können sich sicherlich denken, dass die Auffassung, Sprechen sei auch Handeln, die Idee, man könne aus Beschreibungen Handeln ableiten, wesentlich komplizierter macht.
Die oben erwähnte Abbildtheorie von Sprache, die damit verbundene Hoffnung auf eine vollständige Beschreibung und die Annahme eines direkten Zusammenhangs von Beschreiben und Handeln passt zur häufig diskutierten Idee, wir müssten uns darauf konzentrieren, Maschinen ohne eine verfälschende Einseitigkeit (Bias) zu bauen. Weil richtige Beschreibung zu richtigem Handeln führe, ist die Beschreibung ohne Bias so wichtig, ja zentral. Daher könnte man den Mythos auch als Non-BiasMythos bezeichnen. Um nicht missverstanden zu werden: Viele eingesetzte Algorithmen sind nachweislich vorurteilsgeladen (Benjamin 2019; Zweig 2019). Doch selbst wenn es so etwas wie eine vorurteilslose Beschreibung gäbe (was wir nicht glauben), bleibt für uns die Frage nach einem angemessenen, vertrauenswürdigen Handeln weiterhin ungelöst.
Zwei Beispiele aus der aktuellen Diskussion um KI beleuchten den besagten Mythos.
Der Oktopus
Ein interessantes Gedankenexperiment stammt von Bender und Koller (2020: 5188). Zwei Merkmale unserer beiden vorigen Beispiele (der kinderhütenden Professorin und dem Schriftgelehrten Kien) werden dabei aufgegriffen, nämlich die Situation sozialer Isolation und die Bibliothek. Mensch K. und Mensch B. leben auf verschiedenen Inseln, verbunden nur über ein Kabel, das sie miteinander telefonieren lässt. Ein extrem intelligenter Oktopus O belauscht diese Gespräche, indem er die elektrischen Signale im Kabel abhört. Im Laufe der Jahre sammelt er so etwas wie eine Bibliothek der Abfolge von (elektrischen) Mustern. Von Neugier oder Sehnsucht getrieben, schmeißt der Oktopus schließlich den Menschen B aus der Leitung und stöpselt sich selbst ein. Die Fragen des Inselbewohners K. werden jetzt unter Rückgriff auf die Muster-Bibliothek des Oktopus (statistisch, generativ) beantwortet.
Zugegeben, das ist eine sehr konstruierte Geschichte. Doch der philosophische Kern (ähnlich wie beim Turing-Test) ist spannend: Kann O so agieren, dass der telefonierende Inselbewohner K. keinen Verdacht schöpft? Der Oktopus O weiß zwar nicht, um was es geht – schließlich beherrscht er weder die Sprache noch kann er irgendetwas vom Leben an Land wissen. Trotzdem kann er aufgrund seiner Musterbibliothek die Konversation erwartungsgemäß führen. Und in Fällen, wo die Musterbibliothek noch nicht ausgereift ist, kann er auf unverdächtige generelle Floskeln zurückgreifen wie „Das hört sich gut an“ oder „Gut gemacht“. Eines Tages aber passiert doch etwas: während des Telefonats merkt der Inselbewohner K., dass ein Bär auf ihn zukommt und er nur einige Stöcke zur Verfügung hat, um sich zu schützen. Panisch fragt er am Telefon, was er jetzt bloß tun solle. Und da, so Bender und Koller, wird ihm der Oktopus nicht angemessen antworten (und helfen) können, da die Situation nicht nur neu ist, sondern der Oktopus sich überhaupt nicht vorstellen kann, was eine solche Situation bedeutet. Folglich bekommt der Inselbewohner jetzt doch Zweifel, ob er es am anderen Ende des Telefons mit B. von der anderen Insel zu tun hat…, wenn er nicht bereits vom Bären aufgefressen wurde.
Da haben Bender und Koller einen Punkt, meinen wir. Die Begründung ist aber vielleicht ein wenig vorschnell. Denn der Zusammenbruch der Kommunikation (in der irrigen Meinung des Inselbewohners) aufgrund der fehlenden Vorstellungskraft, oder des Nicht-in-der-gleichen-Welt-seins des Oktopus wäre vielleicht vermeidbar, wenn nur die Datenbasis viel größer wäre. Wenn der Oktopus nur genügend Instanzen ähnlicher Gespräche hätte (vielleicht auch aus anderen Telefonleitungen), so dass seine Muster-Bibliothek auch über diese Situationen statistisch ausgewertet werden kann. Könnte man dem Oktopus (oder eben der generativen KI) dann nicht zutrauen, nützliche Hinweise zu geben? Diese Annahme wiegt schwer. Sie setzt die Größe der Datenbasis in Beziehung zur Vollständigkeit der Beschreibung. Und diese Vollständigkeit muss mit enthalten, dass keine auf relevante Weise neuen Situationen entstehen. Alles (ungefähr) schon mal da gewesen. Schon oft. Die Annahme meint also, dass eine Beschreibung vorliegt, die so perfekt ist, dass sie nicht nur die Vergangenheit umfasst, sondern auch alles, was in der Zukunft geschehen kann. Wir sehen hier, wie gewaltig diese Annahme ist: Wenn die Beschreibung nur gut genug ist, kann auch die Zukunft nichts Neues bringen.
Letztendlich geht es bei den angezapften Telefonaten, ob überlebenswichtig oder nicht, für den Oktopus O. darum, Telefonsignale aus Telefonsignalen zu erschließen, die für Menschen wie Sprechhandlungen wirken. Wir Menschen verfügen über andere Methoden um die angemessenen Sprechhandlungen zu erschließen, nämlich aus Handlungen und Praxis. Anders formuliert: Wir lernen sprechen, äußern Hilfe oder formulieren Tipps, jedoch nicht auf der Grundlage von Tausenden von Telefonaten – auch wenn das heutzutage anders scheint. Vielmehr lernen wir Sprech(handeln) in der Welt, als Praxis, als Tätigsein, Erleben und durch zwischenmenschliche Handlungen. Dieser Weg ist generischer, sozusagen datenärmer. Wir bringen auf diese Weise die Universalität der Sprache in Anschlag, ohne über eine vollständige Beschreibung zu verfügen. Das ist auch ein Kernpunkt in Wittgensteins Analysen: Wir haben keine umfängliche, gar perfekte Beschreibung unseres Sprechhandelns, werden diese auch nie haben, sondern haben eine Vielzahl an Sprachspielen und passenden Situationen auf Lager. Der Oktopus kennt diese hingegen nicht und kann sie auch aus den Telefonaten nicht ableiten, weil er unsere Praxis nicht teilt.
Der Babysitter
Eine zweite Illustration des Mythos, dass gute Beschreibungen quasi automatisch angemessene Handlungen hervorbrächten, stammt von Brian Cantwell Smith (2019). Sein Beispiel hat uns überhaupt erst auf die Frage der Kinderbetreuung vom Anfang gebracht hat. Er schildert die Szene, in der Eltern ausgehen und ihre Kinder einem Babysitter anvertrauen. Für Smith liegt auf der Hand, dass die Eltern ihr Vertrauen nicht auf den Regeln gründen, die sie dem Babysitter geben. Wieso nicht? Selbst bei perfekter Befolgung aller vorgeschriebenen Regeln wollen Eltern bestimmt nicht hören: „Aber ich habe doch alle Regeln befolgt.” Vielmehr wollen sie, dass der Babysitter sich um die Kinder kümmert, was auch immer in der Welt oder der Wohnung passiert. Da kann es sein, dass es auch einmal sinnvoll ist, nicht den Regeln zu folgen und/oder initiativ zu werden, weil eine ungewöhnliche Situation dies für den Schutz des Kindes erfordert. Korrektheit der Regelbefolgung ist eben nicht gleich Verantwortung für das Kind. Zugegeben, wenn die Regeln alle Situationen vollständig erfassen, dann kommt es nachher in den Handlungen auf das Gleiche heraus. Aber eben nur wenn.
In der Babysitter Geschichte tritt noch eine Besonderheit auf, insofern es um Regeln geht. Es ist aus der KI Geschichte bekannt, dass regelbasierte KI nur beschränkte Erfolge hatte, also den Einwand von Smith bestätigt. Der aktuelle Boom der KI aber beruht vor allem auf dem Einsatz von künstlichen neuronalen Netzen. Diese benötigen keine explizit formulierten Regeln und lernen statistische Muster aus sehr vielen Daten (wie im Oktopus-Beispiel). Und dass Maschinen auch ohne explizite grammatische Regeln Essays formulieren können (Large Language Models wie ChatGPT), ist durchaus verblüffend. Die Vollständigkeitsannahme und der Mythos einer perfekten Beschreibung bleiben aber, d.h. die Daten müssen die Welt so reichhaltig abdecken, dass die statistischen Muster hinreichen. Diese Annahme ist in der Tat unbehaglich und dieses Unbehagen wiederum ist ein Grund dafür, skeptisch zu sein gegenüber der kinderbetreuenden isolierten Expertin im Elfenbeinturm. Und damit erst recht einer ausschließlich mit Schriftzeichen gefütterten digitalen Maschine.
Und wieder wird der Mond aufgehen
Wir glauben, dass der hier umschriebene Mythos zwei Motive miteinander verbindet. Das erste ist eine gewisse Hybris, die sich im vorbehaltlosen Glauben an eine vollständige Beschreibung (oder Modell) äußert. Oder genauer gesagt: dem Glauben an die Möglichkeit einer vollständigen Beschreibung und an deren Macht, wenn erst genügend Daten (natürlich ohne Bias) vorhanden sind. Wir stehen diesem Motiv mit Vorsicht und Skepsis gegenüber. Diese Skepsis speist sich nicht nur aus Gedankenexperimenten, sondern auch aus vielen bekannten Fallbeispielen, wie dem in der Technikgeschichte berühmten ersten automatisierten (Luft-)Frühwarnsystem, das fälschlich einen Großangriff auf die USA gemeldet hat. Das System lag falsch, weil besondere atmosphärische Bedingungen den Mond auf scheinbar ungewöhnliche Weise am Horizont aufgehen ließen. Diese Bedingungen waren im Modell nicht vorgesehen und es hatte einen Angriff gemeldet (siehe Smith 1985). Doch natürlich haben hier Apostel der KI einen mythischen Einwand dazu: „Ja, prinzipiell ist aber eine vollständige Beschreibung möglich“.
Dieses Hybris-Motiv ist so neu nicht. Schon bei der Geschichte um den Turmbau zu Babel brach die Kommunikation zusammen wegen vieler verschiedener Sprachen. Wenn es nur um die Beschreibung der Materialien, der Pläne und des Baus gegangen wäre, hätte der Bau ruhig weitergehen können.
Das zweite Motiv, ist gleichzeitig der Grund, weshalb wir diesen Mythos auch als Non-Bias-Mythos bezeichnen. Der Mythos lädt ein zum Opportunismus auf demjenigen Geschäftsgebiet, das einhergeht mit der heutigen digitalen Technologie: der fleißigen Datenakkumulation. Technisch gesehen benötigen die gängigen Werkzeuge (tiefe Netzwerke) der AI eine riesige Menge an Daten, um eine unüberschaubare Menge an Parametern einzustellen. Deshalb ist das Verhalten der trainierten (angelernten) Netze in weiten Teilen nicht erklärbar. Da kommt eine philosophische Auffassung gerade recht, die sehr viele Daten fordert. Auch wenn einzelne Daten praktisch gar nicht mehr kuratiert oder betrachtet werden, passt der Non-Bias-Mythos trotzdem gut, weil der Bias auf Datenwolken (im Durchschnitt usw.) definiert ist. Krude gesagt: mehr Daten, mehr „fair“.
Wie gesagt: Das berührt nicht unsere Überzeugung, dass im Einsatz heutiger Computermodelle gängige Vorurteile bestätigt oder gar vorangetrieben werden, sondern den Mythos, der nahelegt, durch mehr Daten könne man diesen Bias beseitigen. Wir sollten also skeptisch sein, wenn behauptet wird, die Maschine werde es letztlich richten, weil mehr Daten zu immer besseren Beschreibungen führen; Beschreibungen, die quasi automatisch zu angemessenen und fairen Entscheidungen abgeleitet/umgemünzt werden können. Unsere Überzeugung (die wir noch bei anderer Gelegenheit ausführen werden) lautet dagegen: Eine Vorstellung davon zu haben, was Verantwortung und Autonomie bedeuten, und entsprechendes Handeln in sozialen Praktiken bleiben unsere vornehmsten Werkzeuge, um mit Unvollständigkeit und Begrenztheit umzugehen. ■
Literatur
Bender, Emily M./Koller, Alexander (2020): Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, S. 5185-5198.
Benjamin, Ruha (2019): Race After Technology: Abolitionist Tools for the New Jim Code.: Polity.
Canetti, Elias (1948): Die Blendung. Roman. München: Weismann.
Laplace, Pierre Simon (1814): Essai philosophique sur les probabilités.
Smith, Brian Cantwell (1985): The limits of correctness. In: ACM SIGCAS Computers and Society, 14,15(1,2,3,4), S. 18-26.
Smith, Brian Cantwell (2019): The Promise of Artificial Intelligence: Reckoning and Judgment. Cambridge, MA: The MIT Press.
Wittgenstein, Ludwig ([1953] 1984): Philosophische Untersuchungen. Frankfurt am Main: Suhrkamp.
Zweig, Katharina A. (2019): Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne.
Über 90 % aller Staaten der Welt diskutieren die Einführung einer CBDC. Und fast die Hälfte arbeitet vergleichsweise konkret daran: Über 80 Staaten befinden sich in einer Entwicklungs-, Pilot- oder Launchphase. Allerdings werden in der medialen Diskussion des digitalen Euro Projekte anderer Länder, digitales Zentralbankgeld (CBDC) herauszugeben, eher selten thematisiert. Oft ist wenig bekannt. Konkret eingeführt haben eine CBDC bisher sehr wenige. Im Oktober 2020 wurde der Sand Dollar der Bahamas offiziell gelauncht, im Oktober 2021 der nigerianische eNaira.
Diesen beiden widmet sich das Digitalgelddickicht in der ersten von zwei Folgen zu außereuropäischen CBDC-Projekten. Was hat einen kleinen Inselstaat in der Karibik und das bevölkerungsreichste Land Afrikas dazu veranlasst, eine CBDC einzuführen? Was sind ihre Beweggründe und wie ihre bisherigen Erfahrungen? Was vermögen CBDCs in Ländern zu leisten, deren Bevölkerung nur bedingt Zugang zu Banken hat und viele keine Bankkonto haben? Werden Sand Dollar und eNaira bei Bürgerinnen und Bürgern oder im Handel gut angenommen? Welche Probleme gibt es? Was wurde vor ihrer Einführung diskutiert, verhandelt und gesetzlich geregelt?
Digitalgelddickicht Staffel Digitaler Euro – Folge 9 | 5. August 2024
■ Porter, Shaqueno (Central Bank of The Bahamas): An Update on the Sand Dollar (Youtube) Digital Euro Association Conference (DEC24), Frankfurt/Main, 29. Februar 2024.
■ Branch, Sharon, Ward, Linsey and Wright, Allan: The Evolution of SandDollar, in: Intereconomics. Review of European Economic Policy, Jg. 58 (2023), Nr. 4, S. 178 – 184.
Er schreibt für deutsche und europäische Medien über digitale Regulierung, Infrastruktur und Überwachung. Regelmäßig berichtet er dabei für netzpolitik.org und den Tagesspiegel Background. Seit 2023 lebt er in Brüssel und beobachtet die Entwicklungen in der Europäischen Union aus der Nähe, ob im Parlament, dem Rat oder der Kommission.
Vorhaben
Bei ZEVEDI beschäftigt sich Maximilian mit dem Digitalen Euro. Er will in einer Artikelserie untersuchen, wer was von diesem Großprojekt will. Was plant die EU, was die EZB? Welche Forderungen tragen Banken oder Zahlungsdienstleister vor, wie stehen die verschiedenen Mitgliedstaaten der EU zum Digitalen Euro? So wie das Projekt an sich bisher größtenteils unter dem Radar fliegt, ist auch die Verteilung der Interessen bisher noch nicht weit bekannt.
Der Medienwandel ist längst vollzogen. Damit hat sich in Sachen „News“ eine komplizierte Gemengelage entwickelt: Das Internet ist zu einem Marktplatz der Aufmerksamkeit geworden, und prinzipiell kann jede und jeder über soziale Medien, Webseiten oder Chatkanäle „Content“ verbreiten. Quellen für Nachrichten und Informationen über das öffentliche Leben sind also längst nicht mehr beschränkt auf Zeitungsredaktionen und Rundfunkanstalten, die seriös journalistisch arbeiten – im Gegenteil werden solche etablierten Medien zunehmend von alternativen Anbietern verdrängt. Diese verfolgen teilweise mehr oder weniger offen wirtschaftliche oder politische Interessen, die mit der Einhaltung journalistischer Standards unvereinbar sind, und in der Vielzahl der Stimmen im Netz verbreiten etliche gezielt falsche oder irreführende Meldungen. Derlei Desinformation ist ein Problem für den demokratischen Diskurs, führt zu Verunsicherung und Spaltung und hat direkte Auswirkungen in der Realität, die mitunter schwer oder gar nicht mehr einzufangen sind. Solche Effekte sind von den Institutionen, die Desinformation verbreiten, beabsichtigt und bereits in der Breite sichtbar, sie werden durch automatisierte Prozesse, Algorithmen und generative KI verstärkt. Wie können wir als Gesellschaft auf diese Entwicklung reagieren, und welche Rolle hat der Journalismus und haben Medienschaffende dabei?
Christian Stöcker ist Journalist, Autor und Professor für Digitale Kommunikation an der Hochschule für Angewandte Wissenschaften Hamburg, wo er den Master-Studiengang „Digitale Kommunikation“ leitet. Zuvor verantwortete er bei SPIEGEL ONLINE das Ressort Netzwelt. Der Experte für digitale Medien und ihre gesellschaftlichen Auswirkungen erklärt im Digitalgespräch die Transformation der Medienlandschaft, die wir in den letzten Jahrzehnten vollzogen haben, gibt Einblicke in Funktionsweisen und Hintergründe zentraler Online-Plattformen und zeigt Verknüpfungen mit aktuellen politischen und sozialen Entwicklungen auf. Er beschreibt, welche Auswirkungen das Vorhandensein von Desinformation auf das Berufsbild des Journalismus hat und wie junge Medienschaffende darauf vorbereitet werden. Mit den Gastgeberinnen Marlene Görger und Petra Gehring diskutiert Stöcker das Szenario, das uns erwartet, wenn die Desinformations-Strategien weiterhin erfolgreich sind, welche Maßnahmen dagegen ergriffen werden könnten – und welchen Regeln sich alle unterwerfen sollten, die die Möglichkeiten eines demokratischen Diskurses erhalten und die Schäden eindämmen wollen.
Folge 53: Digitalgespräch mit Christian Stöcker von der HAW Hamburg, 18. Juni 2024
Folge 60: Weit mehr als Technik: Suchmaschinen verstehen Mit Dirk Lewandowski von der Hochschule für Angewandte Wissenschaften Hamburg | 28. Januar 2025 | zur Folge»
Folge 59: Was sind Berufsbilder und verändern sie sich durch Digitalität? Mit Britta Matthes vom Institut für Arbeitsmarkt und Berufsforschung (IAB) der Bundesagentur für Arbeit | 26. November 2024 | zur Folge»
Folge 58: Gesetze im „Digitalcheck“ und was daraus folgt: Verwaltung digitaltauglich aufstellen Mit Stephanie Kaiser von der DigitalService GmbH des Bundes | 5. November 2024 | zur Folge»
Folge 57: Dynamische digitale Strategien für den europäischen Sender ARTE Mit Kemal Görgülü von ARTE GEIE | 15. Oktober 2024 | zur Folge»
Folge 56: Tokenisierung von CO2-Zertifikaten: Blockchain für den Klimaschutz? Mit Dominik Skauradszun von der Hochschule Fulda | 24. September 2024 | zur Folge»
Folge 55: IT-Riesen und Softwaremonopole: Das Ringen der Hochschulen um digitale Souveränität Mit Ramin Yahyapour von der Georg-August-Universität Göttingen und der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen | 3. September 2024 | zur Folge»
Folge 54: Infrastrukturen im Weltraum für die Digitalität auf der Erde Mit Holger Krag vom Europäischen Raumflugkontrollzentrum (ESOC) | 13. August 2024 | zur Folge»
Folge 53: Information und Desinformation – wie steht es um die Netzöffentlichkeit? Mit Christian Stöcker von der HAW Hamburg | 18. Juni 2024 | zur Folge»
Folge 52: KI und der Wert menschlicher Autorschaft: Der Kampf ums Urheberrecht Mit Nina George vom European Writers‘ Council | 28. Mai 2024 | zur Folge»
Folge 51: Kreatives Schreiben mit KI Mit Jenifer Becker von der Universität Hildesheim | 7. Mai 2024 | zur Folge»
Folge 50: Ein „Digitaler Zwilling“ aus Körperdaten? Auf dem Weg in die Gesundheitsvorsorge der Zukunft Mit Malte Gruber von der Justus-Liebig-Universität Gießen | 16. April 2024 | zur Folge»
Folge 49: Steuerfahndung mit Künstlicher Intelligenz: Panama, Pandora und mehr Mit Christian Voß von der Forschungsstelle Künstliche Intelligenz (FSKI) am Finanzamt Kassel | 26. März 2024 | zur Folge»
Folge 48: Der AI Act der EU: Wie er zustande kam und wie er KI reguliert Mit Domenik Wendt von der Frankfurt University of Applied Sciences | 5. März 2024 | zur Folge»
Folge 47: KI und Haftung: Wer steht ein für die Fehler Künstlicher Intelligenz? Mit Carsten Gerner-Beuerle vom University College London | 13. Februar 2024 | zur Folge»
Folge 46: Arena of IoT: ein Fußballstadion als digitales Reallabor Mit Oliver Bäcker von EintrachtTech GmbH | 23. Januar 2024 | zur Folge»
Folge 45: Digitale Forensik Mit Felix Freiling von der Friedrich-Alexander-Universität Erlangen-Nürnberg | 12. Dezember 2023 | zur Folge»
Folge 44: Von Grundsatzdebatte bis Wahlkampf: Digital Kommunizieren in politischen Parteien Mit Isabelle Borucki von der Philipps-Universität Marburg | 21. November 2023 | zur Folge»
Folge 43: Digitalität und der demokratische Auftrag des öffentlich-rechtlichen Rundfunks Mit Florian Hager vom Hessischen Rundfunk | 31. Oktober 2023 | zur Folge»
Folge 42: Sensible Daten für die Wissenschaft: Weshalb ein Forschungsdatengesetz? Mit Stefan Bender von der Deutschen Bundesbank | 10. Oktober 2023 | zur Folge»
Folge 41: Modellieren, Simulieren, Optimieren – die Digitalisierung des Energienetzes Mit Alexander Martin von der Technischen Universität Nürnberg | 19. September 2023 | zur Folge»
Folge 40: Digitalisierte Landwirtschaft – das Beispiel Obstbau Mit Christine Rösch vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) | 8. August 2023 | zur Folge»
Folge 39: Lehren und Lernen nach der Pandemie: Der schwierige Umbau des digitalen Schulunterrichts Mit Jan Marco Leimeister von der Universität Kassel | 18. Juli 2023 | zur Folge»
Folge 38: Digitale Kunstwerke bewahren: eine Herausforderung für Museen Mit Margit Rosen vom ZKM | Zentrum für Kunst und Medien Karlsruhe | 27. Juni 2023 | zur Folge»
Folge 37: Tageszeitungen: Wie verändern sie sich im digitalen Wandel? Mit Carsten Knop von der Frankfurter Allgemeinen Zeitung | 6. Juni 2023 | zur Folge»
Folge 36: Wie es Computern gelingt, eigenständig mit Sprache umzugehen Mit Chris Biemann von der Universität Hamburg | 16. Mai 2023 | zur Folge»
Folge 35: Datenvielfalt handhabbar machen – das Beispiel Biodiversitätsforschung Mit Barbara Ebert von der Gesellschaft für Biologische Daten e. V. | 4. April 2023 | zur Folge»
Folge 34: Maschinelles Lernen im Umweltmonitoring Mit Hanna Meyer von der Universität Münster | 14. März 2023 | zur Folge»
Folge 33: Was können kleine und große Drohnen? Zur Automatisierung von Fluggeräten Mit Uwe Klingauf von der Technischen Universität Darmstadt | 21. Februar 2023 | zur Folge»
Folge 32: Digitales Kreditscoring: Wie Datenanalysen darüber entscheiden, wem man Geld leiht und wem nicht Mit Katja Langenbucher von der Goethe-Universität Frankfurt am Main | 31. Januar 2023 | zur Folge»
Folge 31: Biochemie trifft Informatik: Wie man digitale Daten in DNA speichern kann Mit Robert Grass von der ETH Zürich | 20. Dezember 2022 | zur Folge»
Folge 30: In die eigene finanzielle Zukunft schauen: Digitale Rententransparenz Mit Andreas Hackethal von der Goethe-Universität Frankfurt a.M. | 29. November 2022 | zur Folge»
Folge 29: Gaming-Kultur für alle: Szenen, Debatten und ein Milliardenmarkt Mit Rae Grimm von Webedia Gaming GmbH | 8. November 2022 | zur Folge»
Folge 28: Digitale Spielräume in der Musikproduktion Mit David Waldecker von der Universität Siegen | 18. Oktober 2022 | zur Folge»
Folge 27: Hacker-Attacken und IT-Management: Cyber-Risiken versichern Mit Florian Salm von der Gothaer Allgemeine Versicherung AG und Ulrich Greveler von der Hochschule Rhein-Waal | 27. September 2022 | zur Folge»
Folge 26: Seltene Rohstoffe und Elektroschrott: Über Materialität und Recyclingprobleme des Digitalen Mit Mathias Schluep vom World Resources Forum | 6. September 2022 | zur Folge»
Folge 25: Sterben, Trauern und Vermächtnis: Was ändert sich durch Digitalität? Mit Stephan Neuser vom Bundesverband Deutscher Bestatter e. V. | 16. August 2022 | zur Folge»
Folge 24: Was ist das Darknet und was passiert dort? Mit Kai Denker von der Technischen Universität Darmstadt | 5. Juli 2022 | zur Folge»
Folge 23: Hochleistungsrechnen zu Zukunftsfragen: Das Deutsche Klimarechenzentrum Mit Thomas Ludwig vom Deutschen Klimarechenzentrum | 14. Juni 2022 | zur Folge»
Folge 22: Open Source für die öffentliche Verwaltung: das Beispiel Schleswig-Holstein Mit Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holsteins | 24. Mai 2022 | zur Folge»
Folge 21: Von Datenschutz zu Datensouveränität: informationelle Selbstbestimmung in der digitalen Gesellschaft Mit Steffen Augsberg von der Justus-Liebig-Universität Gießen | 3. Mai 2022 | zur Folge»
Folge 20: Von Cartoons zu Instagram: „Perfekte Bilder“ und das Körperverhältnis von Mädchen Mit Maya Götz vom Internationalen Zentralinstitut für das Jugend- und Bildungsfernsehen (IZI) des Bayerischen Rundfunks | 12. April 2022 | zur Folge»
Folge 19: Verträge automatisieren? Was sind und was leisten „Smart Contracts“? Mit Nikolas Guggenberger von der Yale Law School | 22. März 2022 | zur Folge»
Folge 18: KI und Krieg: Verhandeln für eine UN-Konvention gegen tödliche autonome Waffensysteme Mit Anja Dahlmann vom Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg | 1. März 2022 | zur Folge»
Folge 17: Was ist Gaia-X? Mit Boris Otto von der TU Dortmund und dem Fraunhofer ISST | 8. Februar 2022 | zur Folge»
Folge 16: Cookies, AirTags, Metadaten: Wohin führt das Tracking? Mit Matthias Hollick von der Technischen Universität Darmstadt | 25. Januar 2022 | zur Folge»
Folge 15: Mit Physik rechnen: Quantencomputer in der Realität Mit Frank Wilhelm-Mauch von der Universität des Saarlandes | 11. Januar 2022 | zur Folge»
Folge 14: Vermitteln, voranbringen, ermöglichen: Wie macht eine Digitalministerin Politik? Mit Kristina Sinemus, der Hessischen Ministerin für Digitale Strategie und Entwicklung | 14. Dezember 2021 | zur Folge»
Folge 13: Likes, Bewertungen und smarte Assistenten – Risiken einer digitalen „Verbraucherdemokratie“ Mit Jörn Lamla von der Universität Kassel | 30. November 2021 | zur Folge»
Folge 12: Von der Münze zum Token: Geld, Wert und Währung in der Digitalität Mit Martin Diehl von der Deutschen Bundesbank | 16. November 2021 | zur Folge»
Folge 11: Smarte Stadtentwicklung – was tun kommunale Unternehmen? Mit Klaus-Michael Ahrend von der HEAG Holding AG | 2. November 2021 | zur Folge»
Folge 10: Genetische Information im digitalen Zeitalter: Der Streit um das Nagoya-Protokoll Mit Anna Deplazes Zemp von der Universität Zürich | 19. Oktober 2021 | zur Folge»
Folge 9: Anspruch und Wirklichkeit: Wie steht es um den Datenschutz? Mit Alexander Roßnagel, dem Hessischen Beauftragten für Datenschutz und Informationsfreiheit | 5. Oktober 2021 | zur Folge»
Folge 8: Predictive Policing und die Folgen: Datenanalyse in der Polizeiarbeit Mit Simon Egbert von der Universität Bielefeld | 21. September 2021 | zur Folge»
Folge 7: DE-CIX und die Architektur des Internets Mit Harald A. Summa von eco – Verband der Internetwirtschaft e. V. | 7. September 2021 | zur Folge»
Folge 6: Datenträger, Datendienste, Datenspuren: wissenschaftliche Bibliotheken und Verlage im digitalen Wandel Mit Katrin Stump von der Universitätsbibliothek Braunschweig | 3. August 2021 | zur Folge»
Folge 5: Datenchirurgie? Intelligente Technik im OP Mit Stefanie Speidel vom Nationalen Centrum für Tumorerkrankungen in Dresden | 20. Juli 2021 | zur Folge»
Folge 4: KI in der Finanzwelt Mit Florian Möslein von der Philipps-Universität Marburg | 6. Juli 2021 | zur Folge»
Folge 3: Blockchain nach Bitcoin: Regeln in der Welt der Krypto-Token mit Sebastian Omlor von der Philipps-Universität Marburg | 22. Juni 2021 | zur Folge»
Folge 2: Emotet & Co: der Kampf gegen Cyberkriminalität Mit Linda Bertram von der Zentralstelle zur Bekämpfung der Internetkriminalität | 8. Juni 2021 | zur Folge»
Folge 1: Überwachung messbar machen Mit Ralf Poscher vom Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht | 26. Mai 2021 | zur Folge»
Folge 0: Digitalgespräch - ab dem 26. Mai 2021 Ein Vorgeschmack auf das Digitalgespräch | 24. Mai 2021 | zur Folge»
Ihre Privatsphäre liegt uns am Herzen – deshalb setzen wir auf volle Transparenz.
Auf unserer Webseite nutzen wir ausschließlich Matomo, ein datenschutzfreundliches Analysetool, um zu verstehen, wie unsere Seite genutzt wird. Dabei werden Ihre Daten weder für kommerzielle Zwecke verwendet noch weitergegeben und bleiben ausschließlich auf unseren Servern.
Danke, dass Sie uns mit Ihrer Einwilligung helfen!
Funktional
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.