Kategorien
Akzentfarbe: Dunkelgrau Autor: Petra Gehring Uncategorized Verantwortungsblog

Immerhin noch die Menschenrechte. Die aus der Zeit gefallene Ethik der Gesellschaft für Informatik

Immerhin noch die Menschenrechte.
Die aus der Zeit gefallene Ethik der Gesellschaft für Informatik

Während viele Wissenschaftsdisziplinen seit langem Ethikstandards pflegen und auch Forschungs-Ethikkommissionen dort alle kritischen Forschungsprojekte begutachten, erwischt die Frage nach Forschungsethik die Informatik – jedenfalls in Deutschland – augenscheinlich auf dem falschen Fuß. Denn weder gibt es derzeit (für Forschungen, die sich zu Recht in jeder gesellschaftlichen Hinsicht als „disruptiv“ verstehen) informatische Ethikkommissionen noch besitzt überhaupt die Gesellschaft für Informatik Ethikstandards, in welchen etwa das Thema „KI“ vorkommt. Unsere Autorin hat nachgelesen.

Von Petra Gehring | 26.09.2024

Ein Wegweise in einem digitalisierten Raum.
Erstellt mit Adobe Firefly. Prompt: „signpost in a digital space, data streams, many directions; impressionist, minimalistic; colors: shades of gray“

Große Fachgesellschaften im Ingenieursbereich haben eine professionsethische Tradition. Man ist sich der Gefahren bewusst, für die man im Engineering Verantwortung übernimmt. So besitzen die Elektroingenieure und der Maschinenbau straffe Verhaltenskodizes, in einigen Ländern schon seit Ende des 19. Jahrhunderts. Und solche Kodizes werden auch weiterentwickelt. Ähnlich wie im medizinischen Standesrecht gibt es ein Sanktionssystem (Approbationen können entzogen werden), es gibt die Pflicht zum Whistleblowing für Zeugen von Fehlverhalten (mitsamt Schutzzusagen für Whistleblower) und mehr. Ebenso gibt es in vielen Fachdisziplinen forschungsethische Standards: Sobald Forschungsvorhaben Versuchspersonen einbeziehen, kritische Daten nutzen oder auch, wenn sogenannte „Dual Use“-Aspekte berührt werden könnten, kommt Forschungsethik ins Spiel. Fachlich einschlägige Ethikkommissionen bewerten dann Projektpläne, die die Rolle von Versuchspersonen und Datengebenden beschreiben, nicht aber eine professionsethische Pflichterfüllung einer Einzelperson.

Und in der in Deutschland so genannten Informatik, die in anderen Ländern zumeist Computer Science heißt?

„Die Gesellschaft für Informatik e.V. (GI) ist eine gemeinnützige Fachgesellschaft, die sich zum Ziel gesetzt hat, die Informatik in Deutschland zu fördern.“ So heißt es in der Wikipedia, die Homepage der GI selbst schildert es kaum anders: „Die Gesellschaft für Informatik e.V. (GI) ist mit rund 16.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum und vertritt seit 1969 die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik.“ (GI 2024)

Ähnlich einer großen Ingenieursvereinigung ist man also öffentliche Interessensvertretung und wissenschaftliche Fachgesellschaft in einem. Und wer auf der Webseite nach „Ethik“ sucht, wird ebenfalls fündig: Die GI hat unter dem Titel Unsere Ethischen Leitlinien eine Art Professionsethik formuliert. Es handelt sich um ein Dokument, das in Form von Abschnitten bzw. Artikeln recht locker die humanistischen Ziele des Informatikberufs umschreibt. Überarbeitet wurde das Dokument, das von 1994 stammt, genau zweimal: in den Jahren 2004 und 2018.1 Dabei ist es kürzer geworden, und es sind nicht viel neue Themen hinzugekommen, sondern vor allem Dinge verloren gegangen. So betonte man bis 2004 die Notwendigkeit „Interdisziplinärer Diskurse“ in einem eigenen Abschnitt (§ 13). Die Fassung von 2018 thematisiert das nicht mehr. Das Adjektiv „interdisziplinär“ ist stattdessen an eine unauffällige Stelle der Präambel gerutscht.2 Ebenso ist die zuvor mehrmals aufgeführte Vorbildfunktion, die man erfüllen möchte, nur noch im Bereich „Lehren und Lernen“ erwähnt. Besonders interessant: das Schicksal des Stichwortes „Zivilcourage“. 1994 gibt es einen Abschnitt, der unter diesem Titel ermutigt, in Situationen, in denen Pflichten der GI-Mitglieder „gegenüber ihrem Arbeitgeber oder einem Kunden im Konflikt zur Verantwortung gegenüber Betroffenen stehen, mit Zivilcourage zu handeln“. (Art. 9, Fassung von 1994) Und 2004 werden die der Gesellschaft angehörigen Informatiker im betreffenden Abschnitt dazu ermuntern, falls ihre Pflichten „gegenüber Arbeitgebern oder Kundenorganisationen in Konflikt mit der Verantwortung gegenüber anderweitig Betroffenen stehen, mit Zivilcourage zu handeln“ (Art. 10, Fassung von 2004). Die geltende Fassung von 2018 zieht sich demgegenüber schlicht auf Art. 1 des Grundgesetzes zurück, womit Zivilcourage nurmehr im Falle von Grundrechtsverletzungen gefragt wäre: „Das GI-Mitglied tritt mit Mut für den Schutz und die Wahrung der Menschenwürde ein, selbst wenn Gesetze, Verträge oder andere Normen dies nicht explizit fordern oder dem gar entgegenstehen. Dies gilt auch in Situationen, in denen seine Pflichten gegenüber Auftraggebenden in Konflikt mit der Verantwortung gegenüber anderweitig Betroffenen stehen.“ (Art. 9, Fassung von 2018) Immerhin findet man jetzt – neu – einen vorsichtigen Hinweis auf Whistleblowing ergänzt: „Dies kann in begründeten Ausnahmefällen auch den öffentlichen Hinweis auf Missstände einschließen.“ (ebd.)  „Begründete Ausnahmefälle“ – das klingt allerdings so, als müsse man vor der Erwägung, zivilcouragiert zu agieren, zwecks rechtssicherer Begründung erst einmal ein Anwaltsbüro konsultieren.

Bei der Lektüre der Fassung von 2018 fällt ein – dann doch – neuer Art. 11 unter der Überschrift „Ermöglichung der Selbstbestimmung“ auf. Hier heißt es, GI-Mitglieder wirken auf die Beteiligung der „von IT-Systemen Betroffenen an der Gestaltung dieser Systeme und deren Nutzungsbedingungen hin“. Der Nachsatz, der dann folgt, ist nur ein einziger. Er lautet: „Dies gilt insbesondere für Systeme, die zur Beeinflussung, Kontrolle und Überwachung der Betroffenen verwendet werden können.“ Ganz offenkundig besagt er, im Umkehrschluss, nichts anderes, als dass mit dem Hinwirken auf die Beteiligung Betroffener etwaige ethisch-politische Bedenken von Informatikerinnen und Informatikern hinsichtlich Verhaltensbeeinflussung und Überwachung abgearbeitet und erledigt sind. Partizipation ersetzt Bewertung. Wobei nicht einmal Zustimmung der Betroffenen gefordert ist. Partizipation ersetzt aber auch die Frage nach Macht. Denn von der Professionsverantwortung für professionstypische Wissensvorsprünge – Betroffene sind Laien und können Techniken gerade nicht so tiefgreifend abschätzen wie der Experte – spricht dieser Artikel die Informatik mit einiger Nonchalance geradezu frei.

Stark verändern sich auch – abgesehen davon, dass im Dokument von 2018 die (zuvor ausführlichen) Begriffsdefinitionen verschwunden sind – über die drei existierenden Versionen hinweg die Präambeln, die den Leitlinien ein Stück weit ihren Status zuweisen. 1994 wünscht sich die GI, „daß berufsethische Konflikte Gegenstand gemeinsamen Nachdenkens und Handelns werden“; sie will „Mitglieder, die sich mit verantwortungsvollem Verhalten exponiert haben“, „unterstützen“ sowie „vor allem“ den „Diskurs über ethische Fragen in der Informatik mit der Öffentlichkeit aufnehmen und Aufklärung leisten“. Es würden zudem „Verfahren“ gebraucht, um „die Zusammenhänge zwischen individueller und kollektiver Verantwortung zu verdeutlichen“ und wohl auch für die Verantwortung selbst, was Einzelne zumeist überfordere. In diesem Sinne „binde“ sich die GI an die Leitlinien, heißt es zum Schluss.

2004 ist die Präambel um ihren letzten Absatz gekürzt: Die Sache mit den Verfahren und der individuellen und kollektiven Verantwortung fällt weg. Zu Anfang ist ein Verweis ergänzt, demzufolge man sich auf „allgemeine moralische Prinzipien, wie sie in der Allgemeinen Deklaration der Menschenrechte formuliert sind“ verpflichtet. 2018 finden wir dann an der Stelle, an der es früher um die Vielfalt von Lebensformen bzw. Lebensweisen ging (mit der das Handeln von Informatikerinnen und Informatikern „in Wechselwirkung“ stehe), einen neuen Text: „Die GI-Mitglieder setzen sich dafür ein, dass Organisationsstrukturen frei von Diskriminierung sind und berücksichtigen bei Entwurf, Herstellung, Betrieb und Verwendung von IT-Systemen die unterschiedlichen Bedürfnisse und die Diversität der Menschen.“ Die ersten beiden Versionen der Leitlinien enthielten überdies den Satz „Der offene Charakter“ „dieser Forderungen“ (1994) bzw. „der nachfolgenden Artikel“ (2004) werde „mit dem Begriff der Leitlinien unterstrichen“. 2018 finden wir hierzu einen ganz neuen, deutlich abschwächenden Kontext geschaffen: „Der offene Charakter der nachfolgenden Artikel macht deutlich, dass es keine abschließenden Handlungsanweisungen oder starren Regelwerke für moralisch gebotenes Handeln geben kann.“ (Präambel, Fassung von 2018). Hieran anschließend lässt sich eine interessante Bilanz ziehen: Während einerseits der Text der Leitlinie schrittweise immer stärker lediglich das als „ethisch“ anführt, was ohnehin geltendes Recht ist, wird andererseits unterstrichen, um Regel oder Handlungsanweisungen gehe es gerade nicht. Sondern lediglich um „moralisch gebotenes Handeln“. Entsprechend scheint auch die Frage nach Verfahren – ob nun Organisation des Dialogs mit der Gesellschaft oder so etwas wie eigene standesrechtliche Kommissionen und Instanzen – im Laufe der Zeit in den Hintergrund gerückt zu sein. War „Ethik“ in den 1990er Jahren soziale oder auch aufklärerische Verpflichtung und 2004 immerhin eine „Unterstützung“ für den Fall, dass man sich exponiert, so scheint sie 2018 im Wesentlichen auf das Bekenntnis zusammenzuschrumpfen, dass Informatikerinnen und Informatiker gewillt sind, sich an Grundrechte und einige andere der in Deutschland geltenden Gesetze zu halten.

Fragt man sich spezifisch nach der forschungsethischen Kultur der Informatik, hilft die Leitlinie kaum weiter, dabei scheint sie nach wie vor die einzige Regulation in Sachen Ethik zu sein,3 und auf deren partizipative Vergangenheit ist man auch stolz.4 Mit dem Stand „2018“ scheint man zufrieden. Dramatische Debatten über „KI“ geben der KI-Forschung – was Ethik und Qualitätssicherung angeht – interessanterweise ebenso wenig Impulse wie die breit geführte Debatte darüber, ob es im Bereich der Entwicklung von Algorithmen (nichtlernenden oder lernenden) so etwas wie Grundlagenforschung überhaupt noch gibt. LLM sind ja auch dafür ein Beispiel: OpenAI ist eine Firma, die aber für generische Forschung stand und auch öffentlich gefördert worden ist. Aus der vermeintlichen Grundlagenforschung wird nun quasi durch Umlegen eines Schalters plötzlich ein Produkt. Wenn dies so ist – und es geschieht im Fall von ChatGPT ja nicht zum ersten Mal – dann wirkt das auf die Grundlagenforschung an Algorithmen und Software, die zur Entwicklung mindestens beiträgt, zurück. Was dann eben auch ein Grund dafür ist, dass man sich in der Forschung nicht einfach drauf zurückziehen kann, dass man ja lediglich Grundlagen erforsche, und erst viel später und ganz weit weg beginne die Anwendungsrelevanz. Und damit dann auch das Kontrollinteresse der Gesellschaft.

Vergleiche zeigen, dass einerseits beispielsweise in den USA Fachgesellschaften deutlich detailliertere, strengere, häufiger aktualisierte und vor allem mit dem Hinweis auf Enforcement Procedures und Ethikkommissionen hinterlegte Ethikkodizes haben – man klicke etwa auf die Ethikinformationen der AMC.5 Auch die Förderorganisation NSF geht zum Thema ins Detail (vgl. National Academies 2022).

Andererseits scheint beispielsweise die deutsche Gesellschaft für Sprachtechnologie und Computerlinguistik gar keinen Ethikkodex zu besitzen und weist auch in Zeit großer Sprachmodelle (LLM) nicht auf eventuelle gesellschaftliche Debatten oder Konflikte hin. Dass auch die Gesellschaft für Informatik weder die neue EU-Gesetzgebung rund um Künstliche Intelligenz (Data Act, AI Act) noch die Debatte um den flächendeckenden Einsatz von KI-Tools seit der weltweiten Freischaltung von ChatGPT durch eine Aktualisierung ihrer Ethikaussagen beantwortet hat, zeigt schon das Erscheinungsdatum: Die Leitlinie wurde vor sechs Jahren zuletzt verändert.

Nun muss man nicht der Meinung sein, dass Ethikkodizes überhaupt etwas anderes sind als heiße Luft. Zumal, wenn sie sehr allgemein formuliert sind, jede Art von Regelcharakter ablehnen und auch auf Durchsetzungsinstrumente oder Sanktionsverfahren verzichten, fehlen ihnen die Merkmale, die etwa das ärztliche Standesrecht hat. Angewandte Ethik wiederum bleibt vielfach eher ein Feld des Palavers, dank welchem man sich an immer neue Tabubrüche eher gewöhnt, als disruptiver Technologieentwicklung wirklich Schranken zu setzen. Ethikkodizes verraten also vielleicht einfach nur, wie diejenigen ticken, die meinen, etwas Ethisches aufschreiben zu müssen, wobei sie kritische Aspekte dessen, was sie tun, jedoch im Grunde wenig interessieren. Sagen wir es also mal so: Auch in dieser Hinsicht – bei der Produktion einer bloß pflichtschuldigen Ethik – gehen in der deutschen Informatik die Uhren langsam. Ab und an entrümpelt man Begriffe, die aus älteren, engagierteren Zeiten kommen („fordern“, sich „mit verantwortungsvollem Handeln exponieren“, „Interdisziplinarität“, „Vorbild“ etc.). Ebenso greift man neue Buzz Words auf („frei von Diskriminierung“). Immerhin jedoch ist man stolz darauf, dass man – wie alle es tun sollten – die Würde des Menschen respektiert.

  1. Alle Dokumente findet man auf dem GI-Portal; vgl. GI 2018/2024. ↩︎
  2. Tatsächlich kann die adverbiale Wortstellung Kopfzerbrechen bereiten. In einer vernetzen Welt sei es (stets?) notwendig, „Handlungsalternativen im Hinblick auf ihre absehbaren Wirkungen und möglichen Folgen interdisziplinär zu thematisieren“ (Präambel, Fassung von 2018): Meint dies, die Foren der Thematisierung sollten interdisziplinäre sein (Dialog mit Expertinnen und Experten anderer Fachlichkeit), oder ist „interdisziplinär“ eine vom disziplinär Üblichen abweichende Weise des Thematisierens, so dass man sich etwa in verständlicher Sprache – aber nicht im Dialog mit anderen Fächern – zu den fraglichen Wirkungen und Folgen verhalten soll? Die Frage ist nicht so trivial, wie sie scheint, angesichts der unlängst rund um „KI“ mehrfach zu beobachtenden Neigung von Computerwissenschaftlern und IT-Unternehmern, sich über „Manifeste“ breit öffentlich zu äußern. Manifeste scheinen mir jedenfalls kein Dialogformat zu sein, um sich auf interdisziplinären Foren den Analysen und Ansichten anderer Wissenschaften zu stellen. ↩︎
  3. Hierzu ein Dank an die Kollegen Stefan Ullrich und Nicolas Becker, die mir im Juni 2024 auf Nachfrage per E-Mail erläutert haben, dass und wie die GI-Ethikthemen gewisse „normative Aussagen“ hier und da zwar trifft, im Prinzip aber eben doch ganz auf ihren einen, traditionsreichen Kodex setzt. ↩︎
  4. Der Entstehung des Kodex hat der daran beteiligte Wolfgang Coy einen Aufsatz gewidmet, der vor allem den ausführlichen Diskussionen ein Denkmal setzt (vgl. Coy o.D.); den Hinweis auf den Text verdanke ich wiederum Ulrich und Becker. ↩︎
  5. AMC 2021; vgl. auch die Enforcement Procedures von 2024, beschrieben unter https://ethics.acm.org/enforcement/ [9.6.2024]. Zwar hoch moralisch aber weniger spezifisch hingegen der Ethikkodex der Großvereinigung I3E (IEEE 2020). ↩︎

ACM (Association of Computing Machinery) (2021): ACM Code of Ethics and Professional Conduct. https://ethics.acm.org/ [9.6.2024]

Coy, Wolfgang (o.D.): Die ethischen Leitlinien der GI – ein langer Weg (zur dritten Version). https://gewissensbits.gi.de/ein-langer-weg/ [19.7.2024]

GI (Gesellschaft für Informatik) (2024): Über uns [Webseitentext]. https://gi.de/ueber-uns [9.6.2024]

GI (Gesellschaft für Informatik) (2018/2024): Unsere ethischen Leitlinien [Webseitentext]. https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/ [9.6.2024]

IEEE (Institute of Electrical and Electronical Engineers) (2020): Code of Ethics. https://www.ieee.org/content/dam/ieee-org/ieee/web/org/about/corporate/ieee-code-of-ethics.pdf [9.6.2024] National Academies (2022): Responsible Computing Research: Ethics and Governance of Computing Research and its Applications. https://www.nationalacademies.org/our-work/responsible-computing-research-ethics-and-governance-of-computing-research-and-its-applications [9.6.2024]

Gehring, Petra (2024): Immerhin noch die Menschenrechte. Die aus der Zeit gefallene Ethik der Gesellschaft für Informatik. In: Verantwortungsblog. https://zevedi.de/immerhin-noch-die-menschenrechte-die-aus-der-zeit-gefallene-ethik-der-gesellschaft-fuer-informatik/ [26.09.2024]. https://doi.org/10.60805/p4bz-xr52

Kategorien
Akzentfarbe: Dunkelblau Autor: Michael Bäuerle Uncategorized Verantwortungsblog

Karlsruhe locuta, causa non finita – Palantir, die Polizei und kein Ende

Karlsruhe locuta, causa non finita
Palantir, die Polizei und kein Ende

Die Marketing-Abteilung der Firma Palantir dürfte es als großen Erfolg betrachten, dass ihr Produkt in den Behörden gleichsam zum Eigennamen für digitale Strafverfolgung überhaupt avanciert ist. Ob der Einsatz der Software allerdings rechtmäßig ist, bleibt äußerst zweifelhaft. Ein Kommentar.

Von Michael Bäuerle | 12.09.2024

Erstellt mit Adobe Firefly. Prompt: „painting; minimalist; placed on top of a police car in white and blue lies a small magical glass ball; blurry background.“

Mit dem Urteil vom 16.02.20231 hat das Bundesverfassungsgericht eine Norm des hessischen Polizeigesetzes2 für verfassungswidrig erklärt, die den polizeilichen Einsatz einer sogenannten automatisierten Anwendung zur Datenanalyse erlaubte. Die Norm war zugeschnitten auf eine Analyseplattform, die auf dem Programm „Gotham“ der Firma Palantir Inc. beruht, das Hessen im Jahr 2017 im Rahmen eines politisch umstrittenen Vergabeverfahrens erworben und unter dem Namen HessenDATA auf die polizeiliche Datenverarbeitung hatte zuschneiden lassen.3 Außer in Hessen kommt die Analysesoftware auch in Bayern unter dem Namen VeRA (verfahrensübergreifendes Recherche- und Analysesystem) und Nordrhein-Westfalen unter dem Namen DAR (System zur Datenbankübergreifenden Analyse und Recherche) zum Einsatz.4

Da das Bundesverfassungsgericht eine bis zum 30.09.2023 befristete vorübergehende Fortgeltung der beanstandeten Regelung angeordnet hatte,5 konnte HessenDATA zunächst trotz der Unvereinbarkeit der Regelung mit dem Grundgesetz zunächst weiter genutzt werden, bedurfte jedoch nach Ablauf der Frist einer neuen verfassungskonformen Rechtsgrundlage. Eine solche sollte durch die kurzfristige Einfügung einer neuen Regelung in ein bereits laufendes Gesetzgebungsverfahren geschaffen werden.6

Rechtspolitisch umstritten war der Rückgriff auf eine Software von Palantir nicht zuletzt wegen eines zweifelhaften Rufs der Firma und ihrer Gründer.7 Diesen Aspekt hatte das Bundesverfassungsgericht dezent mit der Formulierung aufgegriffen: „Wird Software privater Akteure oder anderer Staaten eingesetzt, besteht zudem eine Gefahr unbemerkter Manipulation oder des unbemerkten Zugriffs auf Daten durch Dritte.“8

Grundsätzlich reiht sich das Urteil indessen ein in den inzwischen über zwei Dutzend Urteile und Beschlüsse umfassenden Bestand an „Ja, aber“-Entscheidungen des Bundesverfassungsgerichts zu den Befugnissen der Sicherheitsbehörden in Bezug auf den Umgang mit personenbezogenen Daten der Bürger:innen.9 In diesen Entscheidungen hat das Gericht bisher einerseits kein Eingriffsinstrument und keine neue Sicherheitstechnologie gänzlich für unzulässig erklärt. Es hat andererseits mit Blick auf den nach Intensität des Eingriffs unterschiedlich zu gewichtenden grundrechtlichen Schutz der informationellen Selbstbestimmung regelmäßig Korrekturen an den gesetzlichen Grundlagen verlangt, insbesondere im Hinblick auf deren Bestimmtheit und Verhältnismäßigkeit.10

Da diese Rechtsprechungslinie ihren Ausgangspunkt bereits im Jahr 1999 hatte, sollte von den Gesetzgebern in Bund und Ländern inzwischen eine gewisse Erfahrung in der Schaffung verfassungskonformer Rechtsgrundlagen für entsprechende Eingriffsinstrumente erwartet werden können; eine solche spiegelt sich indessen in den entsprechenden Gesetzentwürfen häufig nicht wider. Die Länder testen was geht, Datenschützer sehen eine Überschreitung von Grenzen, so dass die Entscheidungsserie des Bundesverfassungsgerichts nie abgerissen ist.

Eine Fortsetzung dieser Serie zeichnet sich nunmehr auch im Fall der Nutzung der Palantir-Software durch die Polizei ab. Bereits seit dem Jahr 2022 ist eine Verfassungsbeschwerde gegen die nordrhein-westfälische Regelung in Karlsruhe anhängig.11 Und auch gegen die neue hessische Regelung – die ganz auf die Nutzung gerade der Palantir-Software zugeschnitten ist und den verfassungsrechtlichen Anforderungen unter mehreren Gesichtspunkten wiederum nicht genügen dürfte12 – wurde jüngst erneut Verfassungsbeschwerde eingelegt.

Rechtspolitisch zeigt die Entwicklung, dass es der Firma Palantir offensichtlich gelungen ist, ihr Produkt bei den Entscheidungsträgern der Sicherheitsbehörden als unentbehrlich für eine effektive Gefahrenabwehr und Strafverfolgung zu verankern. So hat das Land Bayern nach einer europaweiten Ausschreibung bereits 2022 einen Rahmenvertrag über die Software mit Palantir abgeschlossen, dem der Bund und andere Länder ohne ein weiteres Ausschreibungsverfahren beitreten können.13

Tatsächlich denken ausgerechnet die Befürworter einer softwaregestützten Strafverfolgung augenscheinlich nicht über einen zumindest weniger bedenklichen Software-Partner nach. Als die Bundesinnenministerin im Sommer 2023 entschied, diese Option für die Bundesebene – die inzwischen die Bezeichnung Bundes-VeRA erhalten hatte – nicht zu nutzen, hatte dies einen Antrag der CDU/CSU Fraktion mit dem bezeichnenden Titel „Handlungsfähigkeit der Strafverfolgungsbehörden sichern – Entscheidung des Bundesministeriums des Innern und für Heimat bezüglich der polizeilichen Analyse-Software Bundes-VeRA revidieren“ zur Folge.14 Dieser Antrag führte zu einer öffentlichen Anhörung im Innenausschuss, in der sich zwar alle Vertreter von Polizei und Sicherheitsbehörden, aber keiner der geladenen Expert:innen für die Nutzung der Palantir-Software aussprach.15

Die Marketing-Abteilung der Firma Palantir dürfte es als großen Erfolg betrachten, dass ihr Produkt in den Behörden gleichsam zum Eigennamen für digitale Strafverfolgung überhaupt avanciert ist. Stolz ist man sicher auch auf die Tatsache, dass von der polizeilichen Nutzung ihrer Software nach Wertungen im rechtspolitischen Raum Berlins offenbar nicht weniger als die Handlungsfähigkeit der deutschen Sicherheitsbehörden abhängt. Aus verfassungsrechtlicher Sicht lässt indessen schon das erste Urteil des Bundesverfassungsgerichts zweifeln, ob es gelingen wird, die Nutzung dieser Software verfassungskonform „einzuhegen“. Fest steht indessen erneut: Das letzte Wort aus Karlsruhe ist noch nicht gesprochen.

  1. Urteil des Ersten Senats des Bundesverfassungsgerichts vom 16. Februar 2023 (- 1 BvR 1547/19 – und – 1 BvR 2634/20 -), abzurufen unter https://www.bverfg.de/e/rs20230216_1bvr154719.html; vgl. dazu auch https://datenschutz.hessen.de/presse/urteil-des-bundesverfassungsgerichts-rechtsgrundlage-fuer-hessendata-verfassungswidrig. Das Urteil findet sich auch in NJW 2023, S. 1196 ff. ↩︎
  2. § 25a des Hessischen Gesetzes über die öffentliche Sicherheit und Ordnung (HSOG) in der bis zum 12.07.2023 geltenden Fassung, der mit Wirkung zum 04.07.2018 in das HSOG eingefügt worden war durch Gesetz vom 25.06.2018 (GVBl. S. 302). ↩︎
  3. Vgl. dazu Bäuerle in Möstl/Bäuerle: BeckOK Polizei- und Ordnungsrecht Hessen, 33. Ed. 2024, § 25a, Rn. 1 ff. (5); Arzt in Lisken/Denninger: Handbuch des Polizeirechts, 7. Aufl. 2021, Abschnitt G, Rn. 1304 ff. ↩︎
  4. Arzt in Lisken/Denninger 2021, Abschnitt G, Rn. 1305 (zu NRW) und www.stmi.bayern.de/med/pressemitteilungen/pressearchiv/2022/59/index.php (zu Bayern), vgl. auch BT-Drucks. 20/8390, S. 2 ff. (Antworten der Bundesregierung auf eine kleine Anfrage der CDU/CSU-Fraktion zur Einführung eines solchen Analysetools). ↩︎
  5. Vgl. BVerfG NJW 2023, 1196 (1215). ↩︎
  6. Vgl. zu den aus der Kurzfristigkeit der Einfügung der Norm in das laufende Verfahren resultierenden Bedenken gegen deren formelle Verfassungsmäßigkeit Bäuerle in Möstl/Bäuerle, BeckOK Polizei- und Ordnungsrecht Hessen, 33. Ed. 2024, § 25a, Rn. 16 ff. ↩︎
  7. Vgl. dazu etwa https://www.deutschlandfunk.de/software-firma-palantir-superstar-der-us-100.html, https://www.basecamp.digital/big-data-wo-die-software-firma-palantir-bereits-ueberall-mitmischt/. ↩︎
  8. BVerfG NJW 2023, 1196 (1205). ↩︎
  9. Vgl. die Übersicht bei Bäuerle, Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung, Frankfurt 2024, S. 88 ff. ↩︎
  10. Dazu im Einzelnen m.w.N. Bäuerle, Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung, Frankfurt 2024, S. 18 ff. ↩︎
  11. Vgl. https://freiheitsrechte.org/ueber-die-gff/presse/pressemitteilungen-der-gesellschaft-fur-freiheitsrechte/pm-stop-data-mining. ↩︎
  12. Vgl. Bäuerle in Möstl/Bäuerle, BeckOK Polizei- und Ordnungsrecht Hessen, 33. Ed. 2024, § 25a, Rn. 31 ff. ↩︎
  13. Vgl. auch BT-Drucks. 20/8390, S. 2 ff.
    ↩︎
  14. (14) BT-Drucks. 20/9495. ↩︎
  15. (15) Die Stellungnahmen der Anzuhörenden und ein Video sind abrufbar unter https://www.bundestag.de/dokumente/textarchiv/2023/kw48-de-software-bundes-vera-979672. ↩︎

Bäcker, Matthias/Denninger, Erhard/Graulich, Kurt (Hrsg.): Handbuch des Polizeirechts. 7. Auflage. München: Beck 2021.

Bäuerle, Michael: Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung. Frankfurt am Main: Beck 2024.

Möstl, Markus/Bäuerle, Michael (Hrsg.): Polizei- und Ordnungsrecht Hessen. 33. Edition, München: Beck 2024.

Bäuerle, Michael (2024): . In: Karlsruhe locuta, causa non finita – Palantir, die Polizei und kein Ende. Verantwortungsblog. https://zevedi.de/karlsruhe-locuta-causa-non-finita-palantir-die-polizei-und-kein-ende/ [12.09.2024].
https://doi.org/10.60805/vp3w-fk07

Kategorien
Akzentfarbe: blau (Digitalcourage-Interview) Autorin: Julia Witte Uncategorized Verantwortungsblog

Ein Recht auf ein Leben ohne Digitalzwang

Ein Recht auf ein Leben ohne Digitalzwang

Wie sieht sie aus, die „lebenswerte Welt“ im digitalen Zeitalter? Digitale Zwänge gehören nicht dazu, meint der Verein Digitalcourage. Mit einer Petition möchte er dazu anregen, das Grundgesetz zu erweitern.

Julia Witte von Digitalcourage e.V. im Gespräch mit Eneia Dragomir | 28.08.2024

Ein Mensch, der an sein Smartphone gekettet ist.
Erstellt mit Adobe Firefly. Prompt: „Stil: minimalistisch, Kubismus; ein Menschen ist an ein Smartphone gekettet; Farben: blautöne, grau“.

Gibt es die Bahncard bald nur noch über die Bahn-App? Kann man das bestellte Paket in Zukunft nur noch an der Packstation abholen, wenn man die App der Post nutzt? Entwickelt sich der Komfort, den Smartphones und Apps gebracht haben, zu einem Zwang? Der Verein Digitalcourage e.V. beschreibt sich als „technikaffin“, beobachtet aber mit Sorge die Zunahme digitaler Zwänge, erfasst diese mit seinem „Digitalzwangmelder“ und macht mit den „BigBrotherAwards“ auf bestimmte Fälle aufmerksam. Zum 75. Jahrestag des Grundgesetzes hat der Verein eine Petition gestartet, um das Grundgesetz um ein „Recht auf Leben ohne Digitalzwang“ zu erweitern. Eneia Dragomir hat mit Julia Witte von Digitalcourage e.V. über die Kampagne und darüber gesprochen, wie die „lebenswerte Welt im digitalen Zeitalter“ aussieht, für die sich ihr Verein einsetzt.

Julia Witte: Man sieht gerade, dass an vielen Stellen Infrastruktur abgebaut wird. Angestoßen wurde bei uns das Thema durch einige Umstellungen bei der Deutschen Bahn (DB). Zuerst hatte die DB angekündigt, dass es die Bahncard in Zukunft nur noch über die App geben soll, also über den DB Navigator. Daraufhin gab es viel Kritik an diesem Vorhaben und die Bahn ist ein bisschen zurückgerudert. Jetzt gibt es auch eine alternative Lösung: Man kann sich den QR-Code ausdrucken, als Ersatz für die Bahncard. Allerdings gibt es diese Alternative nur für Leute, die einen Onlineaccount haben. Man muss also einen Onlineaccount bei der Bahn haben, um eine Bahncard haben zu können. Die Bahn nennt das selbst eine „vorübergehende Alternative“, die Menschen den „Übergang in die digitale Welt erleichtern“ soll. Das ist für uns ein Fall, wo Menschen von der Möglichkeit ausgeschlossen werden, bezahlbare Zugtickets zu bekommen, wenn sie die App oder den Onlineaccount nicht haben wollen – dabei ist Bahnfahren Teil einer Grundversorgung.

Das Ende der Plastikkarte hat die Bahn damit begründet, dass sie Plastik einsparen wollen, was wir für eine Luftnummer halten. Es hätte viele Wege gegeben, wenn es wirklich um das Plastik gegangen wäre. Man hätte beispielsweise für Dauerabonnent:innen eine Karte einführen können, die man nicht ständig austauschen muss. Es gibt auch Chipkarten, die größtenteils aus Holz oder biologisch abbaubarem Material bestehen. Bei der Maßnahme ging es unserer Meinung nach darum, die Leute zur Nutzung der App zu drängen. Auch bei den kostengünstigen Sparpreis-Tickets gab es eine Änderung: Diese Tickets werden an den Automaten gar nicht mehr verkauft und am Schalter sollen Kund:innen jetzt eine Telefonnummer und eine E-Mail-Adresse hinterlegen. Auch das geht in diese Richtung und hat viele Anfragen bei uns zur Folge. Unseres Erachtens völlig zu Recht, denn auch das ist ein Fall von Grundversorgung, die an bestimmte Bedingungen geknüpft wird. Das waren konkrete Auslöser für unsere Initiative.

JW: Das Thema treibt uns schon länger um. Wir haben schon vor ein paar Jahren einen „Digitalzwangmelder“ ins Netz gestellt. (Digitalcourage 2024b) Der Grund war damals die kritische Diskussion der Luca-App während der Coronapandemie: Ist es in Ordnung, wenn eine private Firma massenhaft Daten über die Aufenthaltsorte von Leuten einsammelt und in einer zentralen Datenbank speichert? Wir wollten dann wissen: Wo gibt es noch solche Fälle, in denen man zu einer bestimmten digitalen Lösung genötigt wird, weil man sonst von wichtigen Leistungen oder dem öffentlichen Leben ausgeschlossen ist?

Wir haben sehr unterschiedliche Rückmeldungen bekommen. Auch Amüsantes, wie die Meldung einer Körperfettwaage, die sich sofort mit der Cloud des Herstellers verbinden wollte. Da kann man den Kopf schütteln und sagen, „Okay, schick sie zurück und kauf ein anderes Produkt“. Es gab aber auch Meldungen, die in den Bereich der Grundversorgung gingen und bei denen sich uns die Nackenhaare hochgestellt haben. Das war etwa die Meldung, dass die Post auf Packstationen ohne Display umstellt, die für die Kund:innen nur noch per App bedienbar sind. Dafür haben wir der Deutsche Post DHL Group letztes Jahr einen BigBrotherAward verliehen. (Tangens 2023) Das Szenario ist Folgendes: Ich bekomme ein Paket, bin aber nicht zuhause. Das Paket wird zu einer Packstation umgeleitet, die nach diesem neuen Modell funktioniert und kein Display hat. Ich möchte mein Paket abholen und an der Packstation steht: Bitte laden Sie die App herunter, um Ihr Paket zu bekommen. Wenn ich die App nicht möchte, muss ich eine Neuzustellung beantragen – das Formular dazu ist allerdings auf der Webseite von DHL nicht leicht zu finden. Das ist aus unserer Sicht ein Fall von App-Zwang.

Das also war die Situation, in der wir diese Petition gestartet haben. Der übergeordnete Grund ist, dass sich unserer Meinung nach gerade etwas zusammenzieht: An immer mehr Stellen findet eine gedankenlose Digitalisierung statt, die oft sehr schlecht und wenig inklusiv umgesetzt wird. Und wir haben Sorge, dass ein neuerliches entsprechendes Angebot immer unwahrscheinlicher wird, wenn die analoge Infrastruktur erst abgebaut ist. Bei der Bahn geht es dabei beispielsweise um Serviceschalter und um Fahrkartenautomaten. Wir glauben, dass es keine gute Idee ist, diese Infrastrukturen komplett auf null zurückzufahren.

JW: Ich bin ein bisschen vorsichtig mit dem Begriff „analog“. Es gibt digitale Lösungen, die nicht automatisch sehr viele Menschen ausschließen. Ich habe grundsätzlich kein Problem damit, wenn in einem Bahnhof ein digitaler Abfahrtsmonitor hängt. Klar, es gibt das Resilienzproblem, insofern der Monitor ausfallen kann. Aber das ist ein Beispiel für eine Form von Digitalisierung, die keine Barriere aufbaut in dem Sinne, dass ich ein bestimmtes Endgerät brauche und eine bestimmte App, um den Dienst nutzen zu können.

Im Großen und Ganzen geht es uns um vier Hauptargumente: Das erste ist die Teilhabe. Es gibt Menschen, die bestimmte Dienste nicht nutzen können. Und es wird oft versucht, das mit dem Argument abzutun, dass es nur mehr Schulungen bräuchte, um diesen Leuten beizubringen, wie sie Apps installieren und bedienen. Das sind gute Initiativen. Aber ich glaube, dass man dadurch das Problem nicht vollständig lösen kann, weil es trotzdem zum Beispiel weiterhin Menschen geben wird, die kein Geld für ein Smartphone haben. Es gibt auch Menschen, die eine Krankheit oder Einschränkung haben, wegen der sie bestimmte digitale Geräte oder Dienste nicht nutzen können. Für all diese Menschen muss Teilhabe sichergestellt werden.

Dann ist für uns das Thema Überwachung und Datenabfluss ganz wichtig. Digitalisierung läuft zurzeit leider häufig so ab, dass Anbieter beschließen: „Wir machen jetzt eine App und bieten unsere Services dann nur noch auf diesem Weg an. Und wo wir schon dabei sind, verbauen wir in der App noch ein paar Tracker. Dann können wir zusätzliche Analysen machen. Und wo wir die Daten schon mal haben, können wir sie auch gewinnbringend für etwas anderes nutzen oder weiterverkaufen.“ Diese kommerzielle Überwachung wird immer umfangreicher, jede Verhaltensäußerung wird erfasst. Die Wirtschaftswissenschaftlerin Shoshana Zuboff hat diese Tendenz als „Überwachungskapitalismus“ beschrieben. (Zuboff 2018) Digitalzwang und diese Sammelwut bezüglich alltäglicher Verhaltensdaten gehen oft Hand in Hand.

Eine große Rolle spielt für uns auch das Thema Wahlfreiheit. Ich finde es gruselig, mir vorzustellen, dass ich in vielleicht zwei, drei oder fünf Jahren in einer Welt lebe, in der ich ohne Smartphone nicht mehr aus dem Haus gehen kann. Weil ich ohne Smartphone nicht mehr einkaufen, Zug fahren oder am öffentlichen Leben teilhaben kann – vielleicht nicht mal mehr einen Bus nehmen kann, weil der Abfahrtsplan hinter einem QR-Code versteckt ist. Das ist eine Wahlfreiheit, die ich gerne erhalten würde. Es ist doch eine legitime Entscheidung von Leuten, kein Smartphone zu haben oder vielleicht auch nur ein paar Jahre darauf verzichten zu wollen, oder? Es gibt sehr viele Konstellationen, die dazu führen können, dass Leute sich gegen ein Smartphone oder gegen bestimmte digitale Dienste entscheiden. Ich persönlich möchte zum Beispiel möglichst wenig Google-Dienste auf meinem Handy haben und schon das schließt mich von vielen Möglichkeiten aus. Ich möchte nicht, dass ich in ein paar Jahren nicht mehr Bahn fahren kann, weil ich den Google Play Store nicht auf meinem Handy haben möchte. Wir können doch nicht Leistungen der Grundversorgung davon abhängig machen, dass ich bereit bin, Apple oder Google meine Daten auf dem Silbertablett zu servieren.

Und zuletzt geht es uns auch um Resilienz. Im März 2024 waren mehrere Länder in Afrika ohne Internet, weil ein Unterseekabel beschädigt war. (tagesschau.de 2024) Eine verbreitete Software kann großflächig Probleme verursachen oder die zugrunde liegende Infrastruktur kann ausfallen. Es wäre schön, wenn unsere Gesellschaft in solchen Fällen nicht völlig explodieren würde.

JW: Je mehr wir analoge Lösungen abschaffen, desto abhängiger werden wir von bestimmten digitalen Diensten und von durchaus vulnerablen Infrastrukturen. Es geht mir dabei nicht nur um den technisch bedingten Ausfall von Diensten, sondern auch um die Monopolisierung ganzer Bereiche, die uns in Abhängigkeiten treibt. Wenn wichtige Teile unserer öffentlichen Infrastruktur zum Beispiel auf den Angeboten von Google aufgebaut und davon abhängig sind, dann stellt sich die Frage: Welche Möglichkeiten hat zum Beispiel die Europäische Kommission oder das Kartellamt noch, Google zu regulieren? Wenn beispielsweise die Kommission anstreben würde, den Konzern Google aufzuspalten – übrigens eine langjährige Forderung von Digitalcourage (Tangens & padeluun 2013) –, dann könnte Google androhen, bestimmte Dienste in der EU nicht mehr anzubieten und die Behörden hätten eine sehr schwere Verhandlungsposition. Deswegen sollten wir analoge Strukturen an sehr wichtigen Stellen erhalten, und uns zusätzlich bei unserer technischen Infrastruktur nicht völlig abhängig machen von den Monopolisten auf dem Markt, sondern auf freie Software-Lösungen und offene Schnittstellen setzen.

Dafür gibt es auch noch einen anderen guten Grund: Wenn es nur eine einzige digitale Lösung gibt, um an einen wichtigen Dienst zu kommen, dann gibt es keine Konkurrenz. Und damit gibt es wenig Motivation, ein digitales Angebot attraktiv zu gestalten. Wenn eine bestimmte App die einzige Möglichkeit ist, um z.B. an Zugtickets zu kommen, dann ist es egal, wie bedienbar diese App ist, wie wenig dabei auf die Privatsphäre geachtet wird oder wie vertrauenswürdig sie insgesamt erscheint. Die Kund:innen müssen sie nutzen. Auch deswegen setzen wir uns gegen Digitalzwang ein: Ohne solche Zwänge müssen die Anbieter digitale Angebote erarbeiten, die die Leute überzeugen.

JW: Wir dürfen nicht nur darauf schauen, was auf den ersten Blick einfach und bequem für das Individuum zu sein scheint. Wir müssen auch darauf schauen, was für gesellschaftliche Auswirkungen sich ergeben. Mit unserer Kampagne treten wir gegen Digitalzwang ein, aber nicht gegen Digitalisierung oder gegen digitale Angebote. Im Gegenteil: Wir begrüßen digitale Angebote, aber wir möchten, dass noch andere Wege existieren.

JW: Ja, absolut. Bei der Deutschen Bahn zum Beispiel sehen wir das als eine Salamitaktik: Erst gibt es nur einige Tickets und Services ausschließlich digital. So kann das Unternehmen sich vorerst noch herausreden und auf andere Tickets verweisen, die noch ohne App erhältlich sind. Aber für die Bahn lohnt es sich natürlich, wenn sie die analogen Wege irgendwann abschaffen kann und diese Infrastruktur nicht mehr erhalten und pflegen, bzw. das Personal dafür finanzieren muss. Da sehen wir auf jeden Fall einen Trend, der sich weiter fortsetzen wird – wenn wir uns als Gesellschaft nicht entschließen, gegenzusteuern.

JW: Ja, selbstverständlich. Ich glaube, da findet gerade auch ein großes Umdenken statt. Ich würde behaupten, dass wahrscheinlich kaum jemand die Maßnahmen, die jetzt im Digital Markets Act (DMA) beschlossen wurden, vor einigen Jahren für politisch realistisch gehalten hätte. Das Gesetz schränkt die Möglichkeiten der ganz großen Tech-Unternehmen ein, ihre Funktion als Türsteher auszunutzen, um eigene Angebote zu bevorzugen und die Spielregeln immer zum eigenen Vorteil zu machen.

Ich glaube, dass dem ein großer gesellschaftlicher Diskurs vorausgegangen ist. Das Bewusstsein für das Manipulationspotenzial, das Konzerne wie Google haben, hat zugenommen. In den USA gibt es eine Strömung progressiver Kartellrechtler:innen, die als „New Brandeis School“ den schädlichen Einfluss von Monopolen auf unsere Demokratien betont. Immer häufiger taucht die Forderung auf – nicht nur von uns –, sehr große Digitalkonzerne zu entflechten. Und zwar nicht als Reaktion auf einzelne Vergehen, sondern weil diese Unternehmen eine so enorme Menge an Informationen über uns angehäuft haben – und damit eine so enorme Manipulationsmacht haben –, dass das nicht mehr mit unserer Demokratie verträglich ist. Im Fall von Google liegt das auf der Hand und auch Amazon ist ja gerade stark unter Druck.

Maßnahmen wie den DMA und auch den Digital Services Act (DSA) finden wir grundsätzlich begrüßenswert. Es wird in den nächsten Jahren spannend, wie schlagkräftig die Durchsetzung dieser Gesetze sein wird.

JW: Neben der unermüdlichen Aufklärungsarbeit, die wir und viele andere gemacht haben, gibt es sicher auch eine Reihe von Enthüllungen, die eine große öffentliche Reichweite bekommen und Bewusstsein für bestimmte Probleme geschaffen haben. Zum Beispiel der Skandal um die Wahlbeeinflussung durch Cambridge Analytica in den USA. Damals ist vielen klar geworden, dass personalisierte Online-Werbung nicht harmlos ist, dass es nicht nur darum geht, dass mir die Turnschuhe angezeigt werden, für die ich mich interessiere, sondern dass solche Werbung auch für gezielte politische Manipulation benutzt wird.

In den Jahren danach ist immer mehr über diesen Werbemarkt aufgedeckt worden. Eines der jüngsten Beispiele ist eine Recherche von Netzpolitik über den Datenmarktplatz Xandr. (Dachwitz 2023) Die Journalist:innen haben sich angeschaut, in was für Kategorien Leute dort eingeteilt werden – und festgestellt, dass die Kategorien nicht nur sehr feingranular, sondern ethisch mehr als fragwürdig sind. Sie können Ihre Werbung an konservative Rentner ausspielen lassen, an Minderjährige, an Betroffene von Brustkrebs, an Menschen mit Essstörungen, mit Geldsorgen, an Glücksspielsüchtige, an Menschen, die sich gerade scheiden lassen oder in der Menopause sind. Ich denke, da wird den meisten Menschen klar, dass diese Art von Kategorisierung nicht in meinem Sinne ist, weil ich dann nette Angebote bekomme, sondern, dass das massenhafte Sammeln solcher sensiblen Informationen für unsere Gesellschaft eine Gefahr darstellt.

Auch das Bewusstsein dafür, dass die Monopolisierung im digitalen Bereich ein Problem ist, steigt. Vorher hatten viele die Überzeugung, dass Google einfach ganz tolle Produkte hat und die Suchmaschine halt die beste ist – ein gerechtfertigtes Monopol sozusagen. Mittlerweile sagen immer mehr Leute, dass der Kipppunkt erreicht ist: Die Google-Suche wird immer schlechter, weil Google die Monopolstellung hat. Es gibt quasi keine Konkurrenz auf dem Markt und Google nutzt seine marktbeherrschende Stellung immer ungehemmter. Bei Amazon ist es vermutlich ein ähnliches Phänomen. Am Anfang haben alle gesagt: „Hurra! Eine Plattform, die alles miteinander verbindet. Wie großartig! Ist das nicht bequem?“ Dann wurden immer mehr kleine Händler aus dem Geschäft gedrängt, indem Amazon gezielt seine eigenen Angebote bevorzugt hat.

Es wird immer offensichtlicher, dass auch im digitalen Bereich Monopole weder der Gesellschaft und unserem demokratischen Frieden dienen noch sind sie marktwirtschaftlich gut. Denn am Ende führen sie auch zu schlechteren Produkten und Diensten.

JW: Ich glaube, das müssen wir in der pluralistischen Gesellschaft immer wieder miteinander neu aushandeln. Ich wünsche mir eine Digitalisierung, die mehr Möglichkeiten und Freiheiten schafft, nicht weniger. Um bei der Bahn zu bleiben und ein positives Beispiel zu nennen: Es gibt Versuche der Bahn mit Video-Schaltern. Das sind Geräte, die z.B. an einem Bahnhof stehen und wenn ich Beratung möchte, wird jemand vom Serviceteam per Video zugeschaltet. Das ist eine digitale Lösung, die auch Leute mitdenkt, die mit Smartphones oder mit Automaten nicht zurechtkommen. Manchmal hat man auch eine Frage, die einem kein technisches Gerät beantwortet und die in einer Computer-Telefonschleife nicht vorgesehen ist. Wenn es nur noch Chatbots mit vorgefertigten Antworten gibt, dann kann ich diese Frage nirgendwo mehr stellen – das ist sehr frustrierend.

In Bezug auf die Bahntickets kann ich mir auch gute digitale Lösungen vorstellen, die mir weniger Zwänge auferlegen. Die Tickets der Deutschen Bahn sind ja im Grunde genommen nur ein QR-Code. Warum soll ich diesen QR-Code in der App der Deutschen Bahn präsentieren? Warum kann sich die Bahn nicht ein System ausdenken, mit dem ich diese Informationen auf beliebige Art vorzeigen kann? Zum Beispiel auf einem uralten Smartphone oder Laptop mit einem PDF-Reader meiner Wahl, auf einem E-Book-Reader oder auf Papier. So könnten freie Open-Source-Apps entstehen, in die Tickets geladen werden könnten und die Fahrpläne anzeigen. Meines Erachtens gibt es keine sinnvolle Begründung, warum Bahnkund:innen genötigt werden müssen, diese eine App zu nutzen.

JW: Genau. Man könnte sich bei vielen Prozessen vorstellen, andere, kreativere Ansätze zu wählen. Der Trend geht aber, wie angesprochen, in eine andere Richtung: Man muss diese bestimmte App nutzen, die man nur im Google Play Store oder Apple Store herunterladen kann. Diese Digitalisierung ist eine Verengung. Das ist nicht die lebenswerte Welt im digitalen Zeitalter, die wir uns wünschen.

Digitalcourage versteht sich als sehr technikaffin. Wir interessieren uns für Open Source, wir haben Lust, mit unseren Geräten herumzuspielen, unser Wissen und unsere Möglichkeiten damit zu erweitern. Aber ich habe den Eindruck, als Gesellschaft verstehen wir uns in Beziehung zu unseren Geräten immer mehr als reine Konsument:innen. Ich möchte aber nicht nur konsumieren, ich möchte mit meinem Gerät selbst etwas machen können. Das ist es auch, was der Begriff „Hacker“ ursprünglich gemeint hat: Die Dinge zweckentfremden, irgendwie ganz anders angehen, neu interpretieren, eine neue Lösung für ein Problem finden. Das Gerät mal kräftig schütteln und gucken, ob man es anders zusammenbauen kann. Ich glaube, dieses Spielerische geht uns gerade verloren. Wir erleben uns in Bezug auf unsere technischen Geräte immer seltener als selbstbestimmt handelnde Personen. Die technische Entwicklung verengt unsere Teilnahme auf, „Da ist der App-Store, da kann man was herunterladen, das kann man dann auf eine bestimmte Weise nutzen“. Vielleicht gibt es dann noch drei Einstellmöglichkeiten, aber unsere Systeme werden tendenziell immer geschlossener und der spielerische Geist geht uns verloren.

Wir sollten Technik wieder mehr als etwas begreifen, das von Menschen geschaffen und veränderbar ist, womit wir uns auch ausdrücken können. Das ist eine wichtige Grundhaltung für viele Lebensbereiche – darauf baut nicht zuletzt unsere Demokratie auf.

JW: Auf die Frage gibt es wahrscheinlich so viele Antworten, wie wir Mitglieder haben. Für mich bezieht sich der Name auf das, was ich Ihnen eben skizziert habe: Die Courage, die Welt – in unserem Fall vor allem die digitale Welt – aktiv beeinflussen und gestalten zu wollen. Eigene Ideen davon zu entwickeln und dafür zu werben.

JW: Digitale Mündigkeit bedeutet, Verantwortung für das eigene Handeln im digitalen Raum übernehmen zu können. Das ist ein wichtiges Konzept für uns und wir versuchen auf verschiedene Weise – unter anderem mit Anleitungen und praktischen Tipps – Leute zu ermutigen, sich Wissen und eine gewisse Urteilsfähigkeit über Digitales anzueignen.

Gleichzeitig ist mir bewusst, dass das stark von den jeweiligen Ressourcen abhängig ist, die ein Mensch zur Verfügung hat: zum Beispiel Bildung, Zeit und Geld. Das muss ich alles haben, um mich damit auseinandersetzen zu können. Wenn ich nach einem langen Arbeitstag völlig ausgepowert bin, dann noch mein Kind ins Bett bringen muss, um danach die Küche aufzuräumen und meine Steuererklärung zu machen, dann habe ich wahrscheinlich wenig Energie übrig, um die Funktionsweise meines Messengers verstehen zu lernen.

Deshalb setzen wir uns als Digitalcourage auch dafür ein, dass digitale Grundrechte eingehalten und gestärkt werden. Um ein konkretes Beispiel zu nennen: Wir führen eine Klage gegen die Deutsche Bahn, bei der es um das nicht abwählbare Sammeln und Weitergeben von Trackingdaten in der App geht. Man kann Smartphones so konfigurieren, dass Tracking weitestgehend unterbunden wird. Ein Personenkreis mit bestimmtem Wissen und Fähigkeiten kann so auf technischem Wege seine Privatsphäre wiederherstellen. Aber das reicht nicht. Denn ein Grundrecht zu haben, bedeutet, dass dieses Recht nicht davon abhängig ist, dass ich die Ressourcen habe, es selbst für mich einzufordern. Privatsphäre ist wichtig für unsere Demokratie und steht uns allen zu – unabhängig davon, ob jemand Zeit, Geld und Wissen hat, um darauf zu pochen.

JW: Dass Digitalisierung nicht schnell genug vorangeht, stimmt und stimmt nicht. Letztlich ist es völlig unterkomplex, von der Annahme auszugehen: je mehr Digitalisierung, desto besser. Digitalisierung ist kein Selbstzweck und hat keinen Wert an sich. Bestes Beispiel: Ich kann ganz viele iPads in Schulklassen verteilen; wenn ich aber kein pädagogisches Konzept dazu habe, dann ist das nicht besser, dann haben die Kinder nur Bildschirme. Es muss eine nützliche Digitalisierung sein, die auf eine gute Art und Weise gestaltet ist. Und es geht nicht darum, das möglichst schnell zu machen, sondern es möglichst gut zu machen. Wenn das zügig geht, dann ist es toll. Es ist wichtig, Digitalisierung nicht als eine Art Naturgewalt zu betrachten, die einfach über uns kommt. Wir müssen sie als einen Prozess begreifen, den wir alle gemeinsam gestalten sollten und gestalten können.

Dachwitz, Ingo (2023): Das sind 650.000 Kategorien, in die uns die Online-Werbeindustrie einsortiert [08.06.2023], https://netzpolitik.org/2023/microsofts-datenmarktplatz-xandr-das-sind-650-000-kategorien-in-die-uns-die-online-werbeindustrie-einsortiert/ [22.07.2024].

Digitalcourage (2024a): Petition gegen Digitalzwang vom 22.5.2024 [Webseite]. https://digitalcourage.de/blog/2024/petition-fuer-recht-auf-ein-leben-ohne-digitalzwang-gestartet [24.07.2024].

Digitalcourage (2024b): Formular Digitalzwangmelder. https://civi.digitalcourage.de/digitalzwangmelder [24.07.2024].

Tagesschau.de: Mehrere afrikanische Länder ohne Internet [15.03.2024]. In: https://www.tagesschau.de/ausland/afrika/internet-ausfall-unterseekabel-100.html [24.08.2024].

Tangens, Rena (2023): Laudatio zur Preisverleihung an die Deutsche Post DHL Group [Webseite]. https://bigbrotherawards.de/2023/deutsche-post-dhl [29.07.2024].

Tangens, Rena & padeluun (2013): Google. In: https://bigbrotherawards.de/2013/google [24.08.2024].

Zuboff, Shishana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York: Campus Verlag.

Witte, Julia & Eneia Dragomir (2024): Ein Recht auf ein Leben ohne Digitalzwang. In: https://zevedi.de/ein-recht-auf-ein-leben-ohne-digitalzwang/ [28.08.2024].
https://doi.org/10.60805/6fph-8h98

Kategorien
Akzentfarbe: gelb Autor: Laura Grosser eFin-Blog Farbe: gelb

Maut – Digitales Bezahlen bei Reisen im Ausland

Maut – Digitales Bezahlen im Ausland

Ein Beitrag von Laura Grosser

26. August 2024

Sommerzeit ist Reisezeit – und das nicht nur mit öffentlichen Verkehrsmitteln wie Bus, Bahn und Flugzeug, sondern häufig mit eigener oder gemieteter Motorisierung. Ob mit dem eigenen PKW (mit oder ohne Wohnwagen), Camper oder Motorrad, viele legen gerade in den Sommermonaten im In- und Ausland weite Strecken zurück in Gegenden, die sie für gewöhnlich nicht durchqueren. Dabei ist man nicht immer gebührenfrei auf den Straßen unterwegs: In bestimmten Autobahnabschnitten und Durchgangsstraßen, über manche Brücken und Pässe oder in gewissen Stadtteilen werden Mautgebühren verlangt. In insgesamt 24 Ländern Europas gibt es streckenabhängige Mauten, Vignettenpflicht und/ oder Sondermauten für Tunnel, Pässe oder Brücken. Das ist nichts Neues, übersichtlich kann man sich beispielsweise auf der Seite des ADAC informieren – und auch viele (digitale) Ländervignetten kaufen.1https://www.adac.de/reise-freizeit/maut-vignette/

Eine Straße windet sich durch eine Berglandschaft. Auf der rechten Fahrbahn erscheint eine Preisangabe von 50 Euro, Kronen oder anderem

Doch von Sommerurlaub zu Sommerurlaub fiel mir auf, dass sich die Bezahlweisen dieser Straßengebühren ändern. Mit Personal ausgestattete Mautstellen sieht man immer seltener, viele Mauthäuschen bleiben dauerhaft geschlossen. An manchen Stellen ist es unmöglich, die Gebühren bar zu entrichten. An anderen sind nur zwei von zehn dieser Stellen darauf ausgerichtet, lange Schlangen bilden sich vor ihnen. Den Nummernschildern entnehme ich, dass es vor allem Urlauber sind, die sich hier einreihen. Ob sie wohl auf Nummer sicher gehen wollen, dass der Bezahlvorgang funktioniert? Oder sehen sie sich lieber einem menschlichen Ansprechpartner gegenüber? Ein anderer Grund mag sein, dass sie nicht mehr Daten als nötig von sich übermitteln möchten. Alle anderen Bezahlmöglichkeiten sind maschinengestützt – mit unterschiedlichen Vor- und Nachteilen.

Die Vignette

Die Vignette ist die datenfreie Variante. Man klebt sie ans Auto, egal ob Privat- oder Mietwagen, es gibt keine Registrierung des Kennzeichens, keinen Vertrag. An Raststätten lässt sich gar bar bezahlen. Erst durch ihre Bestellung im Internet oder Kartenzahlung fallen Daten an. Allerdings wird sie mehr und mehr von ihrer digitalen Version abgelöst: die E-Vignette ist elektronisch mit dem Kennzeichen verknüpft. In der Schweiz kann man seit Februar 2024 so auch übers Internet direkt eine Vignette lösen, mit vorab 1,6 Millionen verkauften zeigt sich ein starker Trend.2https://www.blick.ch/wirtschaft/stichtag-am-1-februar-bereits-1-6-millionen-e-vignetten-im-umlauf-das-musst-du-wissen-id19372835.html

Die EC- oder Kreditkarte am Schalter

An Mautstellen wird gerade von Reisenden aus dem Ausland die Möglichkeit, mit EC- oder Kreditkarte zu bezahlen, nach der Barzahlung am häufigsten genutzt, wie ich der Einreihung in Schlangen vor Mautstellen beispielsweise in Frankreich entnehme. Wie bei jeder Kartenzahlung werden dadurch Daten generiert und übertragen, sodass nachverfolgbar ist, mit wessen Karte wann wo welcher Betrag gezahlt wurde. Welches spezifische Auto die Mautstrecke passiert, wird nicht registriert, nur Gewicht und Größe spielen für die Erhebung der Höhe der Maut eine Rolle. Von Vorteil ist das schnellere Prozedere. Bargeld in der jeweiligen Landeswährung muss nicht mit sich geführt werden, die Abbuchungen können auf dem eigenen Konto kontrolliert werden. Wird die Karte aber nicht angenommen, steht man vor einem Problem: wie aus der Schlange herauskommen und wen um Hilfe bitten?

Die Mautbox

Hat man eine Mautbox im Auto, die lediglich zur Erkennung gescannt wird, geht es noch schneller. Die Schranke öffnet sich bereits beim Anrollen. Und ebenso automatisiert werden die Gebühren abgebucht. Die Schnelligkeit der Durchfahrt wird allerdings auch mit Daten bezahlt: Es gibt eine Aufstellung, wo man wann auf Mautstrecken gefahren ist, das Kennzeichen des eigenen Fahrzeugs oder von mehreren, auch Mietwagen, werden registriert, und man muss seine Mailadresse, Kontodaten und Anschrift zur Versendung der Mautbox angeben. Zudem muss ein sich automatisch verlängernder Jahresvertrag abgeschlossen werden. Mautboxzwang gibt es für reisende Urlauber in kleinen Fahrzeugen nirgends, es bleibt eine Option (anders für LKW oder vergleichbar große Urlaubsgefährte).

ANPR-Kameras – Bezahlen im Internet oder über Apps

In meinem Norwegenurlaub habe ich im großen Stil eine neue Erfahrung gemacht: Überall wimmelt es  von ANPR-Kameras. Nicht nur auf Autobahnen, auch auf kleineren Landstraßen, Fähren und auf Parkplätzen. ANPR steht für „Automatic Number Plate Recognition“ – die Kennzeichen werden gescannt und somit registriert, wer wann welche Straße nimmt, welche Fähre man nimmt oder wo man parkt. An den großen Fährstationen mit Vorabbuchung wurde ich so von den Kontrolleuren bereits mit Namen gegrüßt. Denn schon bei der Anfahrt sind für sie im Kontrollhäuschen alle relevanten Daten einsehbar.

Die dadurch beschleunigten Abläufe sind mir durchaus willkommen, ein seltsameres Gefühl kommt auf, wenn man auf einen Parkplatz einbiegt und sogleich auf einer großen Anzeige mit Kennzeichen – also immerhin nicht mit Namen – begrüßt wird. Sofort weiß man: Ich bin registriert, der Parkplatz wird überwacht. Und: die Gebühren werden auf jeden Fall eingetrieben. Aber wie? Nicht immer ist es möglich, mit Bargeld an einem Automaten zu bezahlen. Ich hatte auch schon die leidige Erfahrung, gemeinsam mit Urlaubern aus einem anderen Land vor einem Automaten zu verzweifeln, da zunächst keine unserer Karten angenommen wurde. Was passiert, wenn man wegfährt, ohne, dass man bezahlen konnte? Die Kameras hatten das Kennzeichen registriert, wie sich den Bildschirmen bei der Einfahrt entnehmen ließ, bezahlen muss man unweigerlich. Doch wie hoch die Strafe ausfallen würde, konnte man keinem Schild entnehmen. Ebensowenig, ab wann eine Gebühr anfällt – bereits wenn man eine Runde über den Parkplatz dreht, sich aber doch umentscheidet oder schlicht keinen geeigneten Platz für sein Wohnmobil findet? In meinem Urlaub ist alles nochmal gut gegangen, aber es bauten sich Hemmungen auf, mit ANPR-Technologien operierende Parkplätze anzusteuern.

Zumindest, wenn man sich nicht auf den verknüpften Apps angemeldet hat. Diese können von Parkplatzbetreiber zu Parkplatzbetreiber variieren, sodass sich am Ende des Urlaubs eine Unzahl an Apps anhäufen kann, die Kennzeichen und Kreditkarte zur automatischen Abbuchung der Gebühren hinterlegt haben. Was aber die Straßen- und Fährgebühren in Norwegen und Schweden betrifft, stellte diese Bezahlweise einen Segen für einen entspannten Urlaub dar: Über die App Epass24 werden alle Gebühren bezahlt. Sind Kennzeichen und Kreditkarte einmal hinterlegt, wird die Maut einmal monatlich abgebucht. Auf den ersten Blick schlicht und einfach, auf den zweiten frage ich mich: Wo habe ich überhaupt in welcher Höhe für Überfahrten, Brückenüberquerungen und Straßennutzungen zahlen müssen? Denn es wird nur ein Gesamtbetrag am Ende abgebucht, nur die Fährkosten werden separat gelistet, aber ebenfalls nicht aufgeschlüsselt. Für wen ist es allerdings wie lange einseh- und rückverfolgbar? Welche Daten werden an wen übermittelt? Schließlich hat Epass24 neben Kennzeichen, Bezahlinformationen und Gebührenauflistung auch Name und Adresse, E-Mail-Adresse sowie Fahrzeugmodell und bei Verstößen gegen die Verkehrsordnung auch Fotos. Verschiedene Mautbetreiber nutzen die Dienste von Epass24, 3https://www.epass24.com/de/the-toll-operators/ die Daten werden auch zu Analysezwecken genutzt. Natürlich räumt Epass24 das zustehende Recht ein, die persönlichen Daten einzusehen und zu löschen, scheint sie aber so lange wie möglich zu speichern.4 https://www.epass24.com/data-protection-policy/ Entziehen kann man sich der Datenerhebung nicht, wenn man in Ländern wie Norwegen im Urlaub unterwegs ist.

Die Maut der Zukunft

Die Digitalisierung des Bezahlvorgangs von Mautgebühren ist so immer weiter auf dem Vormarsch. Die Fragen des Datenschutzes und der Transparenz sollten allerdings lauter gestellt werden, gerade weil man sich diesem Trend immer weniger entziehen kann. Mit Personal besetzte Mautstellen werden seltener, da sie einen Kostenfaktor darstellen, den Verkehr verlangsamen und Staus verursachen. Es ist nachvollziehbar, dass es sich wirtschaftlich und infrastrukturell lohnt, die Gebührenzahlung zu digitalisieren. Die Online-Registrierung der Fahrzeugtypen hat auch den Vorteil, dass Gebühren individuell angepasst werden können. Nicht nur die Kategorisierung in Motorrad, PKW, Bus und LKW kann hier wie bislang entscheidend sein, auf manchen Strecken oder Parkplätzen müssen Elektrofahrzeuge oder mit Wasserstoff betriebene Autos sowie PKW mit besonders niedrigen Emissionen keine Gebühren bezahlen. So können auch politische Interventionen und Fördermaßnahmen durch die Digitalisierung des Mautwesens leichter durchgeführt werden. Die Zukunft des Entrichtens von Mautgebühren liegt definitiv in digitalen Bezahlvorgängen.

Zurück zur Startseite des Blogs

Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors

Kategorien
Akzentfarbe: beige Autor: Benjamin Seibel Uncategorized Verantwortungsblog

Fehler korrigieren, nicht vermeiden – Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen?

Fehler korrigieren, nicht vermeiden
Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen?

Bei der Digitalisierung öffentlicher Leistungen zeigt sich exemplarisch, dass es nicht zielführend ist, wenn Vorhaben zwar formal absolut korrekt durchgeführt werden, aber nicht zu brauchbaren Ergebnissen führen. Faktoren wie Geschwindigkeit, Lernfähigkeit, Adaptivität und Fehlertoleranz sollten hingegen künftig an Bedeutung gewinnen – es braucht ein neues Verständnis von verantwortungsvollem staatlichem Handeln.

Von Benjamin Seibel | 22.08.2024

Mit Adobe Firefly generiert. Prompt: „kubistisches Gemälde; minimalistisch; Stadt, durch die viele verknüpfte Linien verlaufen“.

An einem Nachmittag im Frühjahr 2015 entwickelte ich meine erste Open Data-App.1 Es handelte sich um eine kleine Kartenanwendung für Smartphones, die Menschen mit wenig Geld einen Überblick über staatliche Unterstützungsangebote und Ermäßigungen in Berlin bot. Die App war weder besonders raffiniert noch aufwändig in der Entwicklung, aber trotzdem sehr viel hilfreicher als das, was die Berliner Landesverwaltung über ihre Website an Informationen bereitstellte. Für mich handelte es sich um ein reines Hobbyprojekt, ich hatte Lust gehabt, meine eingerosteten Programmierkenntnisse etwas aufzufrischen und dachte, dann könnte ich mich auch gleich an etwas Sinnvollem versuchen.

Nachdem ich aus verschiedenen Richtungen ermutigendes Feedback erhalten hatte, beschloss ich, das Gespräch mit der zuständigen Fachverwaltung für Soziales zu suchen. Ich wollte vorschlagen, dass man die App zu einem Teil des offiziellen Online-Angebots der Stadt machen könnte. Der freundliche Herr in der Behörde sagte mir, er freue sich immer über bürgerschaftliches Engagement, aber eine Integration in bestehende Systeme sei leider aus verschiedenen Gründen unmöglich. Ich dürfe die Anwendung gerne privat weiter betreiben. Das wiederum wollte ich nicht. Zum einen verursachte die Anwendung laufende, wenn auch überschaubare Kosten und sie benötigte eine regelmäßige Wartung, die ich nicht gewährleisten konnte. Vor allem aber klang mir das nach zu viel Verantwortung: Ein essenzielles Informationsangebot für potenziell hunderttausende hilfsbedürftiger Menschen bereitzustellen, schien mir als gelegentliche Freizeitbeschäftigung ungeeignet. Ich fragte den Beamten, ob es heutzutage nicht Aufgabe des Staates sein müsse, seinen Bürger:innen solche digitalen Angebote zu machen. Er lächelte nur sanftmütig.

In den folgenden Jahren hatte ich Gelegenheit, mich eingehender mit dem Zustand der Digitalisierung im öffentlichen Sektor zu beschäftigen. Ich lernte etwa, dass es in Berlin eine lebendige „Civic Tech“-Community aus engagierten Menschen gab, die wie ich in ihrer Freizeit Ideen oder sogar funktionsfertige Applikationen für ein digitales Gemeinwesen entwickelt hatten, damit aber bei offiziellen Stellen selten Gehör fanden. Und ich lernte auf der anderen Seite eine öffentliche Verwaltung kennen, die zwar für viele Aspekte dieses Gemeinwesens Zuständigkeit beanspruchte, aber selbst regelmäßig an der Entwicklung funktionierender Online-Angebote scheiterte.

Die Vermittlung zwischen beiden Welten erwies sich als schwierig. Auf der einen Seite eine lose Gemeinschaft aus Entwickler:innen, die ein hohes Maß an IT-Kompetenz mitbrachten, aber lieber drauflos programmierten als nach den komplizierten Regeln der Behörden zu spielen. Auf der anderen Seite eine Verwaltung, die im Zustand einer „Paralyse durch Analyse“ gefangen schien. Zwar setzte man sich auch dort intensiv mit dem Thema Digitalisierung auseinander, aber im Ergebnis wurde fast immer nur Papier produziert: Machbarkeitsstudien, Konzepte und Gutachten, wie Digitalisierung aussehen könnte gab es zuhauf. Zu einer tatsächlichen Umsetzung, also zur Entwicklung digitaler Angebote für Bürger:innen, kam es fast nie und wenn, waren die Ergebnisse meist katastrophal.

Im Sommer 2019 gründeten wir aus der Technologiestiftung Berlin heraus das CityLAB, ein gemeinnütziges Innovationslabor für öffentliche Digitalisierung. Inspiriert vom pragmatischen Vorgehen der Civic Tech-Community schlugen wir vor, das Vorgehen bei der Entwicklung digitaler Angebote vom Kopf auf die Füße zu stellen. Das CityLAB ist als Ort konzipiert, an dem die Gestaltung gemeinwohlorientierter Digitalisierung grundlegend anders gedacht und gemacht wird, als es sonst im öffentlichen Sektor üblich ist. Praxisnah und mit einer gewissen unbürokratischen Hemdsärmeligkeit, aber auch partizipativ, offen und von den Nutzenden her gedacht.

Aus einem kleinen Pilotprojekt hat sich das größte Stadtlabor im deutschsprachigen Raum entwickelt: Finanziert durch die Berliner Senatskanzlei arbeiten heute mehr als 35 Beschäftigte im ehemaligen Flughafen Berlin-Tempelhof mit einem großen Netzwerk aus Verwaltungsbeschäftigten, Forschungseinrichtungen und der Stadtgesellschaft an zahlreichen Digitalisierungs- und Transformationsprojekten. Einige unserer erfolgreichsten Angebote, etwa die Plattform „Gieß den Kiez“, die Bürger:innen bei der Pflege von Stadtbäumen unterstützt, oder die KI-Suchmaschine „Parla“, die parlamentarische Vorgänge für ein breites Publikum nachvollziehbar macht, werden heute nicht nur von tausenden Berliner:innen genutzt, sondern auch von anderen Kommunen und Ländern adaptiert.

Ein erster wichtiger Unterschied unseres Vorgehens liegt im so genannten „Rapid Prototyping“. Dabei geht es darum, vielversprechende Ideen innerhalb eines möglichst kurzen Zeitraums zu validieren, und zwar indem man sie einfach ausprobiert. Das mag banal klingen, steht aber dem üblichen Vorgehen der öffentlichen Verwaltung geradezu diametral entgegen. Während in der Verwaltung einem Digitalisierungsprojekt in der Regel eine monate- oder gar jahrelange Phase der Planung, Bedarfserhebung, Prüfung und Abstimmung vorausgeht, ziehen wir die ersten Entwicklungsschritte vor die bürokratische Klammer. Software-Prototypen im CityLAB entstehen binnen weniger Tage oder Wochen und werden anschließend in einem kontinuierlichen Dialog mit der Öffentlichkeit schrittweise verbessert (oder, auch das kommt vor, wieder verworfen).

Das führt direkt zu einem zweiten Prinzip, dem partizipativen Arbeiten „im Offenen“. Weil die digitale Transformation der Stadt alle Bewohner:innen betrifft, ist es wichtig, möglichst viele unterschiedliche Perspektiven einzubeziehen. Das machen wir zum einen über partizipative Prozesse und Austauschformate, die sich teils gezielt an sogenannte „stille“ Zielgruppen richten, also an Menschen, die üblicherweise nicht an klassischen Beteiligungsprozessen teilnehmen (Kinder, Wohnsitzlose, Geflüchtete etc.). Zum anderen durch eine konsequente Ausrichtung an Open Source-Prinzipien, weshalb alle Arbeitsergebnisse des Labs, von Workshopmaterialien über Softwarecode bis zur Projektdokumentation frei lizensiert und verfügbar gemacht werden. Das eröffnet grundsätzlich allen Interessierten die Möglichkeit, an unseren Projekten mitzuarbeiten. Bis heute ist unser Arbeitsplatz in Tempelhof zugleich ein öffentlicher Ort, an dem täglich interessierte Menschen aus Verwaltung und Stadtgesellschaft ein- und ausgehen, um sich über laufende Projekte zu informieren oder einfach gleich mitzumachen.

Trotz Wachstums und einiger sehr erfolgreicher Projekte ist das CityLAB bis heute ein Experiment geblieben. Jeder Entwicklungsprozess dient in erster Linie dazu, mehr darüber zu lernen, wie die Gestaltung gemeinwohlorientierter Digitalisierung an der Schnittstelle von öffentlicher Hand und Bürger:innen gelingen kann. Insbesondere in der Zusammenarbeit mit Verwaltungen führt das bewusste Abweichen von sonst üblichen Prozessen aber nicht nur zu Erkenntnisgewinnen, sondern regelmäßig auch zu Reibungen und Konflikten. Die wiederum haben ihre Ursache auch in unterschiedlichen Vorstellungen davon, was unter „verantwortungsvoller“ Digitalisierung zu verstehen ist.

Für Verwaltungen steht in der Regel die Rechtssicherheit an erster Stelle. Aus geltenden Gesetzen und Vorschriften ergeben sich bestimmte Prozessschritte für die Entwicklung eines digitalen Angebots, die dann einfach sukzessive abgearbeitet werden. Entscheidungen werden nicht in individueller Verantwortung, sondern durch die möglichst objektive Anwendung eines Regelwerks getroffen („es ist zu entscheiden“ statt „wir entscheiden“). Vor der eigentlichen Umsetzung liegt eine detaillierte Phase der Planung, die das Risiko, dass später etwas Unvorhergesehenes passiert, minimieren soll.

Das klingt verantwortungsvoll, führt aber bei der Digitalisierung regelmäßig zu schlechten Ergebnissen. Aufgrund der hohen Komplexität sieht man sich bei der digitalen Produktentwicklung ständig mit Fragen konfrontiert, die noch nicht klar geregelt sind. Ein auf vorschriftsgemäßes Arbeiten ausgerichtetes System neigt hier zur Blockade, weshalb sich Digitalisierungsprojekte der Verwaltung regelmäßig um Jahre verzögern (und dann erst recht nicht mehr zeitgemäß wirken). Noch schlimmer kann es werden, wenn Vorschriften offensichtlich von der Realität überholt sind, aber trotzdem angewandt werden. Die beinah groteske Nutzerunfreundlichkeit mancher digitaler Verwaltungsangebote ist letztlich nur ein Ausdruck der Prozesse, in denen sie entstehen.

Die Alternative, die wir im CityLAB verfolgen, ist die radikale Ausrichtung an den Bedürfnissen und Erwartungen der Nutzenden eines Angebots, die im klassischen Verwaltungshandeln erstaunlicherweise kaum eine Rolle spielt. Weil wir Arbeitsstände frühzeitig veröffentlichen, Zielgruppen einbeziehen und deren Feedback ernst nehmen, verlaufen unsere Entwicklungsprozesse deutlich weniger linear, sondern eher in sich wiederholenden Schleifen aus Entwicklung, Test, Lernen und Veränderung. So nähern wir uns schrittweise einer Lösung, die am Ende auch ganz anders aussehen kann als ursprünglich gedacht.

Die Arbeit mit Prototypen, die noch nicht bis ins letzte Detail „zu Ende gedacht“ sind, sorgt in der Verwaltung immer wieder für Irritationen. Der Verzicht auf eine gründliche Detailplanung zugunsten eines offenen und adaptiven Umgangs mit Überraschungen erscheint aus ihrer Sicht riskant. Wir hingegen sehen in dieser Arbeitsweise einen Weg, Risiken zu reduzieren, weil sie, entsprechende Lernbereitschaft vorausgesetzt, frühzeitige Kurskorrekturen erlaubt. Der Faktor „Zeit“ spielt für uns also – auch das ein Unterschied zum klassischen Verwaltungshandeln – eine zentrale Rolle, denn ob eine Korrektur nach zwei Wochen oder erst nach zwei Jahren erfolgt, ist ein entscheidender Unterschied.

Die dafür nötige Geschwindigkeit lässt sich jedoch nur erreichen, wenn man auch unter unsicheren Rahmenbedingungen und in Ermangelung klarer Vorschriften bereit ist, Entscheidungen zu treffen, die dann natürlich auch falsch sein können. Wichtig ist für uns aber auch nicht das Vermeiden von Fehlern, als vielmehr die Fähigkeit, sie schnell erkennen und korrigieren zu können. Ein grundlegender Wertekonsens, den man gemeinsam reflektieren und weiterentwickeln kann, sowie ein transparenter Umgang mit Unsicherheit bieten dafür oft bessere Grundlagen als ein starrer Vorschriftenkatalog.

In meiner Gegenüberstellung wird eine grundsätzliche Herausforderung sichtbar, mit der sich unsere demokratischen Systeme heute konfrontiert sehen. Denn die Frage, wie öffentliche Institutionen unter sich immer schneller wandelnden Bedingungen überhaupt handlungsfähig bleiben können, stellt sich längst an verschiedenen Stellen mit großer Dringlichkeit. Bei der Digitalisierung öffentlicher Leistungen zeigt sich exemplarisch, dass es nicht zielführend ist, wenn Vorhaben zwar formal absolut korrekt durchgeführt werden, aber nicht zu brauchbaren Ergebnissen führen. Wo hingegen Faktoren wie Geschwindigkeit, Lernfähigkeit, Adaptivität und Fehlertoleranz an Bedeutung gewinnen, benötigen wir auch ein neues Verständnis von verantwortungsvollem staatlichem Handeln, das sich dann vielleicht nicht mehr allein in einem Apparat aus Vorschriften begründen lässt.

  1. Darunter versteht man digitale Anwendungen oder Webseiten, die von der öffentlichen Verwaltung bereitgestellte oder gemeinfreie Daten nutzen. ↩︎

Seibel, Benjamin (2024): Fehler korrigieren, nicht vermeiden – Oder: Wie kann verantwortliche Digitalisierung im öffentlichen Sektor gelingen? In: Verantwortungsblog. https://zevedi.de/fehler-korrigieren-nicht-vermeiden/ [22.08.2024]. https://doi.org/10.60805/6AXT-FM76

Kategorien
Akzentfarbe: Türkis Autor: Renke Siems Uncategorized Verantwortungsblog

„Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene

„Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene

Es klingt, als wolle Brüssel sich zur Cyberpunk-Metropole entwickeln: eine Expertengruppe, die nicht so heißen darf, damit man nicht wissen kann, wer ihre Mitglieder sind. Datenzugriff auf Geräte, Services und Infrastrukturen, wann immer „die Sicherheit“ es für nötig erachtet. Einflussnahme auf Industriestandards, damit dies stets in Echtzeit möglich ist. Wenn nicht, müsse man bedauerlicherweise auf Schwachstellen zurückgreifen und Haft verhängen gegen die, die nicht „kooperieren“. Was schon die Bezeichnung – „Going Dark“ – aussehen lässt wie das verbrannte Niemandsland zwischen Neuromancer und V for Vendetta, hat einen administrativen Namen: „High-Level Group on Access to Data for Effective Law Enforcement“, eingesetzt 2023. Die weitreichenden Vorschläge dieser EU-Arbeitsgruppe wurden von der ungarischen Regierung als „beeindruckend und zukunftsweisend“ bewertet. Sie sollen Schwerpunkt der aktuellen Ratspräsidentschaft werden. Und in Geschichte und Gegenwart dieser Entwicklung immer mitten drin: wissenschaftliche Infrastrukturen.

Von Renke Siems | 13.08.2024

Ein Smartphone, auf dessen Display eine geöffnete Tür zu sehen ist.
Mit Adobe Firefly generiert. Prompt: „kubistisches Gemälde; minimalistisch; offene Scheunentore in ein Smartphone hinein“.

Demokratie hat ihre Paradoxien. So verwies Christian Stöcker im ZEVEDI-Podcast Digitalgespräch (Stöcker 2024) kürzlich darauf, dass in einer Demokratie das Lügen nicht grundsätzlich verboten werden könne, denn um so ein Verbot durchzusetzen, bräuchte es eine zentrale „Wahrheits-Behörde“, und dann hätte man keine Demokratie mehr, sondern ein totalitäres Regime. Eine Gesellschaftsform, die ihre Entwicklung grundlegend aus einem vernunftgeleiteten Diskurs gemeinsamer besserer Einsicht bezieht, kann sich damit nur begrenzt gegen die Manipulation ihrer Grundlagen wehren, sondern ist auf Workarounds angewiesen, was mal besser und – in Zeiten von Trollarmeen und News Deserts – auch mal schlechter funktioniert. Eine freiheitliche Demokratie ist somit in ihren Strukturen mit einer gewissen Notwendigkeit fragil, und wir mussten es in unserer Geschichte ja auch schon erleben, dass sie sogar auf mehr oder weniger demokratische Weise abgeschafft werden kann. Das war ein Extrem, es gibt jedoch auch (bislang) nicht so weitreichende und eher schleichende Prozesse, worin Grundrechte mithilfe von Grundrechten bekämpft werden. Prozesse dieser Art prägen unsere digitale Welt seit Jahrzehnten.

Ein Großteil dessen, was den aktuellen Konflikt in Brüssel ausmacht, hat seinen Ursprung in den 1980er Jahren mit einem Kokain-Schmuggler, der die Seiten wechselte.1 Als Hank Asher – ein in Europa wenig bekannter Daten-Pionier – sein Business zu heiß wurde, bot er sich der Drug Enforcement Administration (DEA) als Informant an. Dort fand er seine Berufung, denn die DEA war eine der ganz frühen law enforcement agencies, die mit einer zentralen Datenbank arbeitete: Verdächtige wurden im System erfasst, bekamen einen Identifier und blieben dort für immer gespeichert. Asher lernte schnell, besorgte sich Hardware und machte 1992 seine eigene Firma auf. Als Kunden hatte er zunächst die Versicherungswirtschaft im Blick, der er das verkaufen wollte, was heute ein Teil der digitalen Risk Solutions ist: Daten, mit denen sich Schadensereignisse vorab kalkulieren und am besten auch gleich noch Prozesse automatisieren lassen. Bei der Sammlung von Führerschein- und Kennzeichendaten begriff er dabei etwas, was man die Grundrechtsschleife nennen kann, die alle Data Broker seit ihm ausnutzen: Datenschutz- und Informationsfreiheitsgesetze gab es zwar schon seit Jahrzehnten, aber die Rechte, die sie begründeten wie die informationelle Selbstbestimmung, waren so konzipiert wie etwa die Wissenschaftsfreiheit auch – als Abwehrrecht gegenüber dem Staat. Der Staat sollte keine Geheimnisse vor den Bürgern haben können, aber die Bürger gegenüber dem Staat. Hank Asher war nun nicht der Staat, also suchte er sich eine Anwältin und begann, die Daten aus den öffentlichen Stellen herauszuholen: Fahrzeughalter, Standesamtsdaten, Schwerbehinderungen, Immobilien, Konzessionen, Adressänderungen, Insolvenzen schwemmten in seine Server, wurden zu Personenprofilen aufbereitet und seinen Kunden angeboten. 1997 erfolgte der Dammbruch und er bekam auch Daten von Kreditkarten- und Versorgungsunternehmen. Damit war Ashers Produkt AutoTrack unhintergehbar geworden, denn all die Mechanismen, die wir heute z.B. gegen das Tracking der digitalen Werbung ins Feld führen, griffen in diesem Universum harter Echtzeitdaten nicht: es gibt kein Opt-Out gegenüber dem Standesamt, das meine Eheschließung beurkundet, und kein Recht auf Vergessen gegenüber dem Energieversorger, der in diesem Moment meinen Rechner mit Strom versorgt.

Diese Unausweichlichkeit führte Asher wieder zum law enforcement zurück, nun als interessierte Kunden – beginnend mit Leigh McMorrow, einer IT-Mitarbeiterin von einem benachbarten Police Department, der er sein Produkt vorführte.

„‚How are you doing that?‘ she wondered aloud. He explained that he was gathering public records to build a product for the insurance industry. ‚I was just so flabbergasted‘, McMorrow says. ‚The minute he showed it to me, I’m like, my God, oh my God. I said ‚You’re sitting on a gold mine. Law enforcement will eat this up with a spoon.‘“ (Funk 2023, 73)

So kam es dann auch und die Grundrechtsschleife zog sich zu: der Staat, der keine Geheimnisse haben durfte, mietete sich den Zugang zu denen seiner Bürger über außerstaatliche Third Parties. In der Welt nach 9/11 entwickelten sich data fusion solutions zu einem Multimilliardenmarkt mit jährlichen Wachstumsraten von 15 bis 20 Prozent (Verified Market Research 2024, Chemical Industry Latest 2023) überboten nur von den explosionsartigen Datenmengen, die aus Social Media und Werbetracking hinzukommen. Auch die Anwendungsgebiete wuchsen, wenn z.B. Gesichtserkennung als digitales Instrument zur Überwachung der Offline-Welt eine neue Unentrinnbarkeit erzeugt: „You could delete your social media account. You could leave your phone at home. You couldn’t leave your face at home.“ (Funk 2023, 197) Data Fusion führt dabei nicht nur zu Profiling, sondern sowohl im staatlichen wie Wirtschaftsbereich zu immer mehr Scoring. Was in China der social credit score, sind in der westlichen Welt eine immer größere Reihe an Scores: renter scores, juror scores, voter scores, customer-lifetime-value scores, welfare-benefits scores – und in der Pandemie dann noch socioeconomic health scores, die Maßnahmen und Verteilung von Ressourcen begründeten.

Wenngleich der Markt für Data Fusion groß ist, sind die relevanten Marktteilnehmer eher überschaubar in der Anzahl und einige Marktführer davon auch in der Wissenschaft sehr bekannt: RELX (der Mutterkonzern von Elsevier), Thomson Reuters, Clarivate und Palantir. Warum teils so bekannte Wissenschaftssupplier hier vorne dran sind, hat seine Ursache in der Digitalisierung der Wissenschaft: Elsevier z.B. hatte in den Jahren um 2000 noch eine erdrückende Papierquote bei seinen verlegten Zeitschriften. Der Verlag suchte in der Furcht, vom aufstrebenden Internet überrollt zu werden, nach einer Alternative und als Hank Asher gesundheitlich zusehends ausbrannte und seine Firma zum Verkauf stand, griff Elsevier zu und fusionierte Ashers Erbe mit dem eigenen Datendienst LexisNexis. Auch in Palantir wurde bereits 2006 investiert. (RELX 2021)

Seitdem wachsen führende Anbieter für wissenschaftliche Services in den Risk Solutions-Bereich hinein, liefern Datenprodukte für Predictive Policing (Wang et al. 2022) und übertragen die Arbeitsweisen dieses Bereichs immer mehr in die Wissenschaft. Vor Jahren hat die DFG bereits über das Datentracking in der Wissenschaft berichtet und wie die vormaligen Verlage nun als Data Analytics-Unternehmen ihre Plattformen mit Überwachungstechnologien ausstatten (DFG 2021) – nur um aktuell festzustellen, dass sich bei den Verhandlungen zu den großen DEAL-Verträgen nur teilweise ein rechtskonformer Zustand herstellen ließ. (Altschaffel et al. 2024) Seit langem an ein Scoring mit fragwürdigen Indikatoren gewöhnt, lässt sich die Wissenschaftsgovernance nach dem Muster von law enforcement jetzt international „Research Intelligence“ anbieten und greift zu – ohne dass anscheinend groß überlegt wird, was die Gewinnung dieser „Insights“ für Forschende an Gefährdungen bedeutet, welcher Wissens- und Technologieabfluss dadurch möglich wird und welche neuen Möglichkeiten sich auch für die Merchants of Doubt bieten, mit diesen Strukturen und Anreizsystemen die Wissenschaft in den gleichen Morast zu führen, in dem ein großer Teil des Nachrichtenwesens schon liegt und der auch hier dazu führen kann, die vormals gemeinsame Faktengrundlage durch den Wettkampf konkurrierender Narrative zu ersetzen (Siems 2024b) und wissenschaftliche Infrastrukturen immer näher an den fantasy industrial complex heranzuführen, den Renée DiResta beschreibt. (DiResta 2024)

Die EU-Initiative „Going Dark“ ist auf diesen Boden gewachsen und anscheinend dafür angetreten, die Entwicklung nochmals zu eskalieren. Getrieben von der Befürchtung, aufgrund der Verbreitung und der Fortschritte bei Verschlüsselungstechnologien könnte die Strafverfolgung erblinden – eben „going dark“ – wurde die eingangs benannte High Level Group unter der schwedischen Ratspräsidentschaft im Juni 2023 eingesetzt. (European Commission 2023) Die Gruppe sollte ursprünglich vielfältige Perspektiven einbringen, nicht nur law enforcement und criminal justice, sondern auch data protection und privacy, cybersecurity, private sector, non-govermental organisations, und academia. Dazu scheint es nicht gekommen zu sein – die High Level Group versank gleichsam selbst ins Dunkel – (FragDenStaat 2023) Mitgliederlisten wurden geschwärzt, und abgesehen vom Europäischen Datenschutzbeauftragten als Gast scheint law enforcement und dessen Umfeld unter sich zu sein. Die wesentlichen Schritte der Expertengruppe stehen nun im Zeitraum der ungarischen Ratspräsidentschaft an: die Veröffentlichung der Empfehlungen (European Commission 2024) fällt ins direkte Vorfeld, im Verlauf des Herbsts erscheint der Schlussbericht und wird auch das Arbeitsprogramm der neuen Kommission veröffentlicht. Abschließend tagt im Dezember auch noch der Rat der Europäischen Union mit einem Austausch zum Thema (Council of the European Union 2024). Ungarn hat „retention and access to law enforcement data“ ausdrücklich in sein Arbeitsprogramm aufgenommen. (Hungarian Presidency 2024)

Die „Going Dark“-Gruppe setzt für ihre Arbeit drei Schwerpunkte: Zugang zu den Daten auf Endgeräten, Zugang zu den Daten, die bei den Providern liegen, und Zugang zu den Datenflüssen. Ein besonderer Schwerpunkt liegt auf den Over-the-top (OTT)-Services, die in Konkurrenz zu den traditionellen Kommunikationsdiensten stehen wie Messaging und Videotelefonie. Internationale Kooperation auch außerhalb der EU wird hervorgehoben, hier werden die USA genannt. Sehr viel Wert legt die Gruppe auch darauf, ihre Vorstellungen mit bereits bestehenden Regulierungen zu verknüpfen, mehrfach wird dabei der Digital Services Act als Ansatzpunkt genannt.

Hinsichtlich der Gerätedaten beklagt die Gruppe die mangelhafte Kooperation der Hersteller mit law enforcement, weshalb es sehr schwierig sei, legal Daten aus dem Gerät herauszuholen und unverschlüsselt mit den nötigen Metadaten gerichtsverwertbar zu machen. Zentral seien daher zwei Dinge: law enforcement müsse zum einen mehr Einfluss als bislang auf die Standardisierungsgremien nehmen und damit Protokolle, Schnittstellen und technische Architekturen formen, damit künftige technische Standards von Beginn an entsprechend entwickelt werden. Zum anderen sollten der Industrie, wenn sie nicht freiwillig kooperiere, dann eben Verpflichtungen auferlegt werden.

Bei den Providerdaten kommt unweigerlich das Thema Vorratsdatenspeicherung auf den Tisch, das mit Nachdruck und ausführlich behandelt wird weit über klassische Telekommunikationsdienste hinaus: insbesondere OTT-Services sollen „Transparenz schaffen“ über die Daten, die bei ihnen anfallen, verarbeitet und gespeichert werden. Interessanterweise werden auch Autohersteller dabei als communication service betrachtet und Instrumente diskutiert, um bei denen Compliance zu erzwingen, die heute von der „Connectivity“ ihrer neuen Modelle schwärmen, und davon den Zugang zum europäischen Markt abhängig zu machen. Diskutiert wurde ebenso „the opportunity to legislate on data already in the possession of providers for business purposes.“ Das kann nun vieles bedeuten: Zugriff auf die Nutzerdaten in der Breite, wie sie etwa der Data Act versteht, oder auch Zugriff auf die Datenbestände der Data Broker, denn auch deren beliebtestes Produkt Lokalisierungsdaten werden in diesem Zusammenhang angesprochen.

Datenflüsse stellen für die Gruppe die Anforderung, mit großen Datenmengen in Echtzeit umzugehen. Auch hier soll deshalb Einfluss auf Standardisierung genommen werden, etwa bei 5G/6G. Bei unkooperativen Providern müsse man wohl weiterhin auf die Nutzung von Schwachstellen zurückgreifen, hier und insgesamt wäre daher Verschlüsselung sehr im Weg: „law enforcement authorities need to have a pre-established lawful access to readable data“ – daher sind Initiativen wie Apples Private Relay gar nicht gerne gesehen.

Im Einzelnen schlagen die Empfehlungen dann u.a. mehr Geld für Forschung und Entwicklung zur Datenbeschaffung vor (Nr. 4), Verbesserung der Schwachstellennutzung (Nr. 6), Einbindung der Wissenschaft (Nr. 8), Ausbau der Fähigkeiten, große Datensätze in Echtzeit zu übertragen (Nr. 9) und – in Ergänzung zu Nr. 6 – anscheinend das gezielte Knacken von Geräten und Services, wenn man anders an die Daten nicht herankomme (Nr. 10). Der Einfluss auf technische Standards soll das gesamte Spektrum des Internet of Things abdecken wie etwa connected cars und auch Satellitenkommunikation (Nr. 20). Hersteller von Hard- und Software, aber auch Cybersecurity, Datenschutz- und Standardisierungsexperten sollen insgesamt verstärkt eingebunden werden in eine „technology roadmap“, „in order to implement lawful access by design in all relevant technologies in line with the needs expressed by law enforcement“ (Nr. 22). Ziel ist ein „EU-level handbook“ der einschlägigen Gesetzgebung (Nr. 25), „a harmonised EU regime on data retention“ (Nr. 27) und auch eine Harmonisierung der strafrechtlichen Werkzeuge, Kooperation zu erzwingen, bis hin zur Inhaftierung (Nr. 34). Dabei sind insgesamt Zentralisierungsbestrebungen weg von den Mitgliedsstaaten hin zu EU-Einrichtungen festzustellen, die z.B. als „Single Point of Contact“ gegenüber Unternehmen dienen sollen.

Angesichts dessen, dass hier offenkundig keine Snowflakes am Werk waren und die Pläne weit über das hinausgehen, was bislang unter dem Label Chatkontrolle Furore machte, ist das öffentliche Echo auf dieses ausufernde Überwachungspaket bislang erstaunlich dünn. Das Arbeiten im administrativen Untergrund, ein Thema, das in seiner technischen Komplexität für klassische Presseberichterstattung meist eher unattraktiv ist, und ein offenbar ebenso stiller wie weitreichender Konsens unter vielen Mitgliedsstaaten trugen dazu bei, dass bislang kein breiter Diskurs entstanden ist, obwohl schlichtweg jede und jeder in einem europäischen Land betroffen sein wird. Es sieht so aus, als wenn die europäische Öffentlichkeit im Bereich Überwachung, über den schon so lange gestritten wird, mittlerweile einen Ermüdungsbruch erlitten hat.

Bislang widmen sich dem Thema hauptsächlich ausgewählte Tech-Presse wie Netzpolitik und Europaparlamentarier. Hier ist insbesondere Patrick Breyer hervorzuheben, der hartnäckig dieses Thema verfolgte2 – nur damit die EU-Kommission eine Anfrage von ihm monatelang ignorierte, bis er nach den Wahlen jetzt aus dem EU-Parlament ausscheidet. (European Parliament 2024) Fasst man die digitalaktivistische Kritik dabei bewusst überspitzt zusammen, steht hier der Vorwurf einer „Stasi 4.0“ im Raum: ein völlig von der Kette gelassener Sicherheitsapparat, der keinerlei Interesse mehr daran hat, sich von Grundrechten und bürgerlichen Freiheiten einhegen zu lassen. Ob man die Kritik in ihrer Schärfe teilt oder nicht – man wird beim Blick auf den Maßnahmenkatalog zugeben müssen, dass dieser in höchstem Maße invasiv ist – law enforcement will in den Fahrersitz, und zwar allein. Und wenn im Empfehlungspapier wiederholt darauf rekurriert wird, dass dies alles die Ende-zu-Ende-Verschlüsselung nicht schwächen werde und Datenschutz und Privacy gesichert seien, so wird das zu werten sein wie die „Technologieoffenheit“ in der Klimapolitik: ein dekoratives Wording, das zur Sache nichts beiträgt, sondern ablenken soll.

Zu beachten ist auch, dass „Going Dark“ an sich schon wenig mit der Wirklichkeit zu tun hat, sondern vor allem ein sorgfältig gepflegter politischer Mythos ist. Immer wieder haben hochrangige Studien wie vom Berkman Center for Internet and Society an der Harvard University belegt, dass die Befürchtungen wenig fundiert sind. (Berkman Center 2016) Strafverfolgungsbehörden stehen heute ein Vielfaches an Informationen zur Verfügung als ehedem und sie erzielen entsprechende Ermittlungserfolge. Teils wird dabei auf durchaus „kreative“ Lösungen zurückgegriffen, wie bei der von Joseph Cox erzählten Geschichte der gesicherten Kommunikationsplattform Anom, die sich in der organisierten Kriminalität verbreitete mit dem kleinen Haken, dass sie verdeckt vom FBI betrieben wurde. International konnten Behörden ihre Kundschaft wie im Goldfischglas beobachten und zuschlagen. (Cox 2024) Aber auch dort zeigten sich bereits die Grenzen, da dieser honey pot so erfolgreich war, dass er aus dem Ruder zu laufen begann, ebenso wird die Verwertbarkeit der Beweise vor Gericht vielfach in Frage gestellt.

Der Maßnahmenkatalog rollt letztlich auch alle Debatten wieder auf, die z.B. bei den Verhandlungen zum Data Act geführt wurden hinsichtlich des Schutzes von Geschäftsgeheimnissen. „Access by Design“ hieße Zugriff nach Bedarf auf Services, Konsumgüter, Industrieproduktion, Forschung & Entwicklung. Sind wir sicher, dass etwa die Automobilhersteller in Europa dies mit Begeisterung mittragen werden? Setzt sich dies dennoch durch, wäre damit auch die so aufwendig erarbeitete Europäische Datenstrategie diskreditiert, nachdem bislang schon den in den Maßnahmen als Anknüpfungspunkt genannten Digital Services Act wie ein Schatten die Vorwürfe verfolgten, hinter der rechtstaatlichen Fassade autoritären Entwicklungen Vorschub zu leisten. (z.B. European Digital Rights 2022)

Entscheidender sind aber dennoch die Aussichten für die Bürgerinnen und Bürger in Europa, die im Gegensatz zu denen der Sicherheitsbehörden tatsächlich sehr düster sind. „A VPN won’t help either“, erklärt Jan Jonsson von Mullvad. „It would mean total surveillance and that Europe’s inhabitants carry state spyware in their pockets.“ (Jonsson 2024) Was hierbei noch wenig diskutiert wird, ist, dass im Ernstfall das reine Ausmaß der invasiven Eingriffe zu riesigen Datenmengen und entsprechendem Bearbeitungsbedarf führen wird und damit dazu, dass law enforcement neuerlichen Bedarf für vertraute Dienstleister schaffen wird: Palantir ist schon in die deutsche Sicherheitsinfrastruktur hineingewoben, obwohl die fortlaufenden Gerichtsverfahren zeigen, dass sich dort das Schaffen von Tatsachen mehr auf den Datenzugriff als von validen Rechtsgrundlagen bezieht. (Abbe 2023) LexisNexis hat bereits Zugang zur Europäischen Datenstrategie, indem es in den Bereich der Mobilitätsdaten eingedrungen ist. (LexisNexis Risk Solutions 2020) Während die großen Plattformen wie Google, Amazon und Microsoft sich in den letzten Jahren immer mehr zu military contractors entwickelt haben,3 haben die spezialisierten Plattformen – das dem Wissenschaftsbereich entsprungene „GAFAM der kuratierten Information“ – parallel sich mit ihren data fusion solutions immer weiter den Markt der inneren Sicherheit erobert. Dabei ist die fachliche Bilanz dieser Firmen überaus durchwachsen: hatte Sarah Lamdan bereits für den Wissenschaftsbereich analysiert, dass die von ihr so genannten „Datenkartelle“ mit dem starken Anwachsen der Datenmengen und der Einführung von KI-Anwendungen keineswegs bessere Leistungen erzielen (Lamdan 2022), so referiert McKenzie Funk Berichte des US-Senats, die unzählige Datenschutzverstöße feststellten, „but – despite an estimated billion dollars in taxpayer support – no evidence they had helped stop any terror attacks.“ (Funk 2023, 184) Stattdessen füllen sich Abschiebezentren durch data driven deportation vorzugsweise mit den einfach zu findenden Personen: Mütter, die vor ihren kleinen Kindern verhaftet werden, Schüler, Arbeitnehmer im Betrieb – und ebenso Gefängnisse mit denen, die einer falschen Evidenz zum Opfer fallen. Funk erzählt beispielsweise die Geschichte von John Newsome, den die schlampige Bedienung von LexisNexis um seine mühsam aufgebaute Existenz brachte. Er schaffte es, kein Schuldgeständnis zu unterschreiben und einen Anwalt zu bekommen, daher sieht er sich als begünstigt an, denn „there’s plenty of people that could tell you the story that I’m telling you right now. But they’re gonna tell it to you, and the ending of theirs is gonna be like, ‚and when I got out of jail fifteen years later…‘“ (Funk 2023, 189)

Was man heute „AdInt“ nennt, die Verschmelzung von Werbetracking und Risk Solutions zu einer „Advertising Intelligence“, ist dabei besonders fehlerträchtig (Meineck/Dachwitz 2024) und zugleich die prominenteste Form einer unheimlichen Allianz von Tech-Industrie und Politik auf dem Weg zu immer mehr Überwachung. (Tau 2024) Die mit den Risk Solutions verknüpfte Data Broker-Branche gilt dabei mittlerweile selbst als „hidden security crisis“ (Cracked Labs 2023): Beschäftigte in kritischen Infrastrukturen, Militärangehörige, Mitarbeiter von Nachrichtendiensten lassen sich in den zügellos gehandelten Daten identifizieren, ihre Bewegungsmuster und Alltagshandlungen nachvollziehen. (Brunner et al. 2024, Meineck/Dachwitz 2024) Dies gilt auch für die Wissenschaft, denn im „Xandr“-Leak vergangenes Jahr zeigten sich auch Belege dafür, dass etwa LexisNexis Daten von geschützten Berufsgruppen wie Anwälte und Forschende an den Data Broker LiveRamp weitergab,4 ebenso sammeln die auf den Wissenschaftsplattformen verankerten Tracker, Fingerprinter und Audience Tools fortlaufend Daten. (Siems 2022) Das bedeutet nicht nur ein Risiko für die Personen, sondern da diese Daten sehr breit und niederschwellig zu bekommen sind, ist es auch ein Risiko für Forschungs- und Technologieabfluss. Während die G7 in Sachen Wissenschaftsspionage um ihre Position zu China ringen und dabei diplomatische Verärgerung riskieren, (Gabel 2024; Directorate-General for Research and Innovation 2024) stehen die virtuellen Scheunentore zu sensiblen Daten hochgezüchteter Forschungsteams die ganze Zeit sperrangelweit offen.

Wenn Risk Solutions damit selbst so große Risiken beinhalten – was ist dann die Motivation von „Going Dark“? Warum dieser unbedingte Wille, demokratiefeindliche Maßnahmen durchzusetzen? Gibt es den vielberufenen Systemwettbewerb zwischen China und der westlichen Welt am Ende gar nicht, weil eigentlich alle chinesisch werden und Kapital und Kontrolle maximal glücklich verbinden wollen? Vielleicht muss man nochmal zum Beginn der Geschichte zurückkehren, wo Hank Asher der Polizistin McMorrow das erste Mal AutoTrack vorführte. Sie sorgte für eine Demo in ihrem Police Department und es geschah genau das, was sie sich gedacht hatte: „The chief, the deputy chief, all the detectives […] freaked out over it, absolutely freaked out over it.“ (Funk 2023, 73) Data Fusion hat eine starke Verführungskraft durch ihren Glanz der (scheinbaren) Evidenz und weil die Sicherheitsbehörde überdies damit alle rechtstaatlichen (und damit anstrengenden) Checks & Balances überspringen kann: man braucht keinen richterlichen Untersuchungsbeschluss mehr, man muss sich keinen Fragen mehr stellen, alles, was man will, kann man per data shopping on the fly bekommen – ein All you can eat für Personendaten. Als Behörde muss man auch sich selbst und die vielleicht nicht mehr so ganz zeitgemäßen Arbeitsformen und das behördliche Gestrüpp nicht in Frage stellen, denn Data Fusion legt einem ja trotzdem alles glänzend vor die Füße. Dass es voller Fehler ist, kann man ignorieren, trifft ja schließlich nicht die Anwender, sondern die Verzeichneten wie den Bibliothekar Shea Swauger, der im Selbstversuch sein Profil aus dem LexisNexis-Konkurrenten Thomson Reuters herausholte: 41 Seiten detailliertester Informationen – aber bis hin zum Geschlecht eben auch vielfach falsch.5

Wenn wir im Kontext von „Going Dark“ von Verantwortung sprechen, reden wir damit nicht nur über die Freiräume von Wissenschaftlerinnen und Wissenschaftlern, sondern zugleich von den grundlegenden Rechten der Bürgerinnen und Bürger sowie auch von den grundlegenden Funktionen und Prozessen unserer Gesellschaft. Das kann die Wirtschaft sein, das kann unser Miteinander schlechthin sein – aber reden wir auch ausreichend darüber, was das alles für die Wissenschaftsfreiheit bedeuten soll, wenn künftig alle Geräte, die in Labor und Büro stehen, quasi eine Standleitung zum law enforcement haben sollen? Alle Services, die (auch) Forschende nutzen, eine Mitwirkungspflicht zur Verfolgung haben? Wie sollen sich Forschungsdateninfrastrukturen weiterentwickeln, an denen ein Großteil der künftigen Wertschöpfung hängt, aber auch von digitaler gesellschaftlicher Entwicklung insgesamt? Wie soll noch zu Datenaltruismus motiviert werden, wenn ehrlicherweise alle nur antworten könnten: „Vielen Dank – hab schon gespendet!“

Es ist damit in verschiedener Hinsicht durchaus fraglich, wo hier etliches sowohl im Dunkeln wie auch im Argen liegt.

  1. Die Darstellung hier folgt Funk 2023 und meiner Rezension des Buches in der Bibliothekszeitschrift o-bib (Siems 2024a), aus der auch einige Sätze für diesen Beitrag übernommen wurden. ↩︎
  2. Vgl. die von ihm erstellte Themenseite unter Breyer 2024. ↩︎
  3. Vgl. z.B. Microsoft 2024 und Biddle 2024. ↩︎
  4. Vgl. Keegan/Eastwood 2023 und das dort verlinkte GitHub-Repository. ↩︎
  5. „To wrap it up, @Westlaw, through CLEAR, collects a shit ton of data about you. They share it with law enforcement, including @ICEgov, and anyone who has enough money to buy CLEAR. And for most people, there’s nothing you can do about it”. (Swauger 2019) ↩︎

Abbe: Zum Urteil des Bundesverfassungsgerichts zur automatisierten Datenanalyse und seinen Folgen [16.02.2023], https://police-it.net/folgen-des-bverfg-urteils-fuer-vera-und-andere-palantir-systeme?cn-reloaded=1 und https://www.golem.de/news/palantir-bayerns-polizei-erhaelt-umstrittene-analysesoftware-vera-2407-187185.html [22.07.2024].

Altschaffel, Robert u.a. (2024): Datentracking und DEAL – Zu den Verhandlungen 2022/2023 und den Folgen für die wissenschaftlichen Bibliotheken. In: Recht und Zugang, 2024, Heft 1, S. 23-40. https://doi.org/10.5771/2699-1284-2024-1-23.

Brunner, Katharina et al. (2024): Wohnort, Arbeit, ausspioniert. Wie Standortdaten die Sicherheit Deutschlands gefährden [16.07.2024], https://interaktiv.br.de/ausspioniert-mit-standortdaten/ [24.07.2024].

Berkman Center [for Internet & Society] (2016): Don’t Panic. Making Progress on the “Going Dark” Debate [01.02.2016], https://cyber.harvard.edu/pubrelease/dont-panic/Dont_Panic_Making_Progress_on_Going_Dark_Debate.pdf [22.07.2024].

Breyer, Patrick (2024): https://www.patrick-breyer.de/beitraege/draft-going-dark-uberwachungsschmiede/ [24.07.2024].

Briddle, Sam (2024): Israeli Weapons Firms Required to Buy Cloud Services From Google and Amazon [01.05.2024], https://theintercept.com/2024/05/01/google-amazon-nimbus-israel-weapons-arms-gaza/ [22.07.2024].

Chemical Industry Latest (2023): Data Fusion Market Insights Research Report (2023-2030) | 125 Pages [12.12.2023], https://www.linkedin.com/pulse/data-fusion-market-insights-research-report-2023-2030-fdslf [22.07.2024].

Council of the European Union (2024): Draft agendas for Council meetings during the second semester of 2024 (Hungarian Presidency) [24.06.2024], https://data.consilium.europa.eu/doc/document/ST-11222-2024-INIT/en/pdf [22.07.2024].

Cox, Joseph: Dark Wire. The Incredible True Story of the Largest Sting Operation Ever. New York: ‎PublicAffairs 2024.

Cracked Labs. Institute for Critical Digital Culture (2024): Europe’s and America’s hidden security crisis [11.2023], https://crackedlabs.org/en/rtb-security-crisis [24.07.2024].

Directorate-General for Research and Innovation (2024): G7 agree to strengthen open and safe international science cooperation [11.07.2024], https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/g7-agree-strengthen-open-and-safe-international-science-cooperation-2024-07-11_en?prefLang=de [22.07.2024].

DFG [= Deutsche Forschungsgemeinschaft] (2021): Datentracking in der Wissenschaft: Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Bonn 2021; https://www.dfg.de/resource/blob/174922/5b903b1d487991f2d978e3a308794b4c/datentracking-papier-de-data.pdf [22.07.2024].

DiResta, Renée: Invisible Rulers. The People who turn Lies into Reality. New York: PublicAffairs 2024.

European Commission (2024): Recommendations of the High-Level Group on Access to Data for Effective Law Enforcement [21.05.2024], https://home-affairs.ec.europa.eu/document/download/1105a0ef-535c-44a7-a6d4-a8478fce1d29_en?filename=Recommendations%20of%20the%20HLG%20on%20Access%20to%20Data%20for%20Effective%20Law%20Enforcement_en.pdf [22.07.2024].

European Commission (2023): COMMISSION DECISION of 6.6.2023 setting up a high-level group on access to data for effective law enforcement, https://home-affairs.ec.europa.eu/document/download/ffbbf855-c62e-4b71-a249-126316124e91_en?filename=Commission%20Decision%20setting%20up%20a%20high-level%20group%20on%20access%20to%20data%20for%20effective%20law%20enforcement_en.pdf [22.07.2024].

European Digital Rights (2022): Public Statement on New Crisis Response Mechanism and other Last Minute Additions to the DSA [12.04.2022], https://edri.org/wp-content/uploads/2022/04/EDRi-statement-on-CRM.pdf [22.07.2024].

European Parliament (2024): Transparency of High-Level Expert Group on access to data for effective law enforcement, Question for written answer E-001335/2024 to the Commission, Rule 138, Patrick Breyer (Verts/ALE) [25.04.2024], https://www.europarl.europa.eu/doceo/document/E-9-2024-001335_EN.html [22.07.2024].

FragDenStaat (2023): June and November Meetings of the HLEG on access to data for effective law enforcement, https://fragdenstaat.de/anfrage/june-and-november-meetings-of-the-hleg-on-access-to-data-for-effective-law-enforcement/ [22.07.2024].

Funk McKenzie: The Hank Show: how a house-painting, drug running DEA informant built the machine that rules our lives. New York: Macmillan 2023.

Gabel, Tim (2024): G7: Wissenschaftsminister wollen Forschungsergebnisse vor „feindseligen“ Nationen beschützen [15.07.2024], https://table.media/research/analyse/g7-wissenschaftsminister-wollen-forschungsergebnisse-vor-feindseligen-nationen-beschuetzen/ [29.07.2024].

Hungarian Presidency (2024): Programme of the Hungarian Presidency of the Council of the European Union in the Second Half of 2024, https://hungarian-presidency.consilium.europa.eu/media/32nhoe0p/programme-and-priorities-of-the-hungarian-presidency.pdf [22.07.2024].

Jonsson, Jan (2024): https://thefifthskill.com/eu-anti-encryption-crusaders-seek-to-turn-your-digital-devices-into-spyware/ [22.07.2024].

Keegan, Jon & Joel Eastwood (2023): From „Heavy Purchasers“ of Pregnancy Tests to the Depression-Prone: We Found 650,000 Ways Advertisers Label You [08.06.2023], https://themarkup.org/privacy/2023/06/08/from-heavy-purchasers-of-pregnancy-tests-to-the-depression-prone-we-found-650000-ways-advertisers-label-you [22.07.2024].

Lamdan, Sarah: Data Cartels. The Companies That Control and Monopolize Our Information. Stanford: Stanford University Press 2022.

LexisNexis Risk Solutions (2020): LexisNexis Risk Solutions wurde für das EU-Konsortium Horizon 2020 ausgewählt [04.11.2020], https://www.prnewswire.com/news-releases/lexisnexis-risk-solutions-wurde-fur-das-eu-konsortium-horizon-2020-ausgewahlt-817539385.html [22.07.2024].

Meineck, Sebastian & Ingo Dachwitz (2024): Databroker Files: ADINT – gefährliche Spionage per Online-Werbung [19.07.2024], https://netzpolitik.org/2024/databroker-files-adint-gefaehrliche-spionage-per-online-werbung/ [22.07.2024].

Microsoft (2024): Microsoft for defense and intelligence https://www.microsoft.com/en-us/industry/defense-intelligence [24.07.2024].

RELX (2021): RELX 2020 Results [11.02.2021], https://www.relx.com/~/media/Files/R/RELX-Group/documents/investors/transcripts/results-2020-transcript.pdf

Rudl, Tomas (2023): Digital Services Act: EU-Kommissar hält an Lizenz zum Abklemmen sozialer Netze fest [20.09.2023], https://netzpolitik.org/2023/digital-services-act-eu-kommissar-haelt-an-lizenz-zum-abklemmen-sozialer-netze-fest/ [22.07.2024].

Siems, Renke (2024a): Rezension zu: Mckenzie Funk: The Hank Show: how a house-paintig, drug running DEA informant built the machine that rules our lives. In: o-bib. Das offene Bibliotheksjournal 11 (2024) Nr. 1. https://doi.org/10.5282/o-bib/6021

Siems, Renke (2024b): Subprime Impact Crisis. Bibliotheken, Politik und digitale Souveränität. In: Bibliothek Forschung und Praxis 2024. https://doi.org/10.1515/bfp-2024-0008.

Siems, Renke (2022): Das Lesen der Anderen. Die Auswirkungen von User Tracking auf Bibliotheken. In: o-bib. Das offene Bibliotheksjournal, Bd. 9 (2022), Nr. 1; https://doi.org/10.5282/o-bib/5797.

Stöcker, Christian (2024): Information und Desinformation – wie steht es um die Netzöffentlichkeit? Digitalgespräch Folge 53 mit Christian Stöcker, https://zevedi.de/digitalgespraech-053-christian-stoecker/ [22.07.2024].

Swauger, Shea (2019): [13.12.2019], https://twitter.com/SheaSwauger/status/1205587676172144641 [22.07.2024].

Tau, Byron (2024): Means of Control. How the Hidden Alliance of Tech and Government is Creating a New American Surveillance State. New York: Crown.

Verified Market Research (2024): https://www.verifiedmarketresearch.com/product/data-fusion-market/ [22.07.2024].

Wang, Nina/Allison McDonald/Daniel Bateyko/Emily Tucker (2022): American Dragnet: Data-Driven Deportation in the 21st Century, Center on Privacy & Technology at Georgetown Law [10.05.2022], https://americandragnet.org/ [22.07.2024].

Siems, Renke (2024): „Going Dark“. Datentracking und Datenzugriff auf europäischer Ebene. In: Verantwortungsblog. https://zevedi.de/going-dark-datentracking-und-datenzugriff-auf-europaischer-ebene/ [13.08.2024].
https://doi.org/10.60805/p7w9-d268

Kategorien
Akzentfarbe: gelb (Brandl+Lenhard) Autoren: Matthias Brandl & Johannes Lenhard Uncategorized Verantwortungsblog

Der Non-Bias-Mythos

Der Non-Bias-Mythos

Viele Mythen ranken sich um die Künstliche Intelligenz. Einer davon ist der Non-Bias-Mythos: die Vorstellung, dass es vor allem mehr und bessere Daten bräuchte, um Maschinen ein vorurteilsfreies Handeln zu lehren. Doch wir sollten skeptisch sein.

Von Matthias Brandl & Johannes Lenhard | 06.08.2024

Ein Turm aus Datenleitungen
Erstellt mit Adobe Firefly. Prompt: Painting of a tower made of data cables; yellow tones.

Sie müssen ihr Kind zur Betreuung geben, um eine wichtige Konferenz über künstliche Intelligenz zu besuchen. Ausgerechnet jetzt wird die KiTa bestreikt. Wem vertrauen sie ihr Kind an? In einem Blog über AI und Verantwortung liegt die Frage nahe, ob sie einer intelligenten Maschine vertrauen würden. Aber darauf wollen wir (vorerst) nicht hinaus. Wie wäre es stattdessen mit einer menschlichen Professorin für Sozialpädagogik? Also eine echte Expertin, sogar spezialisiert auf die Altersgruppe ihres Kindes und zudem dekoriert mit einem Wissenschaftspreis für ihren Aufsatz zur adäquaten Kurzbetreuung von Kindern. Ein kleines Problem gibt es: Die Professorin lebt in einer Jugendstil-Villa (mitsamt ihrer Bibliothek) und da sie ihren Wohn- und Arbeitsort selten verlässt, müssten sie also das Kind dort hinbringen. Ist aber nicht weit vom Workshop. Würden sie das tun?

Sie zögern? Fügen wir also eine gehörige Dosis an Idealisierung hinzu: die Professorin hat wirklich alles gelesen, kann auf ihr angelesenes Wissen jederzeit zugreifen, ohne je etwas zu verwechseln oder zu vergessen. Sie hat zudem direkten Zugang zu allen relevanten Datenbanken mit sämtlichen Messungen und aktuellen Studienergebnissen. Wenn man so will: eine stets aktualisierte Bibliothek bietet der Professorin eine perfekte Datengrundlage für eine vorurteilslose und verantwortungsvolle Betreuung ihres Kindes. Sie zögern noch immer? Oder sie zögern jetzt erst recht? Seltsam. Oder vielleicht gar nicht seltsam. Unsere Intuition sagt uns, dass kein Buchwissen – und sei es noch so profund und aktuell – ausreicht (und vielleicht nicht einmal nötig ist), um einer Person das eigene Kind anzuvertrauen. 

Wir denken, es gibt einen modernen Mythos, den diese Intuition offenlegt. Nämlich den Glauben, es reiche aus, die Welt gut erfassen und beschreiben zu können, um auch angemessen zu handeln. Drei Aspekte dieses Mythos möchten wir hervorheben.

  • Der Mythos nährt sich aus dem Glauben, dass die Reichhaltigkeit (räumlich und zeitlich) der Welt begrifflich von uns vollständig erfasst werden kann. Bestimmt nicht ohne Hilfe eines wissenschaftlich-technischen Apparates und vielleicht nicht jetzt, aber prinzipiell werden wir in (naher) Zukunft dazu in der Lage sein. Dieser Glaube – oder sollte man eher sagen: diese Phantasie – hält sich auch unter Wissenschaftlern hartnäckig. Der von Laplace erdachte Dämon (Laplace 1814) zeugt davon und erst kürzlich hat Stephen Wolfram (der prominente Kopf hinter der Software Mathematica) diese Idee als Antriebsfeder seines Schaffens beschrieben (Wolfram 2023).
  • Auch suggeriert der Mythos, die Frage des verantwortlichen Handelns könne über die Eigenschaften einer fundierten Beschreibung der Welt beantwortet werden. Dieser langlebige Mythos stellt also einen unmittelbaren Zusammenhang her zwischen (epistemischem) Wissen und (moralisch angemessenem) Handeln. Diese Neigung, Handeln allein aus korrekter Beschreibung abzuleiten, ist philosophisch hartnäckig, gleichzeitig erscheint sie uns auch seltsam. Bilder wie „Bücherwurm“ oder „Elfenbeinturm“ verdeutlichen das und sind in der Regel abwertend konnotiert. Darum das Beispiel der kinderhütenden, sozial isolierten Professorin. Leicht lassen sich weitere Illustrationen beibringen, wie etwa den Schriftgelehrten Peter Kien in Elias Canettis Roman „Die Blendung” (1948), der eine riesige Bibliothek besitzt und seine Kontakte mit der „realen” Welt auf seine Haushälterin verengt (unter deren aktivem Zutun). Sein Bezug allein zu Büchern lässt ihn an der Welt scheitern und Canetti präsentiert in brillanter Mitleidlosigkeit die sich entfaltende Tragödie.
  • Eine philosophische Grundlage dieses Mythos ist eine spezifische Auffassung von Sprache als Beschreibung – meisterhaft seziert in Wittgensteins Philosophischen Untersuchungen (1953: gleich ab §1). Sprache ist in dieser Vorstellung ein Instrument, das hauptsächlich dazu dient, die Welt abzubilden. Sprache so gedacht, würde dann, wenn richtig eingesetzt, ein komplettes Abbild der Welt, ihrer Gegenstände, ihrer Struktur und ihrer Dynamik ermöglichen. Diese Sprachauffassung vernachlässigt jedoch, dass sprechen und schreiben selbst raum-zeitliche Handlungen in der Welt sind. Einige Philosophen und Linguistinnen nennen das den performativen Charakter der Sprache. Sie können sich sicherlich denken, dass die Auffassung, Sprechen sei auch Handeln, die Idee, man könne aus Beschreibungen Handeln ableiten, wesentlich komplizierter macht.

Die oben erwähnte Abbildtheorie von Sprache, die damit verbundene Hoffnung auf eine vollständige Beschreibung und die Annahme eines direkten Zusammenhangs von Beschreiben und Handeln passt zur häufig diskutierten Idee, wir müssten uns darauf konzentrieren, Maschinen ohne eine verfälschende Einseitigkeit (Bias) zu bauen. Weil richtige Beschreibung zu richtigem Handeln führe, ist die Beschreibung ohne Bias so wichtig, ja zentral. Daher könnte man den Mythos auch als Non-Bias Mythos bezeichnen. Um nicht missverstanden zu werden: Viele eingesetzte Algorithmen sind nachweislich vorurteilsgeladen (Benjamin 2019; Zweig 2019). Doch selbst wenn es so etwas wie eine vorurteilslose Beschreibung gäbe (was wir nicht glauben), bleibt für uns die Frage nach einem angemessenen, vertrauenswürdigen Handeln weiterhin ungelöst.

Zwei Beispiele aus der aktuellen Diskussion um KI beleuchten den besagten Mythos.

Ein interessantes Gedankenexperiment stammt von Bender und Koller (2020: 5188). Zwei Merkmale unserer beiden vorigen Beispiele (der kinderhütenden Professorin und dem Schriftgelehrten Kien) werden dabei aufgegriffen, nämlich die Situation sozialer Isolation und die Bibliothek. Mensch K. und Mensch B. leben auf verschiedenen Inseln, verbunden nur über ein Kabel, das sie miteinander telefonieren lässt. Ein extrem intelligenter Oktopus O belauscht diese Gespräche, indem er die elektrischen Signale im Kabel abhört. Im Laufe der Jahre sammelt er so etwas wie eine Bibliothek der Abfolge von (elektrischen) Mustern. Von Neugier oder Sehnsucht getrieben, schmeißt der Oktopus schließlich den Menschen B aus der Leitung und stöpselt sich selbst ein. Die Fragen des Inselbewohners K. werden jetzt unter Rückgriff auf die Muster-Bibliothek des Oktopus (statistisch, generativ) beantwortet.

Zugegeben, das ist eine sehr konstruierte Geschichte. Doch der philosophische Kern (ähnlich wie beim Turing-Test) ist spannend: Kann O so agieren, dass der telefonierende Inselbewohner K. keinen Verdacht schöpft? Der Oktopus O weiß zwar nicht, um was es geht – schließlich beherrscht er weder die Sprache noch kann er irgendetwas vom Leben an Land wissen. Trotzdem kann er aufgrund seiner Musterbibliothek die Konversation erwartungsgemäß führen. Und in Fällen, wo die Musterbibliothek noch nicht ausgereift ist, kann er auf unverdächtige generelle Floskeln zurückgreifen wie „Das hört sich gut an“ oder „Gut gemacht“. Eines Tages aber passiert doch etwas: während des Telefonats merkt der Inselbewohner K., dass ein Bär auf ihn zukommt und er nur einige Stöcke zur Verfügung hat, um sich zu schützen. Panisch fragt er am Telefon, was er jetzt bloß tun solle. Und da, so Bender und Koller, wird ihm der Oktopus nicht angemessen antworten (und helfen) können, da die Situation nicht nur neu ist, sondern der Oktopus sich überhaupt nicht vorstellen kann, was eine solche Situation bedeutet. Folglich bekommt der Inselbewohner jetzt doch Zweifel, ob er es am anderen Ende des Telefons mit B. von der anderen Insel zu tun hat…, wenn er nicht bereits vom Bären aufgefressen wurde.

Da haben Bender und Koller einen Punkt, meinen wir. Die Begründung ist aber vielleicht ein wenig vorschnell. Denn der Zusammenbruch der Kommunikation (in der irrigen Meinung des Inselbewohners) aufgrund der fehlenden Vorstellungskraft, oder des Nicht-in-der-gleichen-Welt-seins des Oktopus wäre vielleicht vermeidbar, wenn nur die Datenbasis viel größer wäre. Wenn der Oktopus nur genügend Instanzen ähnlicher Gespräche hätte (vielleicht auch aus anderen Telefonleitungen), so dass seine Muster-Bibliothek auch über diese Situationen statistisch ausgewertet werden kann. Könnte man dem Oktopus (oder eben der generativen KI) dann nicht zutrauen, nützliche Hinweise zu geben? Diese Annahme wiegt schwer. Sie setzt die Größe der Datenbasis in Beziehung zur Vollständigkeit der Beschreibung. Und diese Vollständigkeit muss mit enthalten, dass keine auf relevante Weise neuen Situationen entstehen. Alles (ungefähr) schon mal da gewesen. Schon oft. Die Annahme meint also, dass eine Beschreibung vorliegt, die so perfekt ist, dass sie nicht nur die Vergangenheit umfasst, sondern auch alles, was in der Zukunft geschehen kann. Wir sehen hier, wie gewaltig diese Annahme ist: Wenn die Beschreibung nur gut genug ist, kann auch die Zukunft nichts Neues bringen.

Letztendlich geht es bei den angezapften Telefonaten, ob überlebenswichtig oder nicht, für den Oktopus O. darum, Telefonsignale aus Telefonsignalen zu erschließen, die für Menschen wie Sprechhandlungen wirken. Wir Menschen verfügen über andere Methoden um die angemessenen Sprechhandlungen zu erschließen, nämlich aus Handlungen und Praxis. Anders formuliert: Wir lernen sprechen, äußern Hilfe oder formulieren Tipps, jedoch nicht auf der Grundlage von Tausenden von Telefonaten – auch wenn das heutzutage anders scheint. Vielmehr lernen wir Sprech(handeln) in der Welt, als Praxis, als Tätigsein, Erleben und durch zwischenmenschliche Handlungen. Dieser Weg ist generischer, sozusagen datenärmer. Wir bringen auf diese Weise die Universalität der Sprache in Anschlag, ohne über eine vollständige Beschreibung zu verfügen. Das ist auch ein Kernpunkt in Wittgensteins Analysen: Wir haben keine umfängliche, gar perfekte Beschreibung unseres Sprechhandelns, werden diese auch nie haben, sondern haben eine Vielzahl an Sprachspielen und passenden Situationen auf Lager. Der Oktopus kennt diese hingegen nicht und kann sie auch aus den Telefonaten nicht ableiten, weil er unsere Praxis nicht teilt.

Eine zweite Illustration des Mythos, dass gute Beschreibungen quasi automatisch angemessene Handlungen hervorbrächten, stammt von Brian Cantwell Smith (2019). Sein Beispiel hat uns überhaupt erst auf die Frage der Kinderbetreuung vom Anfang gebracht hat. Er schildert die Szene, in der Eltern ausgehen und ihre Kinder einem Babysitter anvertrauen. Für Smith liegt auf der Hand, dass die Eltern ihr Vertrauen nicht auf den Regeln gründen, die sie dem Babysitter geben. Wieso nicht? Selbst bei perfekter Befolgung aller vorgeschriebenen Regeln wollen Eltern bestimmt nicht hören: „Aber ich habe doch alle Regeln befolgt.” Vielmehr wollen sie, dass der Babysitter sich um die Kinder kümmert, was auch immer in der Welt oder der Wohnung passiert. Da kann es sein, dass es auch einmal sinnvoll ist, nicht den Regeln zu folgen und/oder initiativ zu werden, weil eine ungewöhnliche Situation dies für den Schutz des Kindes erfordert. Korrektheit der Regelbefolgung ist eben nicht gleich Verantwortung für das Kind. Zugegeben, wenn die Regeln alle Situationen vollständig erfassen, dann kommt es nachher in den Handlungen auf das Gleiche heraus. Aber eben nur wenn.

In der Babysitter Geschichte tritt noch eine Besonderheit auf, insofern es um Regeln geht. Es ist aus der KI Geschichte bekannt, dass regelbasierte KI nur beschränkte Erfolge hatte, also den Einwand von Smith bestätigt. Der aktuelle Boom der KI aber beruht vor allem auf dem Einsatz von künstlichen neuronalen Netzen. Diese benötigen keine explizit formulierten Regeln und lernen statistische Muster aus sehr vielen Daten (wie im Oktopus-Beispiel). Und dass Maschinen auch ohne explizite grammatische Regeln Essays formulieren können (Large Language Models wie ChatGPT), ist durchaus verblüffend. Die Vollständigkeitsannahme und der Mythos einer perfekten Beschreibung bleiben aber, d.h. die Daten müssen die Welt so reichhaltig abdecken, dass die statistischen Muster hinreichen. Diese Annahme ist in der Tat unbehaglich und dieses Unbehagen wiederum ist ein Grund dafür, skeptisch zu sein gegenüber der kinderbetreuenden isolierten Expertin im Elfenbeinturm. Und damit erst recht einer ausschließlich mit Schriftzeichen gefütterten digitalen Maschine.

Wir glauben, dass der hier umschriebene Mythos zwei Motive miteinander verbindet. Das erste ist eine gewisse Hybris, die sich im vorbehaltlosen Glauben an eine vollständige Beschreibung (oder Modell) äußert. Oder genauer gesagt: dem Glauben an die Möglichkeit einer vollständigen Beschreibung und an deren Macht, wenn erst genügend Daten (natürlich ohne Bias) vorhanden sind. Wir stehen diesem Motiv mit Vorsicht und Skepsis gegenüber. Diese Skepsis speist sich nicht nur aus Gedankenexperimenten, sondern auch aus vielen bekannten Fallbeispielen, wie dem in der Technikgeschichte berühmten ersten automatisierten (Luft-)Frühwarnsystem, das fälschlich einen Großangriff auf die USA gemeldet hat. Das System lag falsch, weil besondere atmosphärische Bedingungen den Mond auf scheinbar ungewöhnliche Weise am Horizont aufgehen ließen. Diese Bedingungen waren im Modell nicht vorgesehen und es hatte einen Angriff gemeldet (siehe Smith 1985). Doch natürlich haben hier Apostel der KI einen mythischen Einwand dazu: „Ja, prinzipiell ist aber eine vollständige Beschreibung möglich“.

Dieses Hybris-Motiv ist so neu nicht. Schon bei der Geschichte um den Turmbau zu Babel brach die Kommunikation zusammen wegen vieler verschiedener Sprachen. Wenn es nur um die Beschreibung der Materialien, der Pläne und des Baus gegangen wäre, hätte der Bau ruhig weitergehen können.

Das zweite Motiv, ist gleichzeitig der Grund, weshalb wir diesen Mythos auch als Non-Bias-Mythos bezeichnen. Der Mythos lädt ein zum Opportunismus auf demjenigen Geschäftsgebiet, das einhergeht mit der heutigen digitalen Technologie: der fleißigen Datenakkumulation. Technisch gesehen benötigen die gängigen Werkzeuge (tiefe Netzwerke) der AI eine riesige Menge an Daten, um eine unüberschaubare Menge an Parametern einzustellen. Deshalb ist das Verhalten der trainierten (angelernten) Netze in weiten Teilen nicht erklärbar. Da kommt eine philosophische Auffassung gerade recht, die sehr viele Daten fordert. Auch wenn einzelne Daten praktisch gar nicht mehr kuratiert oder betrachtet werden, passt der Non-Bias-Mythos trotzdem gut, weil der Bias auf Datenwolken (im Durchschnitt usw.) definiert ist. Krude gesagt: mehr Daten, mehr „fair“.

Wie gesagt: Das berührt nicht unsere Überzeugung, dass im Einsatz heutiger Computermodelle gängige Vorurteile bestätigt oder gar vorangetrieben werden, sondern den Mythos, der nahelegt, durch mehr Daten könne man diesen Bias beseitigen. Wir sollten also skeptisch sein, wenn behauptet wird, die Maschine werde es letztlich richten, weil mehr Daten zu immer besseren Beschreibungen führen; Beschreibungen, die quasi automatisch zu angemessenen und fairen Entscheidungen abgeleitet/umgemünzt werden können. Unsere Überzeugung (die wir noch bei anderer Gelegenheit ausführen werden) lautet dagegen: Eine Vorstellung davon zu haben, was Verantwortung und Autonomie bedeuten, und entsprechendes Handeln in sozialen Praktiken bleiben unsere vornehmsten Werkzeuge, um mit Unvollständigkeit und Begrenztheit umzugehen.

Bender, Emily M./Koller, Alexander (2020): Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, S. 5185-5198.

Benjamin, Ruha (2019): Race After Technology: Abolitionist Tools for the New Jim Code.: Polity.

Canetti, Elias (1948): Die Blendung. Roman. München: Weismann.

Laplace, Pierre Simon (1814): Essai philosophique sur les probabilités.

Smith, Brian Cantwell (1985): The limits of correctness. In: ACM SIGCAS Computers and Society, 14,15(1,2,3,4), S. 18-26.

Smith, Brian Cantwell (2019): The Promise of Artificial Intelligence: Reckoning and Judgment. Cambridge, MA: The MIT Press.

Wittgenstein, Ludwig ([1953] 1984): Philosophische Untersuchungen. Frankfurt am Main: Suhrkamp.

Wolfram, Stephen (2023): What Is ChatGPT Doing. and Why Does It Work? In: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ [02.07.2023].

Zweig, Katharina A. (2019): Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne.

Brandl, Matthias & Johannes Lenhard: Der Non-Bias-Mythos. In: Verantwortungsblog. https://zevedi.de/der-non-bias-mythos/ [06.08.2024]. https://doi.org/10.60805/wh2f-7g22

Kategorien
Akzentfarbe: blau Autor: Viet Anh Nguyen Duc Verantwortungsblog

Über Verantwortung im Computerspiel

Über Verantwortung im Computerspiel

Lange Zeit wurde das Gaming mit Killerspiel-Debatten vereinseitigt. Das war falsch und unfair, denn die Community ist groß und komplex und Verantwortungsfragen werden allerorts verhandelt. Es ist längst an der Zeit für eine Neuausrichtung.

Von Anh Viet Nguyen Duc | 01.08.2024

Eine Person sitzt vor einem Bildschirm, aus dem eine Hand heraus ragt, die er schüttelt.
Erstellt mit Adoba Firefly; Prompt: „Gamer vor einem Bildschirm, aus dem Bildschirm ragt eine Hand, sie reichen sich die Hände; color: blue and white“

Aber gänzlich zu schweigen, ist selten eine gute Lösung, und wer weiß schon, ob die fragliche Diskussion nicht bald wieder aufkommt, so sehr wie sie sich in das öffentliche Gedächtnis eingebrannt hat. Da ist es dann doch besser, immerhin das Problem beim Namen zu nennen, um ein größeres Bewusstsein dafür zu schaffen, was hier schiefgelaufen ist, und so nicht wiederholt werden sollte. So werde ich nachfolgend zunächst ein paar Worte über die Killerspiel-Debatte verlieren, um dann aber auch andere, bessere Zugänge und Perspektiven anzuzeigen, von denen aus die Verantwortungsdimension dieses sehr vielschichtigen Mediums erschlossen werden kann. Dabei sollte eines klar sein: Es verbringen inzwischen mehr als drei Milliarden Menschen ihre Zeit mit Games,2 das heißt: sehr viele Menschen mit unterschiedlichen Interessen und Bedürfnissen halten sich in dieser Sphäre auf, was nicht nur viel Potenzial für ein gutes und schönes Miteinander birgt, sondern auch für zahlreiche Probleme und Konflikte. Da liegt es auf der Hand, dass hier auch über eine verantwortungsvolle Gestaltung dieses Mediums nachgedacht werden muss, und dafür brauchen wir unbedingt eine offene, vorurteilsfreie und sachlich geführte Debatte über Games!

Viel ist hierüber diskutiert worden, wenig ist dabei herumgekommen, außer vielleicht der Gelegenheit dazu, die eigenen negativen Ansichten, Mutmaßungen und Gefühle gegenüber Computerspielen in der Öffentlichkeit zu bekunden. Zu der ohnehin schon weit verbreiteten Ansicht, man verschwende mit Games nur seine Zeit, kam nun die Sorge um eine extreme sittliche Verrohung hinzu, die im schlimmsten Fall in Amokläufen resultieren könne. Für letzteres hat man die sogenannten Killerspiele immer wieder verantwortlich gemacht: So etwa auch der damalige Bundesinnenminister de Maizière, der den Amoklauf in München von 2016 in einen direkten Zusammenhang mit den sogenannten Killerspielen stellte und auch über mögliche Verbote solcher Spiele nachdachte, als bekannt wurde, dass der Täter viel Zeit mit Counter-Strike verbracht hatte, also einem Ego-Shooter-Spiel, das von der USK für ab 16-Jährige freigegeben ist (vgl. Garbe 2020). Damit vertrat er gewiss keine Einzelmeinung, sondern die Meinung vieler, die sich von ähnlichen Sorgen leiten ließen, also Sorgen, die zumeist von Leuten stammen, die selbst kaum Erfahrung mit dem Spiel hatten.

Alles in allem war diese Debatte weder fundiert noch fair, wie man bereits dem Framing des Killerspiels entnehmen kann. Fundiert war sie nicht, weil die Gegner der sogenannten Killerspiele sich gerne auf „viele Studien“, so etwa de Maizière, bezogen (Garbe 2020: 194), die ihre Ansichten von einer gewaltverherrlichenden Wirkung von Ego-Shootern bestätigen sollten, die es aber so nicht gab (vgl. ebd.) – man hatte wohl einfach intuitiv angenommen, dass es sie geben muss. Und fair war die Debatte ohnehin schon wegen ihrer Begrifflichkeiten nicht, weil sie dieser Ausdruck eigentlich keine Opposition zuließ in ihrem moralisch sehr einnehmenden Framing des Killerspiels genaugenommen keine sinnvollen Gegenpositionen zuließ, aus der eine faire und sachliche Debatte hätte entspringen können. So konnte und kann man unter diesem Framing nicht sinnvollerweise für Killerspiele sein: Aus Freiheit sich für Killerspiele zu entscheiden – das klingt in rhetorischer wie auch wohl moralischer Hinsicht genauso schlecht, wie etwa aus Freiheit für Verantwortungslosigkeit zu sein (und allein aus diesen Gründen sollte man mit dem Begriff der Verantwortung vorsichtig sein und schauen, dass man nicht hiermit nur seinen eigenen Standpunkt mit ethischer Rhetorik abpanzert).

Um die Absurdität der Debatte sich vor Augen zu führen, genügt es, die Annahme von einer unmittelbaren, gewaltverherrlichenden Wirkung von Ego-Shootern nur ein wenig zu durchdenken: Die Idee einer technisch induzierten Stimulation von Gewalt zu unterstellen, würde bedeuten, dass Gamer grundsätzlich nicht in der Lage dazu seien, zwischen ‚Spiel‘ bzw. ‚Fiktion‘ und ‚Wirklichkeit‘ zu unterscheiden, dass es ihnen an einem Realitätssinn ermangele, und das ist eine absurde, ja im Grunde genommen die Urteilskraft aller Spielenden beleidigende Annahme, zumal dies dann auch zur Konsequenz hätte, dass wir auch über das Verbieten von Paintball oder Boxen nachzudenken hätten. Schließlich könnte man ja dann auch hier nie wissen, ob jemand nicht doch plötzlich die Grenze zur gewaltsamen Tat überschreitet. Ich verstehe, dass man es sich bei der Diskussion um Ego-Shooter nicht so einfach machen kann, indem man etwa jegliche Ego-Shooter-Effekte bestreitet. Aber was wirkt hier, wie und unter welchen Bedingungen? Sicher kann man sich vorstellen, dass etwa Soldat:innen mit Hemmungen, auf andere Menschen zu schießen, von möglichst realistischen Ego-Shootern Gebrauch machen könnten, um diese Hemmungen möglicherweise abzubauen, und man kann sich auch vorstellen, dass das dann irgendwie auch mal gelingen kann.3 Doch hierzu wäre eben das eigentliche Töten als beabsichtigter Zweck nötig, der gewissermaßen an den Shooter herangetragen wird. Diesen Zweck verfolgt der wesentliche Großteil der Ego-Shooter-Spielenden nun aber nicht, hier geht es um andere Dinge: Reflexe, Strategie und Competition, Nervenkitzel, Ekel- und Angsterleben, es geht um Zeitvertreib, Unterhaltung, Freude am Spiel. Und meinetwegen: Ich kann verstehen, dass man eine bestimmte Ausprägung von Männlichkeit, die sich da in den Ego-Shootern austobt, als problematisch erachtet – und hier bedürfte es einer dezidierten Männlichkeitskritik –, aber man muss auch sehen, dass sie nicht die einzigen Ego-Shooter-Spielenden sind, und dass der überwiegende Großteil unter ihnen völlig friedliche Zwecke beim Spielen verfolgt: Da wäre eine Geste der Entschuldigung in der öffentlichen Debatte angesichts der allgemeinen Stigmatisierung der Gamer, die aus der Killerspiel-Debatte folgte, durchaus angemessen gewesen und, wenn man so will, auch ein Zeichen von verantwortungsbewusster Kommunikation.

Da gäbe es noch zahlreiche weitere Punkte, auf die man mit Blick auf die Killerspiel-Debatte eingehen könnte, etwa der Umstand, dass Gewalt ja auch nicht nur eine moralische, sondern auch eine ästhetische Dimension hat, für die es seit je auch in Film, Musik, Literatur, Kunst und Pornografie eine Faszination gegeben hat – und warum sollte es bei Games besonders fragwürdig sein, wenn sie sich mit dem Thema Gewalt und auf eine dem Medium spezifische Weise auseinandersetzen? Auch könnte man auf den Umstand hinweisen, dass der Jugendschutz in Deutschland im internationalen Vergleich sehr streng ist – einer der strengsten! – und dass es darüber hinaus auch ein Gesetz gibt, dass gewaltverherrlichende Spiele verbietet (vgl. Lorber 2020). Der Eindruck, den die Killerspiel-Debatte vermittelte, dass man es hierbei mit einem völlig unregulierten Bereich zu tun hätte, der außer Kontrolle gerät, stimmte nie. Das war nur Panikmache.4

 Aber gut, lassen wir die Debatte auf sich beruhen, man sollte sie nicht ernster nehmen, als man muss. In jedem Fall sollte an diesem Beispiel deutlich geworden sein, wie eine vermeintliche Verantwortungsdebatte über Games nicht geführt werden sollte, Vorurteile, Befangenheiten und gefühlsbasierten Mutmaßungen sollte man möglichst wenig Raum geben. Das war jedenfalls über viele Jahre hinweg so das Debattenklima um Games, das hat sich allerdings dann in den paar vergangenen Jahren entschieden gebessert. Der Geschäftsführer des Deutschen Kulturrates Olaf Zimmermann bezeichnete den 22. August 2017 als ein „bedeutendes Datum“ für die Games-Branche: An diesem Tag nämlich gab die damalige Bundeskanzlerin Angela Merkel eine Eröffnungsrede zur gamescom-Messe in Köln, in der sie nicht nur das Innovationspotenzial von Games hervorhob, sondern auch deren „Status als Kulturgut“ (Zimmermann 2020: 178). Was bedeutet, dass Games seitdem klarerweise in den „Verantwortungsbereich der Kulturpolitik“ (ebd.) fallen und dementsprechend kulturpolitische Förderungen erfahren können, so ähnlich wie es in anderen Bereichen der Kultur wie der Musik, Film oder Theater der Fall ist.

Kommen wir zur Frage, worin nun eigentlich die Möglichkeiten einer verantwortungsvollen Gestaltung von Games liegen könnte, und das ist bei diesem äußerst vielschichtigen Medium gar nicht so einfach zu beantworten. Ratsam ist es hierbei, nicht von außen auf das Phänomen zu blicken, sondern zu schauen, was da in den Games-Communities selbst unter dem Stichwort Verantwortung diskutiert wird. Und da wird man leicht fündig, es handelt sich hierbei um ein Thema, das längst – sagen wir mal: im guten Sinne – im Common-Sense angekommen ist und es lautet: Diversität. Zweifellos ein wichtiges Thema, sofern es sich hierbei nicht bloß um eine Marketingstrategie von Unternehmen handelt, sondern um einen ernst genommenen, ja die Leute vielleicht auch überfordernden Anspruch (game e.v. 2024a). Bei der Website von game, das ist der Verband der deutschen Games-Branche, findet sich jedenfalls unter dem Stichwort Verantwortung der Begriff der Diversität an erster Stelle genannt, danach kommt der Jugendschutz (USK) und dann Umweltschutz (bei letzterem werden Richtlinien für ein Ressourcen-schonenderes Entwickeln von Games bereitgestellt, s. game e.V. 2024b). Für alle drei unter Verantwortung aufgelisteten Punkte bietet der Verband Richtlinien, wobei die Richtlinie für Diversität auf diversitätsfreundlichere Arbeitsverhältnisse abzielt. Dies ist allerdings nicht die einzige Weise, wie der Diversitätsgedanke im Games-Kontext eingefordert werden kann. Auch lässt er sich auf Games selbst übertragen: Dann kommt hierin das Bewusstsein zum Ausdruck, dass Games in der Art, wie sie konzipiert werden, diskriminierend sein können, und dass man deswegen sich darum bemüht, Games zu entwickeln, die eben möglichst an einer Vielfalt von Menschen ausgerichtet sind (vgl. Möglich 2022). Ähnlich wie beim Film kann in diesen Kontexten dann auch der Repräsentationsgedanke eine entscheidende Rolle spielen, dass etwa die Hauptcharaktere eines Spiels eben auch mal BiPoC oder LGBTIQA+ sind. Letztlich haben Computerspiele auch als virtuelle Spiele den Charakter von öffentlichen Orten, weil sie eben von vielen verschiedenen Menschen mit unterschiedlichen Interessen und Bedürfnissen genutzt werden, wie dies auch an öffentlichen Orten der Fall ist. Da gilt es diese öffentlichen, virtuellen Orte möglichst im Sinne eines guten, respektvollen Miteinanders zu gestalten, an denen rassistische, misogyne oder queerfeindliche Inhalte keinen Platz finden.

Zweifellos hat man den Diversitätsgedanken missverstanden, wenn man ihn so interpretiert, als müsste jedes Game diesem Anspruch gerecht werden. Er ist eher als ein Anspruch zu verstehen, den Games-Entwickler:innen stets im Auge behalten sollten; und hier ist eben ihre Urteilskraft gefragt, ob sie es im Sinne der Konzeption ihres Computerspiels als nötig erachten, stereotypisierende oder gar diskriminierende Denkmuster zu reproduzieren oder nicht. Verlangt die Konzeption des Spiels von mir, dass ich etwa sexistische Frauenbilder bediene, so wie es ohnehin schon etliche Computerspiele tun? Gibt es einen spezifischen Grund, warum nur ‚weiße‘ Charaktere ausgewählt werden können, wenn das Spiel ohnehin viele Möglichkeiten zum Character-Design erlaubt? – Hier gibt es sehr viel Spielraum und an diesem Punkt kann das Einbeziehen des Diversitätsgedankens durchaus auch ein Ausdruck von verantwortungsbewussten Games-Entwickler:innen sein.

Eine andere Weise, sich dem Verantwortungsthema innerhalb des Gaming-Bereichs anzunähern, besteht darin, danach zu fragen, inwiefern Games in der Art und Weise, wie sie entworfen sind, zu mehr Verantwortungsbewusstsein unter den Spielenden beitragen können, sei es im Umgang miteinander oder etwa mit Blick auf gesellschaftliche Probleme. Und da möchte ich gleich einfügen, dass man hierbei nicht allzu hohe Erwartungen haben sollte, da das Ziel beim Gaming ja nicht darin besteht, sich zu einem gesellschaftskritischen oder auch verantwortungsbewussteren Subjekt heranzubilden, sondern unterhalten zu werden. Gleichwohl sollte man den Beitrag von Games auch nicht unterschätzen, da sie außerordentlich viele Menschen erreichen, darunter eben auch sehr viele junge Menschen. Und diesen Beitrag kann man durchaus dann auch anerkennen, so wie es etwa auch bei jenem Typ von gesellschaftskritischen Kunstwerken der Fall ist, denen man ein ungeheures Potenzial attestiert, den Blick auf die Welt zu verändern. Und hier stellt in der Regel kaum jemand die Frage, ob dieses Potenzial nun bei den Betrachtenden dann tatsächlich in irgendeiner Weise auch wirksam wird: Die Idee, dass dies der Fall sein könnte, genügt, um gänzlich von der Bedeutung dieses Kunstwerks hingerissen zu sein.

Was nun die Games betrifft, die das Potenzial haben könnten, Verantwortungsbewusstsein bei ihren Spielenden zu fördern, so wäre hierbei etwa an jene Sorte von Games zu denken, die in hohem Maße die Spielenden mit gesellschaftskritischen Themen konfrontieren, wie dies etwa bei Spec Ops: The Line der Fall ist, einem Militärshooter, der auf eine sehr emotional involvierende Weise die Schrecken des Krieges thematisiert. Eine Besonderheit dieses Spieles besteht darin, dass die Spielenden sich immer wieder mit der moralischen Fragwürdigkeit der Entscheidungen ihrer kriegerischen Spielfigur auseinandersetzen müssen, weil das Spiel ihnen permanent die brutalen Folgen des eigenen Handelns im Krieg vor Augen führt und dies unkommentiert lässt. Oder, um ein weiteres Beispiel anzuführen: Papers, Please. Bei diesem Spiel tauchen die Spielenden in die Rolle eines Grenzbeamten innerhalb eines totalitären Regimes ein, der unter Einsicht der vorgelegten Dokumente entscheiden muss, welche Reisenden er passieren lässt oder nicht. Auch hier werden die Spielenden immer wieder vor moralisch knifflige Entscheidungen gestellt, da es sich hierbei um einen repressiven Staat handelt. Oder, um noch ein ausgefalleneres Beispiel zu nehmen, Undertale, ein RPG (Role-Playing Game), das die Spielenden in die Rolle eines Kindes versetzt, das in einen Untergrund gefallen ist, und auf dem Weg zur Oberfläche zahlreichen Monstern begegnet. Das Besondere an dem Spiel besteht darin, dass das Spiel mit den gängigen Spielmechaniken von RPGs bricht, immer Feinde besiegen zu müssen, um stärker zu werden. Bei Undertale können die Spielenden die Monster ebenso töten, wie sie sich mit ihnen anfreunden können, und letzteres legt das Spiel auch nahe, da die Monster als sehr empathische, ängstliche und auch witzige Wesen dargestellt werden.

Was allen drei hier erwähnten Spielen gemein ist, ist der Umstand, dass die Spielenden im Laufe des Spiels immer wieder vor moralischen Entscheidungen stehen und dann mit den aus der Entscheidung resultierenden Konsequenzen konfrontiert werden. Die Spiele legen es demnach ihren Spielenden nahe, einen Standpunkt einzunehmen, bei dem die Spielenden sich selbst in hohem Maße als verantwortlich dafür begreifen, was sie in dem jeweiligen Spiel tun. Ob diese Spiele nun wirklich dazu führen, dass die Spielenden sich dann im echten Leben auch für mehr Dinge verantwortlich fühlen und sich für eine bessere Welt engagieren, mag, wie erwähnt, dahingestellt sein; in jedem Fall geben diese Spiele einen Anreiz, hierüber nachzudenken und darin liegt eben ihr Beitrag.

Eine weitere Sorte von Games, die das Verantwortungsbewusstsein der Spielenden steigern kann und in vielen Fällen auch darauf abzielt, fällt unter die Rubrik der sogenannten Serious Games. Diese werden nicht primär um der Unterhaltung willen gespielt, sondern sie dienen einem gewissen Lernzweck. Dabei kann das Lernziel beispielsweise darin bestehen, Umweltprobleme besser zu verstehen und auf spielerische Weise Lösungskompetenzen zur Handhabung jener Probleme zu entwickeln; dann kann man ganz klar davon sprechen, dass diese Spiele darauf abzielen, das Verantwortungsbewusstsein und das Engagement der Spielenden zu fördern.5

Zweifellos können manchmal aber auch gänzlich unkritisch (oder auch: hinsichtlich allzu schlichter moralischer Urteile wenig reflexiv) ausgestaltete Games Spielende zu verantwortungsvollerem Handeln bewegen, und zwar durch den bloßen Umstand, dass die Spielenden bei bestimmten Games-Genres sich einander begegnen und miteinander bzw. gegeneinander spielen. Gegenseitiger Respekt und Rücksichtnahme sind hier erforderlich und dies ist nicht immer gegeben (insbesondere bei jenen Spielen, in denen ohnehin eine toxische Kommunikationskultur vorliegt), was dann beispielsweise die Spielenden selbst dazu veranlassen kann, die Probleme in den Communities offen anzusprechen und sich für einen respektvolleren Umgang einsetzen.6 Oder, um ein weiteres Beispiel für verantwortungsvolles Handeln unter Spielenden zu geben: Man übernimmt bei einem Online-Multiplayer Rollenspiel wie etwa World of Warcraft (WoW) eine führende Funktion innerhalb einer Gilde und kümmert sich um Organisationsfragen rund um das Spiel, auch was die Aufteilung von Gütern betrifft. Je nachdem, um was es sich für einen Typ von Games handelt, kann es als sein, dass man bestimmte Verpflichtungen gegenüber anderen Spielenden eingeht und dabei gewisse soziale Kompetenzen erwirbt, und dies gleichsam als ein Nebeneffekt des Miteinanderspielens. So ist es kein Zufall, wenn manche WoW-Spieler:innen sich darüber beklagen, dass es bei Bewerbungen eher nachteilig ist, in ihrem Lebenslauf ihre Tätigkeit innerhalb ihrer WoW-Gilde anzugeben, obwohl doch diese Tätigkeit der in der Gesellschaft weitaus anerkannteren Vereinstätigkeit an Arbeit und Verpflichtungen um nichts nachsteht (vgl. Bleckmann et al. 2012).

Es ist schwierig, die vielfältigen Entwicklungen im Gaming Bereich im Auge zu behalten, doch wer hier mitreden will, sollte sich zumindest ein wenig auf diesen einlassen, auch um sich darüber klarer zu werden, dass es bei diesem enorm vielschichtigen Medium viele Gestaltungsmöglichkeiten gibt. Die Tatsache, dass Games unlängst ein wichtiger Bestandteil unserer Lebenswelt geworden sind, an denen sich Menschen mit verschiedenen Hintergründen und Bedürfnissen begegnen, legt es nahe, sie auch unter dem Gesichtspunkt der Verantwortung zu untersuchen und nach Möglichkeiten einer verantwortungsvollen Gestaltung zu fragen. Eine Möglichkeit, Games verantwortungsvoll zu gestalten, kann darin bestehen, sich vom Diversitätsgedanken leiten zu lassen, indem man Games programmiert, die der Vielfältigkeit der Spielenden gerecht zu werden suchen, etwa indem man den Spielenden eine vielfältigere Auswahl von Spielcharakteren zur Verfügung stellt und gewisse Klischees und Stereotype bei ihrer Ausgestaltung meidet. Sodann können Games auch in dem Sinne verantwortungsbewusst gestaltet sein, dass sie selbst zu mehr Verantwortungsbewusstsein bei ihren Spielenden beitragen. Das kann der Fall bei jener Sorte von Games sein, die die Spielenden in hohen Maßen mit gesellschaftlichen Problemen konfrontieren und auch das eigene Verantwortlich-Sein zum Thema machen. Man kann hierbei aber auch an Serious Games denken, die ganz bewusst auf die Bildung ihrer Spielenden abzielen und sie dazu ermutigen, nach Lösungsansätzen etwa für Umweltprobleme zu suchen. Auch der Umstand, dass viele Spielende über Online-Games miteinander in Kontakt treten, kann die Spielenden dazu anregen, eine Art Gemeinsinn zu entwickeln, da man sich angesichts einer diskriminierenden oder toxischen Kommunikationskultur für ein besseres Miteinander engagiert, oder etwa, weil man beim Miteinanderspielen bestimmte Verpflichtungen eingeht und sich um die allgemeinen Belange seiner Gilde kümmert, wie es etwa auch in ähnlicher Weise bei Vereinen der Fall sein kann.

Ein letzter Gedanke: Vergessen wir bei all dem Gesagten nicht, dass mit dem Begriff der Verantwortung immer auch etwas sehr Anspruchsvolles benannt ist, das in jedem Fall über das bloße Abarbeiten von bestimmten Richtlinien für verantwortungsvolleres Handeln hinausgeht. In diesem Sinne lässt es sich auch nicht planmäßig herbeiführen, etwa indem man die Blicke der Spielenden im Spiel auf Umweltprobleme lenkt oder sie spielerisch zu Lösungsansätzen ermutigt; wenn überhaupt, dann können Games Anreize oder Denkanstöße zu verantwortungsvollerem Handeln geben, mehr nicht, denn Verantwortung zu übernehmen geschieht aus Freiheit. Das zeigt sich insbesondere dort, wenn Unvorhergesehenes aus Verantwortung geschieht, und zwar weil man von seiner Urteilskraft Gebrauch macht und daraufhin Initiative zeigt. Ich denke hierbei etwa, um ein letztes Beispiel für eine verantwortungsvolle Gestaltung von Games anzuführen, an die Journalist:innen der finnischen Zeitung Helsingin Sanomat, die im Kontext des russischen Angriffskriegs gegen die Ukraine im Jahr 2023 dem Ego-Shooter-Spiel Counter-Strike eine völlig neue Wendung verliehen hatten: Diese richteten im Spiel ein Level ein, bei dem die Spielenden einen versteckten Raum betreten konnten, in dem Informationen zur Situation des Krieges in der Ukraine bereitgestellt wurden. Viele russische Counter-Strike-Spielende konnten auf diesem Weg zumindest zeitweilig die russische Zensur umgehen und sich einen Eindruck über die schreckliche Situation machen (Kogel 2023).

  1. Es ist nahezu unmöglich zu sagen, wann eine Debatte nun wirklich aufhört oder aufgehört hat, da es immer wieder vorkommen kann, dass eine Person diese Debatte durch ein paar prägnante Statements wieder befeuert. So erst letztes Jahr durch Eva Quadbeck, die den Gebrauch der vermeintlichen Killerspiele als einen einschlägigen Grund für die verschiedenen Ausschreitungen in der Silvesternacht 2023 angeführt hat, s. Grothaus 2023, Presseclub 2023 (21:51 Min). Rückblickend kann man bis jetzt jedoch sagen, dass die Hochphase der Debatte längst vorbei ist; siehe hierzu etwa Böhm 2015. ↩︎
  2. So etwa der letzte Jahresbericht der deutschen Games-Branche, s. game e.V. 2023, S. 28. ↩︎
  3. Die übliche Verwendung von Ego-Shooter im Militär ist eher die, dass sie dazu etwa auf Messen dazu genutzt werden, um neue Soldat:Innen zu gewinnen. Oder sie werden von Soldat:Innen selbst zur Entspannung gespielt, etwa wenn sie gerade Freizeit während ihrem Einsatz haben. Hierzu siehe (Haas 2017). ↩︎
  4. Einen solchen Eindruck etwa erweckte de Maizière im Kontext des Amoklaufs 2016 in München, wenn er in einem Zeitungsinterview seine eigene Verbotsforderung folgendermaßen einschränkte: „Ein Verbot ist in unserem freiheitlichen Rechtsstaat nicht der richtige Weg und wäre auch schwer umzusetzen“ (Garbe 2020: 194). ↩︎
  5. Für Spiel-Konzepte zum Klimawandel vgl. etwa Peterschmidt et al. 2022 sowie Climate Action 2024. ↩︎
  6. Dies gilt besonders für populäre, kompetitive Online-Spiele wie Dota 2 oder Valorant, in denen die Spielenden in zwei Teams zusammengewürfelt werden und gegeneinander antreten. Da der Sieg davon abhängig ist, wie gute die einzelnen Team-Mitglieder zusammenspielen, kommt es häufiger zu einer Freisetzung von verbalen Aggressionen frei (im Chat oder im Team-Speak), etwa wenn im Fall einer drohenden Niederlage vermeintlich Schuldige auf äußerst respektlose Weise angeprangert werden, vgl. ADL 2024. ↩︎

ADL [=Anti Defamation Leage] (2024): Hate is No Game: Hate and Harassment in Online Games 2023 – Executive Report. New York, 06.02.2024, https://www.adl.org/resources/report/hate-no-game-hate-and-harassment-online-games-2023 [22.05.2024]

Bleckmann, Paula/Jukschat, Nadine/Kruse, Jan (2012): Der virtuelle Geist des Kapitalismus oder: warum exzessives Computerspielverhalten Arbeit ist. In: ZQF 13. Jg., Heft 1-2/2012, S. 235–261.

Böhm, Markus (2015): Was wurde aus der Killerspiel-Debatte? In: Spiegel Online, 25.09.2015. https://www.spiegel.de/netzwelt/games/ballerspiele-was-wurde-aus-der-killerspiel-debatte-a-1052941.html [22.05.2024]

Climate Interactive (2024): Climate Action Simulation (Webseite), https://www.climateinteractive.org/climate-action-simulation/ [22.05.24]

game – Verband der deutschen Games-Branche e.V. (2023): Jahresbericht der deutschen Games-Branche 2023. Berlin, 2023. Online via: https://www.game.de/publikationen/jahresreport-2023/ [22.05.2024]

game – Verband der deutschen Games-Branche e.V. (2024a): Gemeinsame Erklärung der deutschen Games-Branche für mehr Diversität, https://hier-spielt-vielfalt.de [22.05.2024]

game – Verband der deutschen Games-Branche e.V. (2024b): Themen – Verantwortung (Webseite), https://www.game.de/verantwortung/ [22.05.2024]

Garbe, Andreas (2020): Killerspiele. In: Handbuch Gameskultur. Über die Kulturwelten von Games. Olaf Zimmermann/Felix Falk (Hrsg.): Berlin: Deutscher Kulturrat e.V. 2020, https://www.kulturrat.de/wp-content/uploads/2020/12/HandbuchGameskultur.pdf [22.05.2024], S. 193-198.

Grothaus, Benedict (2023): Journalistin belebt 2023 die Killerspiel-Debatte wieder: „Junge Männer sitzen vor diesen Spielen und jagen andere“. In: MeinMMO, 9.01.2023, https://mein-mmo.de/presseclub-eva-quadbeck-killerspiele/ [22.05.2024]

Haas, Julia (2017): Wenn Soldaten Egoshooter zocken. In: Süddeutsche Zeitung Online, 6. Juni 2017, https://www.sueddeutsche.de/wirtschaft/computerspiele-wenn-soldaten-egoshooter-zocken-1.3532225 [22.05.2024]

Kogel, Dennis (2023): Mit Counterstrike gegen die russische Zensur. In: Kompressor, Deutschlandfunk Kultur, 04. Mai 2023. Online via: https://www.deutschlandfunkkultur.de/counterstrike-gegen-russische-zensur-versteckte-kriegsinformationen-in-games-dlf-kultur-e0d8f4b3-100.html [22.05.2024]

Lorber, Martin (2020): Jugendschutz. In: Handbuch Gameskultur. Über die Kulturwelten von Games. Olaf Zimmermann/Felix Falk (Hrsg.): Berlin: Deutscher Kulturrat e.V. 2020, https://www.kulturrat.de/wp-content/uploads/2020/12/HandbuchGameskultur.pdf [22.05.2024], S. 199-202.

Möglich, Jana (2022): Diversität in digitalen Spielen – über alte Muster und neue Modelle. In: Bundeszentrale für politische Bildung (Webseite), 28.03.2022, https://www.bpb.de/themen/kultur/digitale-spiele/504547/diversitaet-in-digitalen-spielen-ueber-alte-muster-und-neue-modelle/ [22.05.24]

Peterschmidt, D/Flatow, Ira; Barish, Stephanie/Frierson, Dargan/McGregor, Jay (2022): Feeling Hopeless About Climate Change? Try Playing These Video Games. In: Science Friday, 12.08.2022, https://www.sciencefriday.com/segments/climate-change-video-games/ [22.05.2024]

Presseclub (2023): Nach den Silvester-Krawallen: Was tun gegen die Gewalt? Phoenix, 8.1.2023, online via: https://www.youtube.com/watch?v=LjtT2wXKuM8 [22.05.2024]

Zimmermann, Olaf (2020): Kulturpolitik. In: Handbuch Gameskultur. Über die Kulturwelten von Games. Olaf Zimmermann/Felix Falk (Hrsg.): Berlin: Deutscher Kulturrat e.V. 2020, https://www.kulturrat.de/wp-content/uploads/2020/12/HandbuchGameskultur.pdf [22.05.2024], S. 177-181.

Nguyen Duc, Anh Viet (2024): Über Verantwortung im Computerspiel. In: Verantwortungsblog. https://www.zevedi.de/ueber-verantwortung-im-computerspiel/ [01.08.2024].
https://doi.org/10.60805/7hsn-h806

Kategorien
Akzentfarbe: gelb (Schrader) Autor: Christian Schrader Verantwortungsblog

Bemerkenswerte Ignoranz – die (fehlende) Verknüpfung von Digitalisierung und nachhaltiger Entwicklung auf Bundesebene

Bemerkenswerte Ignoranz
– die (fehlende) Verknüpfung von Digitalisierung und nachhaltiger Entwicklung auf Bundesebene

Die beiden Megatrends Digitalisierung und nachhaltige Entwicklung sowie ihre Zusammenhänge sind in den Bundesministerien programmatisch und organisatorisch unterschiedlich angekommen. In diesem Beitrag wird danach gefragt, wie die Zusammenhänge der beiden Themenkomplexe in den Eigenverlautbarungen der Ressorts auftauchen und ob sie sich in den Organisationsplänen der Ministerien sowie in der Ausrichtung der nachgeordneten Einrichtungen widerspiegeln. Dabei zeigen sich Lösungen, aber auch schwerwiegende Lücken.

Von Christian Schrader | 15.07.2024

Illustration: Ein Organigramm als kubistisches Gemälde; erstellt mit Adobe Firefly
Erstellt mit Adobe Firefly. Prompt: „Ein Organigramm als minimalistisches kubistisches Gemälde; Farben: Grüntöne, Gelbtöne“

In der politischen Architektur Deutschlands spielen die Länder und die Mechanismen der Bund-Länder-Koordinierung eine große Rolle. Doch in der Realität verliert der Föderalismus an Kraft zugunsten einer (finanziell) prägenden Rolle des Bundes.1 Daher ist es entscheidend, wie die Bundesregierung, ihre Ressorts und ihre nachgeordneten Stellen die Themen ausführen.

Dieser Beitrag untersucht, inwieweit die beiden Megatrends Digitalisierung und nachhaltige Entwicklung sowie ihre Zusammenhänge in den Bundesministerien programmatisch und organisatorisch angekommen sind. Konkret wird im Folgenden überprüft, ob diese Inhalte in den Eigenverlautbarungen der Ressorts auftauchen, insbesondere in Programmatiken, den auf der Webseite dargestellten Themen und weiterführenden Publikationen. Schließlich wird untersucht, ob die Inhalte sich in den Organisationsplänen der Häuser und in der Ausrichtung der nachgeordneten Einrichtungen widerspiegeln.

In der Zusammenschau der Megatrends Digitalisierung und Nachhaltigkeit stehen wir in einer doppelten Transformation: Der Veränderung zu einer nachhaltigen Entwicklung sowie zu einer digitalisierten Welt. Digitalisierung beginnt mit der Abbildung bisher analoger Prozesse in IT-Form. 1985 wurde der Begriff in Deutschland erstmals verwendet, seit 2013 erweiterte er sich zum unscharfen „Modewort“. (Langes/Boes o.J.) Schon vorher hat der digitale Wandel alle Lebensbereiche durchdrungen und er verändert auch alle Regierungsressorts. Das Konzept sustainable development bzw. nachhaltige Entwicklung ist seit der Konferenz von Rio im Jahr 1992 als globales Entwicklungsprogramm anerkannt. Es ist weit aufgefächert mit Abkommen zu Klima, Biodiversität usw., sowie in 17 Zielen, den sustainable development goals (SDG), konkretisiert. (Generalversammlung der Vereinten Nationen 2015: 38)

Die Basisdokumente dieser beiden Megatrends zogen nur selten eine Verbindung. Im UN-Dokument zu den SDG ist zur Digitalisierung nichts gesagt, außer der „Überbrückung der digitalen Kluft“. Die erste nationale Nachhaltigkeitsstrategie legte die Bundesregierung 2002 vor. Die letzte Neuauflage stammt von 2016, mit einer Weiterentwicklung 2021. Sie enthält auf 258 Seiten den Wortbestandteil „digital“ nur an 23 Stellen, meist im Namen des damaligen Bundesministeriums für Verkehr und digitale Infrastruktur. Erste Grundsätze für eine Digitalpolitik veröffentlichte die Bundesregierung mit der „Digitalen Agenda“ 2014, damals sind auf 40 Seiten auch sechs Verwendungen des Wortbestandteils „nachhaltig“ zu finden, genutzt wird es zumeist in einem generellen Wortsinn wie bspw.: „Vertrauen … nachhaltig stärken“. Insgesamt ist festzuhalten, dass die programmatische Verschränkung der beiden Megatrends Digitaler Wandel und (ökologische) Nachhaltigkeit bis vor fünf Jahren sehr gering gewesen ist.

2019 wurden dann jedoch gleich mehrere grundlegende politische Papiere vorgelegt, deren Ziel es ist, das Verhältnis von Digitalisierung und nachhaltiger Entwicklung auszugestalten. Der Wissenschaftliche Beirat Globale Umweltveränderungen (WBGU) legte einen wissenschaftlichen Ansatz vor, (WBGU 2019) einen pragmatischeren Ansatz verfolgte das Umweltbundesamt. (Umweltbundesamt 2019) Ein Verbändenetzwerk thematisierte, was Digitalisierung und nachhaltige Entwicklung verbindet. (Höfner/Frick 2019) Das Bundesministerium für Bildung und Forschung (BMBF) stellte 2019 den Aktionsplan Natürlich.Digital.Nachhaltig auf. (BMBF 2019; zum Umsetzungsstand 2021 siehe Deutscher Bundestag 2021) Von der Digitalisierung kommend werden seitdem über Begriffe wie „Digitale Nachhaltigkeit“ oder „Informationelle Nachhaltigkeit“ die Bezüge zwischen den zwei Politikfeldern herausgearbeitet. (Santarius/Lange 2018) Verbände (Bitkom 2023, Mittelstand-Digital 2023, Verband Kommunaler Unternehmen 2023) und Konferenzen wie „Bits und Bäume“ diskutieren Forderungen wie jene, die Digitalisierung im Rahmen der planetaren Grenzen auszugestalten. (Bits & Bäume 2022)

Allerdings erbrachte eine Anhörung des Deutschen Bundestages zur Verbindung von Digitalisierung und Nachhaltigkeit im November 2022 primär das Ergebnis, dass die Digitalisierung weiterhin zu einem Mehrverbrauch anstatt zur Einsparung von natürlichen Ressourcen führt. So machen die Energiebedarfe von Rechenzentren inzwischen etwa drei Prozent des deutschen Stromverbrauchs aus, und dies mit steigender Tendenz. (siehe dazu die Statements von Tilman Santarius und Jens Gröger in Deutscher Bundestag 2022a: 4, 11) Es wurde daher mit einer neuen Deutlichkeit gefordert, in die digitalpolitischen Initiativen Nachhaltigkeitsziele zu integrieren. (Deutscher Bundestag 2022b)

Die Bundesregierung hat am 31. August 2022 eine Digitalstrategie und eine Zuständigkeitsverteilung verabschiedet. Die Digitalstrategie soll den übergeordneten Rahmen der Digitalpolitik in der aktuellen Legislaturperiode vorgeben. (Deutscher Bundestag 2022c) Darin wird die Ausgangslage auf zwei Seiten bilanziert. Dort ist unter anderem zu lesen: „Weiterhin stellt sich die Frage nach einer sozial, wirtschaftlich und insbesondere ökologisch nachhaltigen Gestaltung der Digitalisierung. Hierfür sind die 17 Nachhaltigkeitsziele der Vereinten Nationen (SDG) Richtschnur der Politik der Bundesregierung und auch der Digitalstrategie. Konkret bedeutet das, Digitalisierung als Treiber ökologischer, ökonomischer und sozialer Nachhaltigkeit zu nutzen, ohne deren gegenteilige Wirkung zu verkennen.“ Als Teil der Ausgangssituation ist die Verbindung von Digitalisierung und nachhaltiger Entwicklung damit erkannt und kurz benannt.

Die Strategie von 2022 führt die politischen Schwerpunkte beim Querschnittsthema Digitalisierung zusammen und priorisiert Projekte, von deren Umsetzung „die größte Hebelwirkung zu erwarten“ sei. Prioritär sind Projekte in den Bereichen moderne, leistungsfähige und nachhaltige Netze und Verfügbarkeit von Daten und Datenwerkzeugen, international einheitliche technische Normen und Standards sowie sichere und nutzerfreundliche Identitäten und moderne Register. Das Leitmotiv der Digitalpolitik sei die technologische und digitale Souveränität Deutschlands. Insgesamt tragen also andere Leitmotive die einzelnen Maßnahmen der Digitalstrategie. Von den drei übergreifenden Handlungsfeldern Staat, Gesellschaft und Wirtschaft findet sich nur im Handlungsfeld Wirtschaft eine längere einschlägige Passage zu nachhaltiger Entwicklung. (Deutscher Bundestag 2022c: 6f)

In den ressortspezifischen Passagen wird im Bereich „Schutz von Klima, Umwelt und Ressourcen“ (S. 28f), neben dem Schlagwort „green IT“ unter anderem eine Initiative „Digitale Nachhaltigkeitsinnovationen“ erwähnt, die als neuer „Förderschwerpunkt zum Konnex Digitalisierung und Nachhaltigkeit“ fungieren soll. Im Bereich Internationales will die Bundesregierung „die Umsetzung der Sustainable Development Goals der Vereinten Nationen mit digitalen Lösungen“ beschleunigen (S. 39), allerdings ohne Maßnahmen und Indikatoren zu nennen.

Es ergibt sich ein ernüchterndes Bild. Die 18 Leuchtturmprojekte, in denen jedes Ressort der Bundesregierung eigenverantwortlich bis 2025 konkrete Erfolge erzielen soll, gehen nur vereinzelt auf die Verbindung von Digitalisierung und nachhaltiger Entwicklung ein. Insgesamt wird die inhaltliche Verbindung von Digitalisierung und nachhaltiger Entwicklung in der Digitalstrategie der Bundesregierung nur an wenigen Stellen hergestellt und operativ heruntergebrochen. Die Digitalstrategie ist mit wenigen Ausnahmen nicht darauf angelegt, Anforderungen der „Starken Nachhaltigkeit“ aufzunehmen, sie konkret zu benennen sowie mit Indikatoren zu versehen. Es dominieren Themen überkommenen Typs, ihr Zuschnitt folgt dem „Silodenken“ der jeweiligen Ressorts. (Deutscher Bundestag 2022c: 31) „Nachhaltigkeit“ ist oft als modisch-vages Stichwort genannt; manchmal sogar im Sinn von „dauerhaft“ und nicht als Kurzwort für nachhaltige Entwicklung. Die programmatische Verbindung der Konzepte Digitaler Wandel und Nachhaltigkeit ist somit, von Ausnahmen abgesehen, in der Bundesregierung sehr dürftig entwickelt.

Trotz methodischer Vorbehalte, die man quantifizierenden Darstellungen gewiss entgegenbringen kann, wird im Folgenden der Versuch unternommen, die bundespolitischen Ressorts in der uns hier interessierenden Frage kartographisch vergleichend abzubilden. Dies erfolgt erst für die programmatische, danach für die organisatorische Abbildung von Digitalisierung und nachhaltiger Entwicklung sowie deren Verbindung. Grundlage des Mappings waren in erster Linie die Webseiten und Organisationspläne der Ressorts von Ende August 2023. In einem zweistufigen Vorgehen wurden Punkte von 1 (sehr schlecht) bis 10 (sehr gut) vergeben.

Bei den Webseiten stellt jedes Ressort bestimmte „Themen“ in den Vordergrund. Diese werden anhand der oben skizzierten inhaltlichen Aspekte darauf untersucht, ob Digitalisierung und nachhaltige Entwicklung als Ziele in der Außendarstellung des Ressorts vorkommen sowie ob eine Verbindung der Themen hergestellt wird. Wenn beides herausragend benannt und verbunden ist, werden 10 Punkte vergeben. Wird beides gut benannt und verbunden, sind es 8 Punkte. Wenn beides pflichtmäßig (Koalitionsvereinbarung, Regierungsprogramm) benannt ist, sind es 6 Punkte. Bei Nennung nur einer Seite ist es die Hälfte.

In einem zweiten Schritt wird das inhaltliche und aktuelle Verständnis sowie das Eigenbemühen einbezogen. Bei erkennbarem Falschverständnis oder nicht aktualisierter Ressortforschung wird ein Punkt abgezogen. Ein Zusatzpunkt wird vergeben für erkennbare Eigenbemühung wie Nachhaltigkeitsberichte, EMAS-Zertifizierung, Benennung von Beauftragten für IT (über die traditionelle IT-Versorgung hinaus) oder für nachhaltige Entwicklung sowie für spezifische Ressortforschung.

Beispielhaft sei dies anhand des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK; 10 Punkte) und des Bundesministeriums des Innern und für Heimat (BMI; 4 Punkte) dargestellt. Das BMWK nennt unter den Schwerpunkten der Wirtschaftspolitik den Bereich „Digitaler Wandel“. Darin werden Digitalisierung und Nachhaltigkeit mit konkreten Ressortaktivitäten verbunden. Im Themenbereich nachhaltige Entwicklung hat das BMWK die Federführung für Klimaschutz. Das BMI nennt zur Digitalisierung zwei Themen: Cybersicherheit und Digitalpolitik. Zur Cybersicherheit werden vielfältige Gremien mit der Wirtschaft sowie das KRITIS-Dachgesetz betont. Zur Digitalpolitik wird die IT des Bundes mit dem Dateninstitut, die Netze des Bundes, IT-Konsolidierung sowie der IT-Planungsrat erwähnt. Digitalpolitik lediglich als IT des Bundes zu verstehen ist bereits innerhalb des Ressorts verkürzt und widersprüchlich, weil als drittes BMI-Thema „Moderne Verwaltung“ dargestellt wird mit der Federführung des BMI für IT in der gesamten öffentlichen Verwaltung, etwa mit dem Onlinezugangsgesetz. Nachhaltige Entwicklung ist in den Zielen nicht erwähnt und nur an einer nebensächlichen Stelle, beim Nachhaltigkeitsprogramm zur Europameisterschaft 2024, deutlicher sichtbar.

Grafik 1: Programmatische Verankerung von Digitalisierung und nachhaltiger Entwicklung; eigene Darstellung des Autors

Ausgangspunkt dieses Abschnitts ist die Koalitionsvereinbarung vom 7. Dezember 2021 (Deutscher Bundestag 2023b) mit ihrem aktuellen Aufgabenzuschnitt in der Bundesregierung. Ein Organisationserlass des Bundeskanzlers vom 8. Dezember 2021 konkretisierte dies auf die Fachaufgaben der Ressorts. Auf dieser Basis legte die Bundesregierung am 31. August 2022 die internen Zuständigkeiten für Digitalisierung fest. Sehr differenziert verteilt das Eckpunktepapier Digitalpolitik der Bundesregierung: Neuordnung digitalpolitischer Zuständigkeiten die Zuständigkeiten zwischen den Bundesministerien. (Bundesregierung 2022)

Darin strebt die Bundesregierung kein Digitalministerium an. Digitalisierung, wie auch nachhaltige Entwicklung, wird als Querschnittsaufgabe bei allen Ressorts angesiedelt. Die einzelnen Vorhaben der Digitalstrategie soll jedes Ressort „in eigener Verantwortung“ umsetzen. Dutzendhaft werden viele bedeutende Bereiche und Einzelprojekte einzelnen Ressorts zugeordnet. Für bestimmte Themen werden federführende Ressorts benannt.2 Viele Themen sind mehreren Ressorts zugeordnet, bspw. die Strategie „Künstliche Intelligenz“ dem BMBF, BMWK und dem Bundesministerium für Arbeit und Soziales (BMAS) unter Beteiligung aller Ressorts. Diese verteilten Zuständigkeiten sind politisch vielfach kritisiert worden. (siehe Deutscher Bundestag 2022d und 2023 sowie mit Verweis auf Empfehlungen des Bundesrechnungshofs Normenkontrollrat 2020: 13f)3 Auch wenn das Verkehrsministerium inzwischen „Digitales“ im Titel führt, koordiniert es nur die Digitalstrategie innerhalb der Bundesregierung. Festzuhalten ist: Es bleibt den einzelnen Ressorts überlassen, ob und wie sie beim Thema Digitalisierung den Bezug zu nachhaltiger Entwicklung aufnehmen.

Der nachfolgende Abschnitt betrachtet, inwieweit sich die beiden Themen und ihre Verbindung in der Organisation der Ministerien und nachgeordneten Behörden abbilden. Dazu werden die Organigramme und Darstellungen der den Ministerien nachgeordneten Stellen untersucht. Anschließend werden 1 bis 10 Punkte danach verteilt, ob Digitalisierung und nachhaltige Entwicklung in der Organisation als Thema auftauchen, ob die beiden Bereiche verknüpft sind und ob die nachgeordneten Behörden und die Ressortforschung die Themen und ihre Verknüpfung aufgenommen haben.

Beispielhaft seien das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ; 10 Punkte) und das Bundesministerium der Finanzen (BMF; 4 Punkte) näher erwähnt. Von den sieben Abteilungen des BMZ befasst sich in Abt. 1 „Globale Gesundheit“, „Beschäftigung“, „Transformation der Wirtschaft“, Digitalisierung, und „Ernährungssicherung“ eine Unterabteilung 11 mit „Transformation der Wirtschaft“, und Digitalisierung: das Referat 113 mit Digitalisierung und das Referat 111 mit „Nachhaltige Wirtschaftspolitik“. In Abt. 4 werden die Themen „Internationale Entwicklungspolitik“ und „Vereinte Nationen“, „Agenda 2030“, gesellschaftliche und ökologische Transformation sowie Klima behandelt.

Im BMF gibt es in Abt. I „Finanzpolitische und volkswirtschaftliche Grundsatzfragen“ eine Unterabteilung A I C „Wachstumspolitik und Resilienz“, mit einem Referat I C 2 „Digitalisierung und moderne Gesellschaft“. Die Abt. II „Bundeshaushalt“ enthält Spiegelreferate zu den Ressorts, u.a. zu Digitales und Verkehr. Die Abt. VII „Finanzmarktpolitik“ befasst sich in Unterabteilung UA VII A mit der Bekämpfung illegaler Finanzflüsse, Sanktionen, digitalen Finanztechnologien und Referat VII A 3 ebenfalls mit „Digitale Finanztechnologien“ sowie mit „Zahlungsverkehr und Cyber-Sicherheit“. Nachhaltige Entwicklung als Finanzthema (Stichwort: sustainable finance) wird nicht betitelt.

Grafik 2: Organisatorische Verankerung von Digitalisierung und nachhaltiger Entwicklung; eigene Darstellung des Autors

Grafik 3: Programmatische und organisatorische Verankerung von Digitalisierung und nachhaltiger Entwicklung; eigene Darstellung des Autors

1) Seit 2002 (Nachhaltigkeitsstrategie) bzw. seit 2014 (Digitale Agenda) bestehen übergreifende Programme der Bundesregierung, die die beiden Themen als Querschnittsthemen jeweils allen Ressorts zuweisen. Es gibt kein Ministerium, das nicht Aufgaben im Zusammenhang mit Digitalisierung und nachhaltiger Entwicklung hat. Trotz des langen Vorlaufs nehmen manche Ressorts das Thema nachhaltige Entwicklung bis heute nicht auf. Manche Ressorts bringen Digitalisierung nur mit ihren Ressortvorhaben in Verbindung. Eine inhaltliche Verbindung zieht nur eine Minderheit der Ministerien. In manchen Ressorts gilt es den Zusammenhang erst herzustellen. Zudem sehen wir erstaunliche Lücken: Es ist nicht erkennbar, wie das federführende BMDV die Aufgabe ausfüllt. Das Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) und seit 2021 auch das BMWK sind wiederum zwar nicht federführend, scheinen sich allerdings zu mühen, die Verbindung in alle Ressorts zu tragen.4

2) Wichtige Ressorts der Digitalisierung sind das BMDV und das BMI. Beide haben aber kaum eigene Ressortforschungskapazitäten. Andere Ressorts befassten sich 2019 mit Forschung zu Digitalisierung und nachhaltiger Entwicklung, so das BMBF, das BMZ und das BMUV. Hinzu trat als neuer Akteur das BMWK. Manche Ressorts nahmen zwar Digitalisierung in ihre Ressortforschung auf, aber stellen kaum den Bezug zum Thema nachhaltige Entwicklung her, so bspw. das Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) und das Bundesministerium für Gesundheit (BMG). Die Folge ist, dass anspruchsvolle Projekte liegenbleiben, weil anwendungsorientierte Forschung und Entwicklung fehlen. Beispiele sind die stockenden Fortschritte mit der digitalen Identität (bspw. elektronischer Personalausweis) und dem once-only-Prinzip (Bürger:innen sollen den Behörden bestimmte Standardinformationen nur noch einmal mitteilen müssen). Das federführende BMI betreibt hierzu keine systematische Forschung und selbst das BMBF hat diese Aspekte nicht oder kaum betrachtet. Es gilt somit nicht nur, das BMDV und das BMI zu Forschungsaktivitäten zur Verbindung von Digitalisierung und nachhaltiger Entwicklung zu veranlassen. Es muss in der Bundesregierung auch geklärt werden, dass jedes Ressort den Zusammenhang beforscht und dass es eine Koordinierung der Ressortforschung gibt.

3) Den Ministerien sind jeweils etliche Behörden und Stellen nachgeordnet. Neben Vollzugsbehörden, etwa der Zollverwaltung, gibt es Sonderbehörden und Stiftungen sowie eine unüberschaubare Vielzahl von unselbständigen Beiräten, Zentren, Gruppen oder anderen Stellen, die die Ministerien beraten. Sobald eine komplexe Regierungsaufgabe auftaucht, ist es wichtig und legitim, dass die zuständigen Ministerien nachgeordnete Stellen schaffen, um diese Aufgabe zu bewältigen. Für die Megatrends Digitalisierung und nachhaltige Entwicklung sowie deren Verbindung sind auf Bundesebene jedoch auch in dieser Hinsicht Lücken festzustellen. Seit 2014, als das erste umfassende Dokument der Bundesregierung erschien, bis zur jetzigen Regierungskoalition wurden kaum nachgeordnete Bundesbehörde geschaffen, die spezifisch auf die Digitalisierung ausgerichtet sind.5 [5] In der aktuellen Legislaturperiode wurden jedoch gleich einige Einrichtungen für einzelne Aspekte der Digitalisierung geschaffen. So im IT-Planungsrat die Föderale IT-Kooperation; des Weiteren sind in Gründung beim BMI ein Dateninstitut sowie ein Zentrum für Digitale Souveränität der öffentlichen Verwaltung (ZenDiS), beim BMBF die Deutsche Agentur für Transfer und Innovation (DATI) und die Bundesagentur für Sprunginnovationen (SPRIND), die Beauftragte der Bundesregierung für Kultur und Medien will ein Kompetenzzentrum Digitale Kultur gründen, mit einem Digitalgesetz des BMG soll die gematik GmbH zu einer Datenagentur weiterentwickelt werden – und das Bundesministerium für Wohnen, Stadtentwicklung und Bauwesen (BMWSB) will ein Smart-City-Kompetenzzentrum einrichten. (Deutscher Bundestag 2022e)

Bei dieser Vielzahl von Digitalinstitutionen fällt wiederum auf, dass in der Regel die Verbindung mit nachhaltiger Entwicklung nicht systematisch mitbedacht worden ist. Noch stärker fällt auf, dass es keine nachgeordnete Bundesbehörde oder sonstige Stelle gibt, die den Problemkreis Digitalisierung verfolgt und dabei einen Schwerpunkt auf Fragen nachhaltiger Entwicklung legt.

Aus der Betrachtung ergibt sich, dass Digitalisierung und nachhaltige Entwicklung seitens der politischen Ressorts zwar als Querschnittsaufgabe gesehen werden, und manche Ministerien greifen inhaltlich Aspekte beider Bereiche auch vorbildlich auf. Es zeigt sich aber, dass manche Ministerien die seit 2002 bestehenden Aufgabenstellungen gar nicht adressieren. Hier erkennen wir also eine bemerkenswerte Ignoranz.

Eine Verbindung beider Themenkreise bzw. Aufgaben stellt ebenfalls eine Leerstelle dar. Sie ist nur bei wenigen Ministerien ersichtlich. Auch der Aufgabenkatalog nachgeordneter Stellen bildet in der Regel keine Verbindung von Digitalisierung und nachhaltiger Entwicklung ab.

  1. Momentan zeigt sich ein Trend, dass die Länder einvernehmlich auf ihre eigene IT-Zuständigkeit verzichten und mit Bundesmitteln eine bundeseinheitliche Lösung angestrebt wird. Ressortbeispiele: Inneres: Onlinezugangsgesetz, Cybersicherheit; Bau: Koordinierungs- und Transferstelle Smart Cities; Gesundheit: Telematikinfrastruktur durch gematik; Umwelt: Portal umwelt.info mit Aufbau eines Nationalen Zentrums für Umwelt- und Naturschutzinformationen. ↩︎
  2. Ausschnitthaft sind unter anderem als Zuständigkeiten genannt: Gigabitstrategie: BMDV; Digitale Verwaltungsmodernisierung und Onlinezugangsgesetz: BMI; Digitale Identitäten: Federführung BMI, Bundeskanzleramt, BMDV, BMF und BMWK; Nationale Datenstrategie: BMDV, BMI und BMWK; Potenzialflächenregister und Stadtentwicklungs- und Quartiersplanung: BMWSB; Strategie „Künstliche Intelligenz“: BMBF, BMWK und BMAS, Cybersicherheit: BMI, BMVg (Cyberverteidigung) und AA (Cyberdiplomatie). ↩︎
  3. Von Verbänden und in der Presse ist von Verantwortungsdiffusion die Rede. ↩︎
  4. Das BMUV legte 2019 eine umweltpolitische Digitalagenda vor mit dem Ziel, die Digitalisierung umweltfreundlich zu gestalten. Siehe auch zum Umsetzungsstand der Initiative Digitale Nachhaltigkeitsinnovationen: Deutscher Bundestag 2023a, S. 28f. ↩︎
  5. Ausnahme etwa beim BMI mit der Schaffung des Bundesamts für Sicherheit in der Informationstechnik. ↩︎

Bitkom (2023): Digital Sustainability Summit 19. April 2023, https://www.bitkom.org/Digital-Sustainability-Summit [2.9.2023].

Bits & Bäume (2022): Digitalisierung zukunftsfähig und nachhaltig gestalten. Politische Forderungen der Bits & Bäume 2022, https://bits-und-baeume.org/assets/images/pdfs/Bits_und_Baeume_Politische_Forderungen_deutsch.pdf [2.9.2023].

BMBF (2019): Natürlich.Digital.Nachhaltig. Ein Aktionsplan des BMBF, Bonn: BMBF 2019.

BMUV (2020): Umweltpolitische Digitalagenda. Bonn: BMUV 2020.

Bundesregierung (2022): Digitalpolitik der Bundesregierung: Neuordnung digitalpolitischer Zuständigkeiten, https://www.bundesregierung.de/breg-de/themen/digitaler-aufbruch/digitalpolitik-2072890 [19.7.2023].

Deutscher Bundestag (2021): Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Dr. Anna Christmann, Dieter Janecek, Dr. Bettina Hoffmann, weiterer Abgeordneter und der Fraktion BÜNDNIS 90/DIE GRÜNEN (Bundestags-Drucksache 19/31827), 30.07.2021, Berlin.

Deutscher Bundestag (2022a): Ausschuss für Digitales, Öffentliche Anhörung, Tagesordnungspunkt: Digitalisierung und Nachhaltigkeit, Protokoll-Nr. 20/22, 28.11.2022, Berlin.

Deutscher Bundestag (2022b): Deutscher Bundestag, Ausschuss für Digitales: Anhörung zum Thema „Digitalisierung und Nachhaltigkeit“ [Stream der Anhörung vom 28.11.2022], https://www.bundestag.de/ausschuesse/a23_digitales/Anhoerungen/921540-921540 [2.9.2023].

Deutscher Bundestag (2022c): Unterrichtung durch die Bundesregierung: Digitalstrategie (Bundestags-Drucksache 20/3329), 05.09.2022, Berlin.

Deutscher Bundestag (2022d): Antrag der Fraktion der CDU/CSU: Stillstand und unklare Zuständigkeiten in der Digitalpolitik beenden – Für eine ambitionierte und koordinierte Digitalstrategie (Bundestages-Drucksache 20/3493), 20.09.2022, Berlin.

Deutscher Bundestag (2022e): Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Marc Bernhard, Dr. Marc Jongen, Roger Beckamp, weiterer Abgeordneter und der Fraktion der AfD: Die Zukunft deutscher Smart-Cities-Projekte angesichts der Digitalstrategie (Bundestags-Drucksache 20/4944), 09.12.2022, Berlin.

Deutscher Bundestag (2023a): Umsetzungsstand der Digitalstrategie der von SPD, BÜNDNIS 90/DIE GRÜNEN und FDP getragenen Bundesregierung (Bundestags-Drucksache 20/7077), 31.05.2023, Berlin.

Deutscher Bundestag (2023b): Antwort der Bundesregierung auf die Kleine Anfrage des Abgeordneten Uwe Schulz und der Fraktion der AfD. Organisations- und Personalstrukturen der Bundesregierung im Bereich der Digitalpolitik (Bundestags-Drucksache 20/7421), 22.06.2023, Berlin.

Generalversammlung der Vereinten Nationen (2015): Transformation unserer Welt: die Agenda 2030 für nachhaltige Entwicklung, Resolution vom 25.9.2015 (Dokumenten-Nr. A/Res/70/1).

Höfner, Anja/Frick, Vivian (Hg.): Was Bits und Bäume verbindet, München: oekom Verlag 2019.

Langes, Barbara/Boes, Andreas (o.J.): Digitalisierung. In: Bayerisches Forschungsinstitut für Digitale Transformation [Webseitentext o.J.], https://www.bidt.digital/?glossary=digitalisierung [2.9.2023].

Mittelstand-Digital (2022): Digitalisierung und Nachhaltigkeit. Mittelstand-Digital Magazin – Sonderausgabe Nachhaltigkeit. Bad Honnef: Mittelstand-Digital 2023, https://www.mittelstand-digital.de/MD/Redaktion/DE/Publikationen/Wissenschaft-trifft-Praxis/magazin-wissenschaft-trifft-praxis-sonderausgabe-Nachhaltigkeit-18.pdf?__blob=publicationFile&v=3 [2.9.2023].

Normenkontrollrat (2020): Monitor Digitale Verwaltung #4. Nationaler Normenkontrollrat: Berlin 2020.

Santarius, Tilman/Lange, Stefan (2018): Smarte grüne Welt? Digitalisierung zwischen Überwachung, Konsum und Nachhaltigkeit, München: oekom Verlag 2018.

Umweltbundsamt (2019): Digitalisierung nachhaltig gestalten, Dessau-Roßlau: Umweltbundesamt 2019.

Verband Kommunaler Unternehmen (2023): VKU gründet Task Force Digitale Daseinsvorsorge [Webseitentext 5.7.2023], https://www.vku.de/presse/pressemitteilungen/vku-gruendet-task-force-digitale-daseinsvorsorge/ [2.9.2023].

Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (2019): Unsere gemeinsame digitale Zukunft. Berlin: WBGU 2019.

Schrader, Christian (2024): Bemerkenswerte Ignoranz – die (fehlende) Verknüpfung von Digitalisierung und nachhaltiger Entwicklung auf Bundesebene. In: Verantwortungsblog. https://zevedi.de/bemerkenswerte-ignoranz-die-fehlende-verknuepfung-von-digitalisierung-und-nachhaltiger-entwicklung-auf-bundesebene/ [15.07.2024].
https://doi.org/10.60805/07kx-1q15

Kategorien
Akzentfarbe: gelb (Max Sinn) Autor: Max Sinn Verantwortungsblog

„Suchten“ – ein Hilferuf

„Suchten“ – ein Hilferuf

Mit der Digitalisierung geht es zu langsam voran – wirklich? Überall? Dass der dänische Bildungsminister sich unlängst dafür entschuldigt hat, dass die Schülerinnen und Schüler einem digitalen Experiment unterworfen wurden, sollte zu denken geben – genauso wie die Schilderungen des Lehrers Max Sinn: Wie andere Lehrer:innen kämpft er gegen die smarten Geräte um die Aufmerksamkeit seiner Schüler:innen und vernimmt dabei zuweilen auch deren Hilferufe.

Von Max Sinn | 27.06.2024

Eine Klassenzimmer, ohne Schüler:innen, dafür mit digitalen Geräten.
Erstellt mit Adobe Firefly; Prompt: „illustration of a classroom full of smartphones; colors: gray, yellow, black; style: cubism“

Smombie lautete 2015 das Jugendwort des Jahres. Es kombinierte die Begriffe „Smartphone“ und „Zombie“ und zielte auf junge Leute ab, die mit gebeugtem Kopf, ablenkungsbedingt ungeschickt, durch öffentliche Räume taumeln. Der Smombie setzte sich nicht durch und ist heute längst vergessen. Zurecht, denn so wirklich witzig war der Ausdruck nicht. Auch gab er wohl eher eine Außensicht auf Jugendliche wieder. Als (Teilzeit)Lehrer weiß ich: Es sind keine Untoten, die sich da Tag für Tag in meiner Schule das Smartphone vor die Nasen halten, auch im Klassenzimmer, obwohl die Schulordnung das eigentlich verbietet. Eher sind es höchst lebendige, quirlige Wesen. Nur von einem anderen Stern.

Weise ich auf die Regel hin, dass Smartphones nicht neben dem Unterricht her genutzt werden dürfen, verschwinden die Geräte für eine Zeit lang in der Tasche. Spätestens in der nächsten Stunde, oft nur nach Minuten, liegen sie jedoch wieder auf dem Tisch. Das Rektorat hat aufgegeben, es weist auf die Schulordnung nicht mehr hin – auch deswegen, weil sie in der Kollegenschaft, mich selbst eingeschlossen, nicht mehr konsequent umgesetzt wird. Die Schule stellt überdies jeder Schülerin und jedem Schüler ein Tablet zur Verfügung. Das soll ein zeitgemäßes Lehrmittel sein, dient den Schülerinnen und Schülern ersatzweise aber auch als Spielgerät, wenn ihnen der Unterricht zu langweilig wird. Ist es freilich „Langeweile“, die den reflexhaften Griff zum Handy erzwingt? Hier spätestens beginnt das Problem: Einen Roman lesen erfordert Ausdauer, kurze Tiktok-Videos bieten wie eine klassische Geisterbahnfahrt alle paar Sekunden neue Reize – immer wieder den kleinen Adrenalinstoß. Dazu volle Kontrolle. Draußen im Klassenraum ist die Welt zäher als beim mühelosen Wisch über den Bildschirm. Kleine Bewegungen und Zugucken: Dagegen ist die gerätefreie Direktkommunikation unendlich anstrengend. Und am Fuß von 250 Seiten Papier fühlt man sich wie vor der Besteigung des Mount Everest.

Suchten – in der aktuellen Jugendsprache meine dies, so der elektronische Duden von 2024, „mit übersteigertem Verlangen, im Übermaß anschauen, lesen, spielen, o.ä.“; als Beispiele führt das Nachschlagewerk an: „er hat die Serie, das Videospiel ziemlich krass gesuchtet“; „seltener“ gebe es auch die Bedeutung: „sich durch das Buch suchten“.(duden.de 2024) Tiktok, Streaming-Dienste, YouTube, animierte Spiele: dem „Suchten“, da bin ich sicher, dürfte mehr Zukunft beschieden sein als dem Vergleich mit dem Zombie. Einer bunten, digitalen Galaxis steht der analoge Dreiklang von Lehrkraft, Buchtext und Tafel gegenüber. Selbst wenn die Tafel nun interaktiv ist: das alles kommt erst einmal ziemlich pointenarm daher. Dafür anstrengend. Weil auch chaotischer. Nicht so schlüssig. Nimmt man den Lärm der vielen Mitschülerinnen und Mitschüler hinzu, wirkt der Realraum vielleicht sogar bedrohlich.

Wenn ich mit Schülerinnen und Schülern über Handysucht spreche, wissen viele, was ich damit meine. Sie nehmen den Begriff Sucht ernst. Ich habe Klausurtexte gelesen, in welchen Jugendliche schreiben, Tiktok solle man verbieten, weil es sie abhängig und unglücklich macht. Die dänische Regierung hat vor wenigen Monaten eine schulpolitische Kehrtwendung ausgerufen. Das Land war Vorreiter einer voll-digitalen Lehre. Nun empfiehlt man, Smartphones weitgehend aus den Klassenzimmern zu verbannen, und dies auch in älteren Klassen. Hierzulande hat man auf diesen bedeutsamen Schritt noch nicht reagiert. Der Umgang mit den digitalen Endgeräten bleibt in der Regel den einzelnen Schulen überlassen. Zuweilen werden vor Klassenräumen sogenannte „Handygaragen“ angeboten, um eine Barriere gegen den Griff zum Handy in der Schultasche zu schaffen. Wo man nicht so verfährt, greift die Lehrkraft erst dann ein, wenn die Nutzungen des Smartphones oder des Schul-Tablets dazu führen, dass eine Person, die eben noch konzentriert am Unterricht teilnahmen, erkennbar in digitale Welten abtaucht. Hierfür muss ich jedoch permanent durch die Reihen gehen, um im Wortsinne jede Schülerin, jeden Schüler, zu überwachen. Ablenkungen sind vorprogrammiert.

Gleichzeitig hat man das Gefühl, einen Kampf gegen Windmühlen zu führen. Ist das Handy nicht längst Teil des Schülerschaft-Körpers geworden? Eine Art Prothese, ein Universalmedium, das nicht nur ein sprichwörtliches Fenster zur Welt ist, sondern permanent eine Zweitwelt, eine Parallelwelt schafft? Welche Welt ist letztlich die „erste“? Klar ist die Klassengemeinschaft unter Anwesenden nach wie vor sozial und kommunikativ wichtig, in vielen Situationen auch mächtiger als der einsamere Dauer-Draht ins Netz. Jugendliche lassen sich auch überzeugen, vor der Klasse zu reden und durch das Unterrichtsgeschehen in den Bann ziehen. Doch dazu müssen Lehrende ein mediales Feuerwerk zünden. Der „Medienwechsel“ ist ein Fachbegriff im Lehrerzimmer: Texte als Handout, ein kleines Quiz, ein Podiumsdiskussions-Spiel, ein maximal zehnminütiges Lernvideo, Gruppenarbeit, dann wieder eine kurze Debatte mit der ganzen Klasse – alles aber maximal eine halbe Stunde. Erst mit diesem permanenten Wechselspiel wirkt etwa eine Doppelstunde nicht so „langweilig“, dass man wieder zum Handy greift. Zuweilen ist es im letzten Halbjahr gelungen, dass sich die Klasse eine halbe Stunde lang gegenseitig aus einem Roman oder einem Theaterstück vorgelesen hat. Nach meiner Erfahrung wurde dadurch das Handy am zuverlässigsten vergessen.

Unter dem Strich bilanziere ich, dass die Schule das Suchtverhalten Heranwachsender zwar kennt, ihm aber nicht begegnet – während auch die Schülerinnen und Schüler sich selbst als handysüchtig einstufen und die Schulleitung das Verbot der Suchtmittel nicht mehr wirklich in Erwägung zieht. Man experimentiert auch nicht mit einem temporären Entzug.

Funktioniert der dänische Weg? Er ist, so glaube ich, selbst wenn seine Erfolge noch ausstehen, ohne Alternative. Dort rebellierten die Lehrerverbände. Konzentriertes Arbeiten war ohne Bücher, nur mit Tablet, nicht mehr möglich. Nun soll das „Klassenzimmer als Bildungsraum zurückerobert“ werden, so will es die Regierung. Der zuständige Minister hat sich bei den dänischen Jugendlichen öffentlich entschuldigt: Man habe sie zu „Versuchskaninchen in einem digitalen Experiment“ gemacht, „dessen Ausmaß und Folgen wir nicht überblicken können“. Das Klassenzimmer sei eben keine „Erweiterung des Jugendzimmers, in dem gestreamt, gespielt und geshoppt wird. Die Schulen hätten sich den großen Tech-Konzernen zu lange unterworfen. Man sei als Gesellschaft zu „verliebt“ gewesen in die Wunder der Digitalwelt. (Rühle 2024)

Das dänische Schulministerium empfiehlt jetzt, Handys komplett aus den Schulen zu verbannen, Tablets und Computer wegzusperren, wenn sie nicht im Unterricht verwendet werden und Bildschirme nur noch dann einzusetzen, wenn es didaktisch und pädagogisch sinnvoll ist. Zudem sollen Firewalls es den Schülern unmöglich machen, während der Schulzeit unterrichtsfremde Websites zu nutzen. Über eine dreistellige Millionensumme zur erneuten Anschaffung von Büchern wird diskutiert.

Alex Rühle: Bildungspolitik: Enttäuschte Liebe. In: Süddeutsche Zeitung vom 6. Februar 2024, sueddeutsche.de/politik/digitalisierung-daenemark-schue-handy-pisa-tablet-1.6344670 [11.5.2024].

https://www.duden.de/rechtschreibung/suchten [11.5.2024].

Sinn, Max (2024): „Suchten“ – ein Hilferuf. In: Verantwortungsblog. https://www.zevedi.de/suchten-ein-hilferuf/ [27.06.2024].
https://doi.org/10.60805/zgft-kk48