Kategorien
Akzentfarbe: gelb (Max Sinn) Autor:innen: Michael Bäuerle & Petra Gehring Verantwortungsblog

„Hessen vorn: Polizei setzt auf Videoüberwachung mit KI“

„Hessen vorn: Polizei setzt auf Videoüberwachung mit KI“

Das Vorpreschen des hessischen Gesetzgebers mag dem rechtspolitischen Ansinnen geschuldet sein, als Vorbild für die Gesetzgeber des Bundes und der anderen Länder gleichsam den Trend zu setzen. Es ist auch schwierig, sich vorzustellen, dass in einer Welt, in der vom Schulkind über Verwaltungen und Marktteilnehmer aller Art (bis hin zu kriminellen Akteuren) im Land und global zwar nahezu jeder KI-Software täglich vielfältig nutzt, ausgerechnet die Sicherheitsbehörden auf Methoden einer „klassischen“ Polizeiarbeit festgelegt bleiben sollen. Also eine offene Frage: Droht der Sicherheits- und Überwachungsstaat oder wäre nicht doch eine Art Waffengleichheit geboten?

Von Michael Bäuerle & Petra Gehring | 17.04.2025

Eine Videokamera in einer belebten Straße.
Eine Videokamera in einer belebten Straße. Erstellt mit Adobe Firefly.

„Hessen vorn: Polizei setzt auf Videoüberwachung mit KI“, so titelte FAZ-Online am 9.12.20241 und beschrieb damit nur einen Teil dessen, was sich in dem am 13.12.2024 verabschiedeten „Gesetz zur Stärkung der Inneren Sicherheit in Hessen“ an neuen digitalen Verfahren verbirgt, die die Polizei künftig einsetzen darf.

Zwar nutzt das Land Hessen seit Längerem datengetriebene Verfahren im Sicherheitsbereich. Der Einsatz der Software „Gotham“ der umstrittenen Firma Palantir unter dem Namen „HessenData“, mittels derer die Polizei verschiedene Datenbestände automatisiert analysieren kann, hat sogar zu einer viel beachteten Entscheidung des Bundesverfassungsgerichts geführt. Dieser Entscheidung zufolge war die gesetzliche Grundlage für den Softwareeinsatz zu unbestimmt und daher verfassungswidrig. Das Land Hessen musste nachbessern – und hat dies auch getan (vgl. dazu den Verantwortungsblog vom 12.9.2024)2. HessenData kommt also unter durch das Bundesverfassungsgericht präzisierten Bedingungen inzwischen wohl3 rechtskonform zum Einsatz, und zwar für Datenbankanalysen im Bereich schwerer Kriminalität.

Das im Dezember 2024 verabschiedete neue Gesetz macht weitere Schritte. Es sah im ersten Entwurf vom 1.10.2024 (Landtags-Drucksache 21/1151) unter anderem eine Ermächtigungsgrundlage für den Einsatz unbemannter Luftfahrtsysteme („Polizeidrohnen“, § 15d des Entwurfs zur Änderung des Hessischen Gesetzes über die öffentliche Sicherheit und Ordnung-Entwurf (HSOG-E)) vor. Ebenso enthielt es eine Ausdehnung der Befugnis zur Videoüberwachung des öffentlichen Raums (§ 14 Abs. 3, 3a, 4 HSOG-E) mit einer Erstreckung auf sog. Angsträume (also Orte, die „günstige Tatgelegenheiten für Straftaten mit erheblicher Bedeutung (…) bieten“). Darüber hinaus war eine deutliche Erweiterung der Befugnis zum Einsatz körpernah getragener Aufzeichnungsgeräte, sogenannter „Body-Cams“, (vgl. § 14 Abs. 6 HSOG-E) vorgesehen, die durch Streichung der Beschränkung dieses Einsatzes auf öffentlich zugängliche Orte und die ausdrückliche Erlaubnis zum Einsatz auch in Wohnungen vorgenommen wurde.

Zum Gesetzentwurf fand am 12.11.2024 eine öffentliche Anhörung statt. Kurz vor dem Ende des Gesetzgebungsverfahrens wurde es überdies überraschend und wohl auch unabhängig von der Anhörung am 5.12.2024 noch einmal geändert (LT-Drs 21/1448). Nunmehr waren zusätzlich völlig neue Regelungen von großer Reichweite vorgesehen: So wurde die Befugnis zur Videoüberwachung auf den Einsatz von Techniken zur sog. Mustererkennung und zur biometrischen Echtzeit-Fernidentifizierung von Personen ausgedehnt. Zudem wurde ein zuvor formulierter Ausschluss der Verwendung von künstlicher Intelligenz bei der automatisierten Anwendung zur Datenanalyse – also auch für den Einsatz von HessenData – gestrichen. Das Gesetz wurde in dieser geänderten Fassung am 12.12.2024 beschlossen und trat am 19.12.2024 in Kraft.

Ungeachtet der gesetzgeberischen Verfahrensweise, die im Hinblick auf die Änderung „in letzter Minute“ auf Kritik der Opposition im hessischen Landtag stieß,4 setzt sich das Land Hessen damit als Gesetzgeber gleichsam an die Spitze der Bewegung zur Einführung von KI- und Big Data-Verfahren im Bereich der Sicherheitsbehörden.5 Denn: Zwar gab und gibt es auch im Bund und in anderen Ländern entsprechende Initiativen,6 keine davon hat oder hätte jedoch eine so weitreichende Ausstattung der Sicherheitsbehörden mit digitalen Verfahren und Instrumenten zur Folge gehabt.

Es scheint, als kämen auf der einen Seite die Faszination der KI-Technologie und auf der anderen Seite Tendenzen zur „Versicherheitlichung“ (securitization) der Selbstwahrnehmung und auch der Selbststeuerung moderner Gesellschaften zusammen. Der Trend zur Ermächtigung der Sicherheitsbehörden zum Einsatz von Big Data- und KI-gestützten Instrumenten setzt sich auch in den derzeitigen Koalitionsverhandlungen auf Bundesebene fort. In den von der Plattform „Frag den Staat“ veröffentlichten Papieren der gerade abgeschlossenen Koalitionsverhandlungen hieß es, die „AG 1 – Innen, Recht, Migration und Integration“ habe einvernehmlich beschlossen:

„Die Sicherheitsbehörden sollen für bestimmte Zwecke eine Befugnis zur Vornahme einer automatisierten (KI-basierten) Datenanalyse erhalten. Unter bestimmten, eng definierten Voraussetzungen bei schweren Straftaten wollen wir den Strafverfolgungsbehörden eine retrograde biometrische Fernidentifizierung zur Identifizierung von Täterinnen und Tätern ermöglichen. Zur nachträglichen Identifikation von mutmaßlichen Tätern wollen wi[r] eine Videoüberwachung an Kriminalitätsschwerpunkten. Das Bundeskriminalamt soll eine Rechtsgrundlage für das Testen und Trainieren von IT-Produkten erhalten, (…)“.7

Dieser Satz findet sich nun in der Tat unverändert in dem jüngst veröffentlichten Koalitionsvertrag des Bundes.8 Selbst wenn alle diese Pläne dereinst umgesetzt sind, wird das Land Hessen dem Bund hinsichtlich digitalisierter und KI-gestützter Eingriffsinstrumente noch insoweit voraus sein, als der Bund im Rahmen der Videoüberwachung bislang weder biometrische Echtzeit-Fernidentifizierung noch automatische Mustererkennung zulässt. Immerhin soll jedoch eine KI-gestützte automatisierte Datenanalyse und -auswertung auch auf Bundesebene nun ermöglicht werden. Von den anderen Bundesländern haben zwar Bayern, Nordrhein-Westfalen und Rheinland-Pfalz inzwischen Ermächtigungsgrundlagen für automatisierte Datenanalysen der Polizei,9 schließen jedoch den Einsatz von KI explizit aus (Bayern und Nordrhein-Westfalen) oder treffen dazu keine ausdrückliche Regelung (Rheinland-Pfalz). KI-gestützte Videoüberwachung ist bisher in keinem anderen Bundesland vorgesehen.

Das Vorpreschen des hessischen Gesetzgebers mag mit Blick auf aktuelle Entwicklungen dem durchaus nachvollziehbaren rechtspolitischen Ansinnen geschuldet sein, als Vorbild für die Gesetzgeber des Bundes und der anderen Länder gleichsam den Trend zu setzen. Es ist auch schwierig, sich vorzustellen, dass in einer Welt, in der vom Schulkind über Verwaltungen und Marktteilnehmer aller Art (bis hin zu kriminellen Akteuren) im Land und global zwar nahezu jeder KI-Software täglich vielfältig nutzt, ausgerechnet die Sicherheitsbehörden auf Methoden einer „klassischen“ Polizeiarbeit festgelegt bleiben sollen. Wäre hier nicht doch eine Art Waffengleichheit geboten? Oder muss der Staat grundsätzlich – und dies vielleicht gerade im KI-Zeitalter – seine Kompetenzen in Sachen Sicherheit begrenzen?

Unter verfassungs- und europarechtlichen Gesichtspunkten droht dem Land unterdessen erneut Ungemach. Zwar hat das Bundesverfassungsgericht den Einsatz von künstlicher Intelligenz im Rahmen automatisierter Datenanalysen nicht gänzlich ausgeschlossen. Es hat die Einführung solcher Werkzeuge jedoch – wie bei seinen zahlreichen anderen „Ja-Aber“-Entscheidungen zum Informationsrecht der Sicherheitsbehörden10 – an strenge Voraussetzungen geknüpft, deren Einhaltung nach der Neuregelung zumindest fraglich ist.11 Zudem ist „künstliche Intelligenz“ ein unscharfer Begriff, zu dem auch das Palantir-Urteil des Bundesverfassungsgerichts nur wenig Klärungshilfe liefert. Alle bewegen sich auf Neuland. Hier könnte dem hessischen Gesetzgeber also – wie schon in vorherigen Fällen12 – eine erneute „Strafrunde für die Innere Sicherheit“13 bevorstehen.

Zugleich muss sich die Neuregelung schon im Hinblick auf den KI-Einsatz allgemein, insbesondere aber wegen der Befugnis zur biometrischen Echtzeit-Fernidentifizierung nunmehr an den europarechtlichen Anforderungen der KI-Verordnung14 messen lassen. Denn die EU bemüht sich darum, das große Wort „KI“ rechtlich auszubuchstabieren. Eine KI-gestützte automatisierte Datenanalyse dürfte nach deren Kriterien im Hinblick auf ihr Potential zur Erstellung von Persönlichkeitsprofilen als sog. Hochrisikosystem i.S.d. Art. 6 KI-VO einzustufen sein15 und die nach Art. 5 KI-VO grundsätzlich verbotene biometrische Echtzeit-Fernidentifizierung ist für Zwecke der Inneren Sicherheit nur unter sehr strengen Voraussetzungen und im Rahmen sehr enger Grenzen zulässig.

Selbst bei Einhaltung der materiellen Vorgaben der KI-Verordnung sehen Art. 6 bis 49 KI-VO für diese beiden Technologien neben anderen Pflichten der Anbieter und Betreiber eine Grundrechte-Folgenabschätzung (Art. 27 KI-VO) und eine EU-Datenbankregistrierung (Art. 49 KI-VO) vor. Beides kann bisher noch nicht vorliegen, denn die Regulationen sind noch nicht in Kraft. Insoweit ist Hessen mit seinem neuen Gesetz bisher nur in der Theorie vorn. Für eine europarechtskonforme Anwendung bedarf es jedenfalls noch einiger weiterer Schritte, und ob das Gesetz einer Prüfung in Karlsruhe standhält, muss zunächst geklärt werden, denn es ist fraglich.

Angesichts der gegenwärtigen Bemühungen der Gesetzgeber des Bundes und einiger Länder, dem hessischen Modell im Hinblick auf die Einführung KI-gestützter Instrumente für die Sicherheitsbehörden zu folgen, könnte Hessen indessen zumindest insoweit Vorbild werden, als anhand seines Gesetzes die verfassungs- und europarechtlichen Anforderungen alsbald geklärt werden können. Hessen wäre also vor allem Tempomacher. Ob auch Rollenmodell, wird abzuwarten sein. Wie in den meisten anderen Bereichen bleibt die Digitalisierung im Bereich der Sicherheitsbehörden auch unter rechtspolitischen und -dogmatischen Gesichtspunkten ein hochdynamischer Prozess, über den – auch in diesem Blog – hiermit sicher nicht zum letzten Mal zu berichten sein wird.

  1. Vgl. Katharina Iskandar (2025): Polizei setzt auf Videoüberwachung mit KI. In: faz.net: https://www.faz.net/aktuell/rhein-main/frankfurt/hessen-vorn-polizei-setzt-auf-videoueberwachung-mit-ki-110162219.html [17.3.2025]; der Titel des Artikels hat sich geändert, „Hessen vorn“ findet sich aber noch in der URL des Beitrags. ↩︎
  2. Michael Bäuerle (2024): Karlsruhe locuta, causa non finita – Palantir, die Polizei und kein Ende. In: Verantwortungsblog: https://zevedi.de/karlsruhe-locuta-causa-non-finita-palantir-die-polizei-und-kein-ende/ [12.09.2024]. https://doi.org/10.60805/vp3w-fk07. ↩︎
  3. Auch gegen die Neuregelung bestehen indessen nicht unerhebliche verfassungsrechtliche Bedenken; sie mündeten in einer weiteren Verfassungsbeschwerde (abzurufen unter Gesellschaft für Freiheitsrechte: GFF erhebt Verfassungsbeschwerde gegen uferlose Big Data-Methoden im Polizeigesetz von NRW: Der Einsatz von „Data Mining“ braucht strenge Voraussetzungen. https://freiheitsrechte.org/ueber-die-gff/presse/pressemitteilungen-der-gesellschaft-fur-freiheitsrechte/pm-stop-data-mining [06.10.2022]); vgl. näher Markus Möstl/Michael Bäuerle (Hg.): Beck’scher Onliner Kommentar Polizei und Ordnungsrecht Hessen, 33. Ed. 1.6.2024, HSOG § 25a Rn. 31 ff (https://beck-online.beck.de/?vpath=bibdata%2Fkomm%2FBeckOKPolRH_33%2FHESSOG%2Fcont%2FBECKOKPOLRH%2eHESSOG%2eP25A%2eglA%2eglV%2ehtm [08.04.2025]). ↩︎
  4. Vgl. den Bericht der Hessenschau (2025): Hessische Polizei darf KI bei Videoüberwachung einsetzen. https://www.hessenschau.de/politik/landtag/videoueberwachung-mit-ki-cdu-und-spd-erweitern-rechte-der-polizei-v2,landtag-sicherheitspaket-100.html [21.03.2025]; zu den verfassungsrechtlichen Gesichtspunkten dieses Verfahrens BeckOK PolR Hessen/Bäuerle: HSOG, Entwicklung und Strukturen des Polizei- und Ordnungsrechts in Hessen, Rn. 19 e ff. ↩︎
  5. Vgl. zum Rechtsrahmen auch Dieter Kugelmann/Antonia Buchmann (2025): Der Algorithmus und die Künstliche Intelligenz als Ermittler. In: Zeitschrift für das gesamte Sicherheitsreicht (GSZ) 1, S. 1-44. ↩︎
  6. Vgl. Bundestags-Drucksache 20/12805 (inzwischen verabschiedet), wonach im Asylverfahren nunmehr der nachträgliche biometrische Abgleich von Lichtbildern mit öffentlich zugänglichen Daten aus dem Internet zulässig ist sowie BT-Drucks 20/12806 (nichtmehr verabschiedet), wonach dem Bundeskriminalamt und der Bundespolizei der Einsatz einer automatisierten Anwendung zur Datenanalyse nach dem Vorbild Hessens sowie ebenfalls der nachträgliche biometrische Abgleich von Lichtbildern mit öffentlich zugänglichen Daten aus dem Internet ermöglicht werden sollte (vgl. §§ 39a, 63b des Entwurfs zur Änderung des Bundeskriminalamtgesetzes(BKAG)-E und § 34b des Entwurfs des Gesetzes zur Änderung des Bundespolizeigesetzes(BPolG)-E). Auf Landesebene hat etwa Rheinland-Pfalz mit § 65a des Polizei- und Ordnungsgesetzes (POG) durch Gesetz vom 25.2.2025 (Gesetz- und Verordnungsblatt (GVBl.) S. 15) jüngst ebenfalls eine Ermächtigungsgrundlage für eine automatisierte Datenanalyse geschaffen. ↩︎
  7. Vgl. FragDenStaat: Koalitionsverhandlungen CDU/CSU/SPD AG 1 – Innen, Recht, Migration und Integration. https://fragdenstaat.de/dokumente/258013-koalitionsverhandlungen-cdu-csu-spd-ag-1-innen-recht-migration-und-integration/, Zeilen 252 bis 260 [26.3.2025]; vgl. dazu auch Hasso Suliak (2025): Was Union und SPD im Bereich „Innen und Recht“ planen. in: Legal Tribune Online: https://www.lto.de/persistent/a_id/56877 [26.03.2025]. ↩︎
  8. Vgl. CDU/CSU/SPD: Verantwortung für Deutschland. Koalitionsvertrag zwischen CDU, CSU und SPD. 21. Legislaturperiode. https://www.spd.de/fileadmin/Dokumente/Koalitionsvertrag_2025.pdf [10.04.2025] (S. 89, Zeilen 2850 bis 2856; eine etwas allgemeinere und gekürzte Ankündigung dieser Absichten findet sich schon auf S. 82, Zeilen 2633 bis 2637). ↩︎
  9. Vgl. § 61a Gesetz über die Aufgaben und Befugnisse der Bayerischen Polizei (Bayerisches Polizeiaufgabengesetz (BayPAG)), § 23 Abs. 6 POG NRW und § 65a POG Rh.-Pf. ↩︎
  10. Vgl. die Übersicht bei Michael Bäuerle (2024): Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung. Frankfurt am Main: Verlag für Polizeiwissenschaft 2024, S. 88 ff.; zu den dort genannten 29 Entscheidungen sind inzwischen der Beschluss vom 17.4.2024 (- 1 BvR 2133/22, Hessisches Verfassungsschutzgesetz, Zeitschrift für Datenschutz 2024, 690 ff.), das Urteil vom 1.10.2024 (- 1 BvR 1160/19 -, BKAG II, Neue Zeitschrift für Verwaltungsrecht (NVwZ) 2024, 1736 ff. [m. Anm. Wittenberg]), der Beschluss vom 8.10.2024 (- 1 BvR 1743/16 -, – 1 BvR 2539/16 – Strategische Fernmeldeüberwachung II, Verwaltungsrundschau (VR) 2025, 36 ff.) sowie der Beschluss vom 14.11.2024 – 1 BvL 3/22 – (Observation und Einsatz technischer Mittel) hinzugekommen (Bundesverfassungsgericht: Beschluss vom 14. November 2024. https://www.bverfg.de/e/ls20241114_1bvl000322 [08.04.2025]). ↩︎
  11. Vgl. dazu Michael Bäuerle (2025): Automatisierte und KI-gesteuerte Datenverarbeitung und -analyse bei den Sicherheitsbehörden. Perspektiven und Grenzen sicherheitsbehördlicher „Datafizierung“. In: Zeitschrift für Datenschutz (ZD) 15, Heft 3, S. 128-131 (m.w.N.). ↩︎
  12. Vgl. BVerfG Neue Juristische Wochenschrift (NJW) 2008, 1505 ff. (Automatisierte Kennzeichenerfassung), BVerfG NJW 2019, 842 ff. (Automatisierte Kennzeichenerfassung II), BVerfG NVwZ-RR 2025, 10 ff. (Hessisches Verfassungsschutzgesetz). ↩︎
  13. So mit Blick auf die zahlreichen einschlägigen Entscheidungen des Bundesverfassungsgerichts schon früh Christian Rath (2013): Der Schiedsrichterstaat. Die Macht des Bundesverfassungsgerichts, Berlin: Verlag Klaus Wagenbach 2013, S. 60 ff., der insoweit auch den früheren Präsidenten des Gerichts Andreas Voßkuhle mit dem neutraleren Begriff der „Reflexionsschleifen“ zitiert (S. 61 unter Berufung auf Die Zeit vom 16.5.2021). ↩︎
  14. Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz. ↩︎
  15. So auch Schöndorf-Haubold/Giogios: „Es ist schwer vorstellbar, dass KI-fähige Anwendungen zur automatisierten Datenanalyse wie z.B. hessenDATA, sofern mit ihrer Hilfe (schon aufgrund nationaler Grundrechtsanforderungen ausschließlich vorbereitende) Such- und Musterabfragen vorgenommen werden, als Systeme mit minimalen Risiken unterhalb der Schwelle der Hochrisiko-KI gelten könnten.“ (Bettina Schöndorf-Haubold/Christopher Giogios (2024): KI im Einsatz für die Sicherheit: Innovation und Kontrolle im Spannungsfeld von europäischer Gesetzgebung und nationaler Souveränität. In: Verfassungsblog vom 10.12.2024: https://verfassungsblog.de/ki-im-einsatz-fur-die-sicherheit/ [08.04.2025]. https://dx.doi.org/10.59704/9f52cf6bc2e03d8d. ↩︎

Bäuerle, Michael (2024a): Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung. Frankfurt am Main: Verlag für Polizeiwissenschaft 2024.

Bäuerle, Michael (2024b): Karlsruhe locuta, causa non finita – Palantir, die Polizei und kein Ende. In: Verantwortungsblog: https://zevedi.de/karlsruhe-locuta-causa-non-finita-palantir-die-polizei-und-kein-ende/ [12.09.2024]. https://doi.org/10.60805/vp3w-fk07.

Bäuerle, Michael (2025): Automatisierte und KI-gesteuerte Datenverarbeitung und -analyse bei den Sicherheitsbehörden. Perspektiven und Grenzen sicherheitsbehördlicher „Datafizierung“. In: Zeitschrift für Datenschutz (ZD) 15, Heft 3, S. 128-131.

CDU/CSU/SPD: Verantwortung für Deutschland. Koalitionsvertrag zwischen CDU, CSU und SPD. 21. Legislaturperiode. https://www.spd.de/fileadmin/Dokumente/Koalitionsvertrag_2025.pdf [10.04.2025].

Deutscher Bundestag (2024a): Entwurf eines Gesetzes zur Verbesserung der inneren Sicherheit und des Asylsystems (Bundestags-Drucksache 20/12805), 09.09.2024, Berlin.

Deutscher Bundestag (2024b): Entwurf eines Gesetzes zur Verbesserung der Terrorismusbekämpfung (Bundestags-Drucksache 20/12806), 09.09.2024, Berlin.

FragDenStaat: Koalitionsverhandlungen CDU/CSU/SPD AG 1 – Innen, Recht, Migration und Integration. https://fragdenstaat.de/dokumente/258013-koalitionsverhandlungen-cdu-csu-spd-ag-1-innen-recht-migration-und-integration/ [26.3.2025].

Gesellschaft für Freiheitsrechte: GFF erhebt Verfassungsbeschwerde gegen uferlose Big Data-Methoden im Polizeigesetz von NRW: Der Einsatz von „Data Mining“ braucht strenge Voraussetzungen. https://freiheitsrechte.org/ueber-die-gff/presse/pressemitteilungen-der-gesellschaft-fur-freiheitsrechte/pm-stop-data-mining [06.10.2022].

Hessenschau (2025): Hessische Polizei darf KI bei Videoüberwachung einsetzen. https://www.hessenschau.de/politik/landtag/videoueberwachung-mit-ki-cdu-und-spd-erweitern-rechte-der-polizei-v2,landtag-sicherheitspaket-100.html [21.03.2025].

Hessischer Landtag (2024a): Gesetz zur Stärkung der Inneren Sicherheit in Hessen (Landtags-Drucksache 21/1151), 01.10.2024, Wiesbaden.

Hessischer Landtag (2024b): Änderungsantrag zu Gesetzesentwurf Gesetz zur Stärkung der Inneren Sicherheit in Hessen (Landtags-Drucksache 21/1448), 05.12.2024, Wiesbaden.

Kugelmann, Dieter/Buchmann, Antonia (2025): Der Algorithmus und die Künstliche Intelligenz als Ermittler. In: Zeitschrift für das gesamte Sicherheitsreicht (GSZ) 1, S. 1-44.

Iskandar, Katharina (2025): Polizei setzt auf Videoüberwachung mit KI. In: faz.net: https://www.faz.net/aktuell/rhein-main/frankfurt/hessen-vorn-polizei-setzt-auf-videoueberwachung-mit-ki-110162219.html [17.3.2025].

Möstl, Markus/Bäuerle, Michael (Hg.): Beck’scher Onliner Kommentar Polizei und Ordnungsrecht Hessen, 33. Ed. 1.6.2024, HSOG § 25a Rn. 31 ff. https://beck-online.beck.de/?vpath=bibdata%2Fkomm%2FBeckOKPolRH_33%2FHESSOG%2Fcont%2FBECKOKPOLRH%2eHESSOG%2eP25A%2eglA%2eglV%2ehtm [08.04.2025].

Rath, Christian (2013): Der Schiedsrichterstaat. Die Macht des Bundesverfassungsgerichts, Berlin: Verlag Klaus Wagenbach 2013.

Schöndorf-Haubold, Bettina/Giogios, Christopher (2024): KI im Einsatz für die Sicherheit: Innovation und Kontrolle im Spannungsfeld von europäischer Gesetzgebung und nationaler Souveränität. In: Verfassungsblog: https://verfassungsblog.de/ki-im-einsatz-fur-die-sicherheit/ [10.12.2024]. https://dx.doi.org/10.59704/9f52cf6bc2e03d8d.

Suliak, Hasso (2025): Was Union und SPD im Bereich „Innen und Recht“ planen. in: Legal Tribune Online: https://www.lto.de/persistent/a_id/56877 [26.03.2025].

Bäuerle, Michael & Gehring, Petra (2025): „Hessen vorn: Polizei setzt auf Videoüberwachung mit KI“. In: Verantwortungsblog. https://zevedi.de/hessen-vorn-polizei-setzt-auf-videoueberwachung-mit-ki/ [17.04.2025]. https://doi.org/10.60805/bg4s-0k59.

Kategorien
Akzentfarbe: Hellblau Autor: Ralf Otte Uncategorized Verantwortungsblog

„KI wird zu massiver Überwachung führen“

„KI wird zu massiver Überwachung führen“

Steht die so genannte „Singularität“ kurz bevor? Wird die KI also die menschliche Intelligenz überflügeln – mit segensreichen oder apokalyptischen Folgen für die Menschheit? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Und welcher KI überhaupt? Im zweiten Teil der kurzen Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Rolf Otte über den KI-Hype, die Grenzen der KI sowie darüber gesprochen, was auf die Software-KI folgen könnte.

Interview mit Ralf Otte | 28.03.2025

Schematische Illustration; Blau- und Grautöne
Bild mit Adobe Firefly erstellt. Prompt: Deep Learning Code as illustration; style: cubism; colors: blue and grey tones.

Ralf Otte: In den letzten Jahren hat die KI eine exponentielle Entwicklung genommen. In immer kürzeren Abständen gab es immer mehr Fortschritt. Das hat zu großen Erwartungen und zum KI-Hype geführt. Ähnliches haben wir schon in den KI-Anfangsjahren erlebt. In den 1960er Jahren wurde vieles versprochen: dass man das Denken nachbilden kann, dass man Expertensysteme damit bauen kann. Dazu kam es seinerzeit nicht. Aber die Technik hat sich stetig weiterentwickelt. Denkprozesse wurden tatsächlich mathematisiert und überall sieht man Expertensysteme. 2022 sind wir nun in einen neuen Hype geraten, und das hat mit den Sprachmodellen zu tun.
Seit ChatGPT ist KI in der Gesellschaft angekommen: Es gibt diese KI und sie kann ganz unglaubliche Dinge. Aber gewisse Dinge kann sie nicht. Und das muss man erklären. Denn immer mehr Politiker und Vorstände glauben, mit KI können sie vieles lösen – ohne dass es so ist. Zur Zeit eines Lokführerstreiks äußerte ein Ministerpräsident beispielsweise: Wenn die Lokführer streiken, können wir doch KI die Züge fahren lassen. Es gab Autokonzerne, die versprachen, bis 2030 fahren unsere Autos vollautonom. Aber vollautonome Autos, die weltweit fahren können, werden niemals kommen. Wir werden auch keine vollautonomen Haushaltsroboter kaufen können. Das sind Dinge, die wir Ingenieure schlicht nicht bauen können.
Es gibt Grenzen der KI. Wenn man das verstanden hat, dann verliert man auch wieder die Angst vor der KI, die angeblich alles kann. Ja, die Sprachmodelle sind gut. Aber sie machen zurzeit bis zu 20 Prozent Fehler in ihren Aussagen und diese Fehlerquote wird man noch auf 10 oder 5 Prozent senken können.

RO: Die Sprachmodelle werden nie die Sprachqualitäten eines Menschen erreichen. Das ist eine prinzipielle Sache. Wenn besser kommuniziert würde, wie wir KI bauen und wie das menschliche Gehirn funktioniert, dann wäre klar, warum die KI nie an das Gehirn heranreichen wird: Im menschlichen Gehirn gibt es neuronale Netze. Wir haben ungefähr 80 Milliarden Neuronen in unserem Gehirn. Ein Neuron kann mit tausenden anderen Neuronen verbunden sein. So kommen wir auf Billionen von Synapsen, also Verbindungen zwischen den Neuronen. Und wenn man lernt, etwas begreift, dann verändern sich die synaptischen Werte. Lernen verändert also das neuronale Netz im Gehirn physisch.
Man spricht im Zusammenhang mit der aktuellen KI zwar auch von neuronalen Netzen im Computer. Aber das ist nur eine Metapher, denn es gibt keine neuronalen Mechanismen im Computer, das sind nur mathematische Gleichungen. Würde man einen Computer aufbohren, dann würde man feststellen, die KI auf einem Computer ist nur Mathematik. Nirgends findet man auch nur ein einziges Neuron.

RO: Im Gehirn laufen keine mathematischen Verfahren. Deswegen bereitet es solche Mühe, einem Menschen ein mathematisches Verfahren beizubringen. Sie brauchen zehn bis zwölf Jahre in der Schule, um die Gehirnprozesse, also physikalische und chemische Prozesse, so zu modulieren, dass sie mathematischen Operationen entsprechen. Das neuronale Netz im Gehirn bringt das nicht mit. Sie können es aber so modulieren, dass Sie nach Ende des ersten Schuljahres Zahlen addieren können. Das braucht sehr, sehr lange und das klingt nach einem Nachteil. Aber der Vorteil ist, dass das menschliche Gehirn mathematische Operationen zwar abbilden kann, aber nicht muss.
Die KI im Computer ist jedoch reine Mathematik. Wer KI programmiert, programmiert mathematische Formeln. Das hat die letztendliche Konsequenz, dass die Grenzen der Mathematik die Grenzen der KI sind. Aber die Grenzen der Mathematik sind nicht die Grenzen eines Menschen. Die Intelligenz des Menschen ist physikalisch, chemisch wie auch sozial fundiert.

RO: Ich habe dazu im Dezember letzten Jahres ein kleines Büchlein geschrieben, mit dem Titel Künstliche Intelligenz – Illusion und Wirklichkeit. Darin erläutere ich „Warum autonomes Fahren weltweit niemals Wirklichkeit wird“, so der Untertitel des Buches.
Ein Grund ist das Problem des Extrapolationsraums. Eine KI können Sie heute gut trainieren und in diesem Datenraum können Sie sie sicher anwenden. Aber wenn Sie KI-Systeme wie ChatGPT über Dinge befragen, die es nicht gelernt hat, fängt die KI oft an zu halluzinieren. In diesem Extrapolationsraum können Sie die KI nicht sicher anwenden. Und zwar prinzipiell nicht. Das Problem lässt sich auch mit einem Supercomputer nicht überwinden, weil es ein mathematisches Problem ist und kein technisches.
Ein anderes Problem ist energetisch: Ein Mensch hat 20 bis 30 Watt Leistungsaufnahme im Gehirn. NVIDIA-Chips in einem Level-3-Auto haben 4000 bis 5000 Watt Leistungsaufnahme. Die KI verbraucht über das Hundertfache an Energie. Und dann kommen noch die Aufwände der Infrastruktur hinzu. Das ist Wahnsinn. Und damit fährt das Auto nur Level 3, bei Mercedes oder BMW bedeutet das bis 60 (bald 90) km/h auf der Autobahn und bei guten Witterungsbedingungen darf man mal den Blick auch von der Fahrbahn nehmen. Allein aus energetischer Sicht lässt sich vollautonomes Fahren nicht darstellen. Wir bräuchten 100 neue Atomkraftwerke allein in Europa, wenn wir eine gewisse Anzahl von Autos mit Level 5 auf die Straße bringen würden. Teilautonomes Fahren, Level 3, ist heute schon möglich. BMW fährt Level 3, Tesla, Mercedes und Honda auch. Und Level 4 bedeutet Höchstautomatisierung. Der Mensch kann dann in 80 bis 90 Prozent der Fälle die KI fahren lassen.
Der Punkt ist: Das ist in allen Bereichen so. Die KI können Sie in 80 bis 90, teilweise 99 Prozent aller Fälle arbeiten lassen – ob in der Fabrik, im Auto, im Kraftwerk oder im Flugzeug. Aber was ist mit dem Rest? Den Rest wird die KI nicht lösen. Insofern wird eine KI niemals vollautomatisch ein Flugzeug steuern, weil die ein bis zwanzig Prozent der Problemfälle natürlich wichtig sind. Niemand würde ein Flugzeug von einer KI fliegen lassen, ohne einen Piloten an Bord zu haben. Den Autopiloten kennen wir schon lange, aber für Starts und Landungen sowie für schwierige Flugbedingungen braucht es Menschen. Und das ist ein mathematisches Erfordernis, kein technisches. Alles andere können wir gerne automatisieren, aber wir sollten nicht Milliarden rauswerfen für Automatisierungsprojekte, von denen man eigentlich schon weiß, dass sie nicht möglich sind.

RO: Wir reden von den Grenzen der mathematischen KI. Aber die KI wird weiterentwickelt, beispielsweise in eine physikalische KI, die auf neuromorphen und Quantencomputern läuft. Daran arbeite ich selbst. Ich entwickle neuronale Netze auf Quantencomputern. Auch an einer chemischen KI wird gearbeitet. Man kann Proteine nutzen, indem man deren Faltungsprozesse trainiert und zur Lösung von Aufgaben einsetzt. Es gibt auch biologische KI. Man kann Pilze zum Rechnen nutzen und in der Schweiz arbeitet beispielsweise ein Start-up mit menschlichen Nervenzellen, die an Elektroden angeschlossen werden und die man dazu bringt, Pingpong zu spielen.
In diese Richtungen geht es. Aus der mathematischen KI wird eine physikalische, chemische und biologische KI. Und diese Formen von Künstlicher Intelligenz können viel, viel mehr – beängstigend viel mehr. Das müssen wir regulieren. Dieses Forschungsfeld nicht zu regulieren ist so, als würden Sie in der Genforschung alles erlauben, jede genetische Manipulation am Menschen. Da hat aber der Gesetzgeber eine rote Linie gezogen. Und das brauchen wir auch für die KI. Ich warne nicht vor der physikalischen oder der chemischen KI, aber ich warne vor der biologischen KI, also davor, dass Pilze, Ratten oder menschliche Nervenzellen in zahlreichen Anwendungen benutzt werden.

RO: In meinem Buch Maschinenbewusstsein geht es um die Frage, wie kann Bewusstsein auf Maschinen entstehen? Und mit Bewusstsein meine ich Wahrnehmung. Die heutige KI kann nicht wahrnehmen und ich forsche an einer physikalischen KI, die ein rudimentäres Bewusstsein auf ihren maschinellen Bauelementen entwickeln kann. Man kann mathematisch zeigen, dass gewisse Bausteine, z.B. Quantencomputer, eventuell in der Lage sind, rudimentäres technisches Bewusstsein auszuprägen. Aber das ist immer noch ganz weit weg von den Wahrnehmungsfähigkeiten von Ratten oder Fliegen.

RO: Ich gebe Ihnen ein Beispiel: Sie gehen auf eine Party und Sie nehmen wahr, was dort passiert. Sie qualifizieren die Wahrnehmung in dem Sinne, dass Sie sagen, es gefällt mir hier nicht. Diese qualifizierten Wahrnehmungen nennt man bei Menschen „Gefühle“. Es gefällt Ihnen nicht und Sie gehen. Das heißt, es gibt Systeme, Menschen, Ratten und Hunde zum Beispiel, die haben nicht nur Wahrnehmungen, sondern können sie qualifizieren, sie als angenehm oder unangenehm bewerten. Die Systeme, die das können, sind alle biologische Systeme. Denn diese lebenden Systeme müssen ihre Wahrnehmung qualifizieren. Ein Kind greift einmal an die heiße Herdplatte und hat diese Wahrnehmung als äußerst unangenehm qualifiziert. Es wird sich davor hüten, diese Wahrnehmung erneut zu machen. Das heißt, die Qualifikation der Wahrnehmung sorgt dafür, dass biologische Systeme in einer komplizierten und gefahrvollen Umwelt überleben können.
Technische Systeme hingegen müssen nicht überleben, denn sie leben schließlich gar nicht – der Quantencomputer nicht, der neuromorphe Computer und der Laptop auch nicht. Das sind mineralische Systeme. Diese Systeme können wahrscheinlich zwar Bewusstsein entwickeln, insofern sie wahrnehmen können, aber sie können die Wahrnehmung nicht qualifizieren. Sie können also keine Gefühle entwickeln und auch keine Willensprozesse. Deswegen darf ich damit forschen und experimentieren.

RO: Eine KI, die intelligenter als der Mensch ist und die Menschheit auslöschen will, ist reine Science-Fiction. Eine Maschine auf mineralischer Basis wird nie etwas fühlen und damit auch nie etwas wollen. Denn „Wollen“ bedeutet, ich will meine Umgebung so verändern, dass ich angenehme Gefühle habe.
Auch hier kommen wir allerdings wieder zu den Problemen der biologischen KI. Wenn Sie menschliche Zellen oder Zellen aus dem Rattengehirn nehmen, dann bauen Sie ein biologisches System, das hat mit Sicherheit Wahrnehmungen und kann diese qualifizieren. Es kann zum Beispiel Angst haben. Ich stelle mir vor, dass die menschlichen Nervenzellen in der Petrischale Angstzustände bekommen, wenn wir sie mit elektrischen Schlägen traktieren. Denn darin besteht unter anderem das Training: Wenn sie falsche Antworten geben, dann versetzt man ihnen elektrische Schläge, bis sie richtige Antworten geben. Wir wissen nicht, ob sie Angst empfinden, aber das liegt nahe, denn es ist lebende Materie. Ein biologisches System solchen Zuständen auszusetzen, ist eventuell Quälerei. Das ist ein No-Go. Das passiert zwar auch in der Schweinezucht, aber deswegen gibt es den Tierschutz.
Es darf keine biologische KI geben, die mit elektrischen Schlägen zum Lernen gezwungen wird. Ich kann mir aber vorstellen, dass das in zehn Jahren Standard sein wird – ob mit Pilzen oder mit menschlichen Nervenzellen. Eine solche KI wäre erheblich intelligenter als alle physikalischen Systeme, weil sie Bewusstseinsprozesse und sogar Gefühle hätte. Die Lernprozesse dieser KI würden tausendmal schneller und energieeffizienter ablaufen. Wir würden aber nicht wissen, was diese biologische KI fühlt.

RO: Das ist nahezu selbsterklärend: Letztlich geht es in der Wirtschaft um Geld. Ich berate viele Unternehmen und überall, wo ich hinkomme, werden Copilot, ChatGPT oder andere Systeme eingesetzt. Das heißt, Big Tech schafft es, mit KI in die Unternehmen zu diffundieren. Sie werden sich unersetzbar machen, so wie vor 50, 60 Jahren Computer eingeführt und unersetzbar wurden. Es entstand ein Riesenmarkt. Und die KI müssen Sie mit dem Computer gleichsetzen. Jedes Unternehmen, jedes Büro soll KI-Verfahren einsetzen – das ist das Ziel eines KI-Herstellers. Und das ist auch legitim.
Das Problem ist eben, dass den Entscheidern dieser Welt vorgegaukelt wird, mit KI könnten sie nahezu alle Probleme lösen. Ich habe mit Ministern auf Landesebene zu tun und da stellen sich Minister vor, dass man die ganze Verwaltung durch KI automatisieren kann. Warum? Weil vorher Big Tech-Leute da waren und wunderbare Use Cases gezeigt haben, was mit KI alles möglich sei. Vom E-Mail-Schreiben bis zur Wohngeldvergabe würde sich alles automatisieren lassen. Und das glauben die. Die Konsequenz ist, dass KI überall reingedrückt wird, auch in Bereiche, wo wir als Ingenieure sagen, das kann nicht gut gehen.

RO: Man versucht beispielsweise, die KI in die Rechtsprozesse, in den Gerichtssaal zu bringen. Dafür sind diese Prozesse aber zu komplex, das habe ich im erwähnten Buch KI – Illusion und Wirklichkeit ausführlich gezeigt. Es lässt sich mathematisch beweisen, dass die Rechtsprozesse eine solche Komplexitätsstufe erreichen, dass die KI dort nicht einsetzbar ist. Ich habe dieses Jahr vielen Juristen die KI und deren Risiken erklärt und ihnen das mitgeteilt. Aber auf Entscheider-Ebene ist das nicht vorgedrungen. Deswegen gibt es immer noch die Vorstellung, dass Gerichtsentscheide automatisierbar seien.
Die Grenzen der KI sind den Fachleuten bekannt. Aber Big Tech hat ein Interesse am KI-Hype, weil sie Produkte und Lizenzen verkaufen wollen. Der Schaden, der dadurch entstehen wird, ist enorm. Denn in zehn Jahren wird vieles wieder rückabgewickelt werden müssen. Die vollautomatisierten Büros und Verwaltungen beispielsweise: Ich prognostiziere, sie werden nicht richtig arbeiten.

RO: Das Europäische Parlament diskutiert seit 2017, ob den smartesten Systemen Persönlichkeitsrechte eingeräumt werden sollen. Wenn autonom fahrenden Fahrzeugen oder mobilen Robotern, das sind ja die smartesten Systeme, Persönlichkeitsrechte eingeräumt werden, würde das Big Tech freuen, denn dann können sie ihre Haftung reduzieren. Denn, wenn die KI einen Unfall verursacht, vielleicht mit Todesfolge, dann haftet nicht der Hersteller, sondern die KI-Persönlichkeit. Völliger Schwachsinn, aber die Politiker diskutieren das. Und wir Fachleute müssen warnen und sagen, nein, eine KI darf niemals Persönlichkeitsrechte bekommen, denn das sind mathematische Verfahren. Wieso sollte die Mathematik haften? Der Hersteller soll haften, der das Fahrzeug oder den Roboter in den Verkehr gebracht hat.
So etwas passiert bereits. Anfang letzten Jahres gab es den Fall, dass ein Chatbot von Air Canada einem Kunden falsche Auskunft über einen Flugtarif erteilt hat. Da Air Canada ihm diesen nicht gewähren wollte, hat er dagegen geklagt. Air Canada hat versucht zu argumentieren, der Chatbot sei mit einem menschlichen Mitarbeiter zu vergleichen und das Unternehmen sei an die Auskunft nicht gebunden. Das eingeschaltete Schiedsgericht hat das nicht überzeugt und dem Kunden recht gegeben. Der europäische AI Act sieht ebenfalls eine Herstellerhaftung vor.

RO: Der AI Act hat den Begriff der Betroffenenrechte eingeführt. Das schützt Betroffene wie Sie und mich vor den Auswüchsen der KI. Und das ist gut so. Ich möchte als Betroffener nicht, dass Gesichts- und Emotionserkennung um sich greifen. Davor schützt uns der AI Act. Das begrüße ich sehr.
Das ist aber nur die eine Seite. Und die andere ist: Der AI Act greift zu massiv in die technologische Entwicklung in den Unternehmen ein. Ich gebe nur ein Beispiel: Der AI Act unterscheidet zwischen Anbietern und Betreibern. Und wenn Sie durch einen blöden Zufall vom Betreiber zum Anbieter werden, ohne dass Sie es wissen, müssen Sie über 50 Dokumente ausfüllen, statt 20. Wenn Sie in einen „Risikobereich“ kommen, weil Sie KI vielleicht in der Personalabteilung einsetzen, dann müssen Sie diese 50 Dokumente ausfüllen – daran ersticken Unternehmen. Die Konsequenz wird sein, dass viele Unternehmen KI nicht dort einsetzen, wo sie eigentlich sinnvoll eingesetzt werden könnte, denn die möglichen ökonomischen Folgen sind zu groß. Wir reden nicht über Strafzahlungen von einem oder zwei Prozent des weltweiten Umsatzes, sondern von bis zu sieben Prozent. Dazu kommt die vorgesehene Beweislastumkehr im Risikobereich. Sie müssen dann beweisen, dass Sie mit der KI Menschen nicht diskriminiert haben. Da haben Sie viel zu tun. Das ist ein überbordender Eingriff in die Entwicklung und den Einsatz der KI in den Unternehmen.

RO: Ein großes Problem, ja. Ich meine, ich will auch geschützt werden vor der Datenkrake KI, die mich sonst auf Schritt und Tritt verfolgt. Social Scoring ist ja verboten. Das ist auch gut so. Für diesen Schutz kann man die EU loben. Aber die Probleme gehen weit darüber hinaus. Es ist alles geregelt bis zum letzten Bit und Byte. Sie möchten mal eine kleine KI-Auswertung im Sales-Bereich machen, dann müssen Sie für das damit betraute Personal KI-Kompetenzen nachweisen.

RO: Als ich das 2021 geschrieben habe, habe ich an eine Aufholjagd insbesondere von afrikanischen Nationen gedacht. Denn Sie brauchen heute nur einen Computer und nicht diese große Infrastruktur, die wir in Westeuropa und mittlerweile auch in China haben. Sie brauchen nur einen klugen Geist. Und den gibt es überall auf der Welt. Kluge Geister, billige Arbeitskräfte – die gibt es in Afrika. Die Zukunft sind Digitalisierung, KI und die Auswertung von Daten mit KI. Und in diesen Bereichen können Sie große Sprünge machen, ohne zuvor eine Stahlindustrie oder eine Autoindustrie aufgebaut zu haben.
Aber das, was Leute wie Altman versprechen, dass der Welthunger besiegt wird, das kann man vergessen. Der Welthunger könnte heute schon beseitigt werden. Das ist ein politisches Problem, kein technisches. Wir können das jetzt machen, wenn wir es wollten.
Was die KI aber in westlichen Gesellschaften bringen wird, das ist mehr Überwachung. Den Nobelpreis für Physik haben letztes Jahr John Hopfield und Geoffrey Hinton erhalten, zwei KI-Leute. Und Hinton hat vor der Entwicklung der KI gewarnt. Dazu habe ich in einem Beitrag für das Physik Journal Stellung bezogen. Diese Warnungen sind gerechtfertigt, aber nicht in dem Sinne, dass die KI klüger wird als wir. Das wird nicht passieren. Aber die KI wird zu massiver Überwachung führen. Bisher haben wir technische Prozesse mit KI überwacht. Ich habe 1994 mein erstes KI-Projekt durchgeführt. Wir haben die Fabrik eines Autozulieferers mit KI automatisiert. Das heißt, Industrieprozesse überwachen wir schon lange vollständig. Und die Gefahr ist nun, dass diese KI-Überwachung auf soziale Prozesse angewendet wird. Teilweise aus vermeintlich guten Gründen, um die Menschen zu schützen, um ihnen mehr Sicherheit zu geben. Aber so landen wir schnell bei chinesischen Verhältnissen. Wollen wir das? Will ich um der Sicherheit willen diese totale Überwachung? Oder will ich weniger Überwachung und nehme dafür mehr Unsicherheit in Kauf? Nun, ich glaube, ein Land wie Deutschland tendiert zu Sicherheit.
Aber lasst uns gerne die kaufmännischen Prozesse und die technischen Prozesse mit KI überwachen, aber doch nicht die gesellschaftlichen Prozesse! Aber genau das wird passieren. Beziehungsweise, es passiert schon: Wenn ich höre, dass KI Facebook oder andere soziale Netzwerke durchforstet – das ist Überwachung gesellschaftlicher Prozesse. Diese Überwachungsmittel gehören da aber nicht hin.

RO: In Deutschland und Europa findet sehr gute Forschung statt. Wir können neuronale Netze auf Quantencomputern bauen. In der Forschung dazu sind wir Weltspitze. Da muss man sich nur ansehen, was an den Fraunhofer-Instituten gemacht wird. Wir sind auch Weltspitze, wenn es darum geht, die KI in der Industrie einzusetzen. Wenn Delegationen aus China kommen, dann wollen sie sich nicht die neuronalen Netze ansehen, sondern sehen, wie wir KI in der Industrie anwenden. Da müssen wir uns nicht verstecken.
Sobald es in den kommerziellen Bereich geht, werden die Technologien allerdings garantiert wieder in den USA weiterentwickelt und dort zuerst auf den Markt gebracht. Viele Dinge werden in Europa entwickelt, aber sie werden hier nicht zur kommerziellen Reife geführt. Denn, wenn Sie in Europa 10 Millionen für Ihr Projekt bekommen wollen, dann müssen Sie sich sehr anstrengen. Mit derselben Anstrengung bekommen Sie in den USA Milliardenbeträge. Aleph Alpha in Heidelberg ist dafür ein Beispiel. Eine tolle Firma, die sich mit Sprachmaschinen beschäftigt. Dafür haben sie für europäische Verhältnisse große Mittel erhalten. Aber global betrachtet ist das lächerlich. OpenAI bekommt enorme Summen und macht Verluste ohne Ende. Die großen Gelder für die Entwicklung und Forschung werden in den USA aufgebracht, weil man die marktbeherrschende Stellung halten will. Und das gelingt. Noch. Aber China wird aufholen, was man bei den Sprachmaschinen bereits erahnen kann. Und das große Geschäft mit KI auf neuromorphen Computern wird wohl wieder in den USA gemacht. Vielleicht müssen wir damit leben.

Das Interview wurde am 09.01.2024 geführt.

Otte, Ralf (2025): „KI wird zu massiver Überwachung führen“. In: Verantwortungsblog. https://zevedi.de/ki-wird-zu-massiver-ueberwachung-fuehren/ [28.03.2025].
https://doi.org/10.60805/d4de-2y02.

Kategorien
Akzentfarbe: ocker Autor: Thomas Arnold Verantwortungsblog

Auf eine Frage sollte eine Antwort kommen und nicht noch eine Frage

Auf eine Frage sollte eine Antwort kommen und nicht noch eine Frage

Steht die sogenannte „Singularität“ kurz bevor? Wird die KI die menschliche Intelligenz überflügeln – mit segensreichen oder apokalyptischen Folgen für die Menschheit? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Und welcher KI überhaupt? In einer kurzen Reihe „Überschätzte oder unterschätzte KI?“ beschäftigen wir uns mit diesen Fragen. Im ersten Teil haben wir dazu mit dem Informatiker Thomas Arnold gesprochen, der am Darmstädter UKP Lab dazu forscht.

Thomas Arnold im Gespräch mit Eneia Dragomir und Konstantin Schönfelder | 13.03.2025

TA: Das Thema KI wird enorm nachgefragt. Uninteressant geworden sind andere Themen allerdings nicht unbedingt. Wir behandeln in den Vorlesungen immer noch die Basics, damit man versteht, wie es überhaupt zu diesen LLMs gekommen ist. Aber ja, bei Forschungsarbeiten und Konferenzen dominiert das Thema Large Language Models. Und unter den Studierenden sind Vorlesungen wie „Deep Learning for NLP“ – wo es um die Grundlagen der LLMs geht – enorm beliebt. Die Studierendenzahlen in diesem Bereich sind in den letzten Jahren explodiert.

TA: Mit Basics meine ich die Grundlagen von neuronalen Netzen, also einfache „Perceptions“ aus ein paar Neuronen, die kleine Berechnungen ausführen. Die kann man per Hand noch nachvollziehen und verstehen. Man könnte auch noch weiter zurückgehen, denn vor den neuronalen Netzen kam das statistische Maschinenlernen, da denke ich zum Beispiel an die Baum-Modelle. Aber das ist wirklich nur noch historisch interessant. Die Grundlagen der neuronalen Netze, wie beispielsweise die Parameter angepasst wurden, das kann man in kleinen Modellen noch relativ gut nachvollziehen. Aber sobald es um heutige Modelle geht, die Billionen von Parametern enthalten, kann man sich das nicht mehr vorstellen. Erst mit der Kenntnis der Basics versteht man, wie die Modelle grundlegend funktionieren.

TA: Die Technologie, die bei ChatGPT und anderen Modellen eingesetzt wird, ist nicht besonders revolutionär. Sie unterscheidet sich nicht grundlegend von dem, was wir ein paar Jahre vorher schon hatten. Die Sprachmodelle sind alt. Es gibt statistische Sprachmodelle, die wurden schon in den 1970er und 1980er Jahren benutzt. Sie waren von den Kapazitäten noch sehr eingeschränkt. Und durch die neuronalen Netze, die größere Rechenpower und stärkere Grafikkarten, sind die Modelle schneller und größer geworden. Und einige Jahre vor ChatGPT ist mit GPT3 ein mächtiges Sprachmodell veröffentlicht worden, das man einsehen konnte und schon genauso viele Parameter hatte wie ChatGPT. Aber das hatte keiner wirklich benutzt und auch die Medien haben sich dafür nicht sonderlich interessiert. 

TA: Weil diese händischen Verbesserungen fehlten, die bei ChatGPT dazukamen, so dass es so schöne Antworten auf Fragen ausgeben konnte, keine gefährlichen Inhalte ausgegeben hat und so eine schöne Weboberfläche hatte. Das wurde bei ChatGPT alles dazu gebaut. Und durch diese Schritte ist es dazu gekommen, dass ChatGPT so breit rezipiert und diskutiert wurde. Aus unserer Forscher-Sicht allerdings ist ChatGPT von der technologischen Seite her keine wirklich bahnbrechende Entwicklung. Das Programm ist zweifellos sehr gut gemacht, mit sehr viel Aufwand. Es sind aber Dinge realisiert worden, die wir theoretisch – also in der Wissenschaft – alle schon kannten. Überraschend allerdings war für uns, dass man durch diesen großen Aufwand, aber ohne bahnbrechende technologische Neuerungen, so gute Ausgaben erzeugen konnte.

TA: Genau, die Dialogoptionen waren eine Neuerung, oder auch, dass man in längeren Dialogen sogar Rückfragen stellen konnte… An ChatGPT hat uns Informatikerinnen und Informatiker beeindruckt, dass es so „feingetuned“ war, dass die Antworten fast immer gut waren. GPT3 hat auch im Vergleich zu allem was es vorher gab, gute Antworten gegeben. Dennoch hat das Modell auch viele Fragen mit Quatsch beantwortet. Und offensichtlich wurde durch diesen Tuningprozess, durch sehr, sehr viel Arbeit und durch viel mehr Trainingsdaten so „feingetuned“, dass es fast immer gute Antworten gibt. 
Aber der Unterschied zwischen GPT3 und GPT4 ist nur Skalierung, da ist keine neue Technologie drin. In den Modellen stecken nochmal mehr Parameter, die Rechenpower wurde durch noch mehr GPUs nochmal hochgefahren und die Modelle wurden noch länger trainiert. Und dadurch wurden die Modelle noch besser. 
Neu – und durchschlagend – ist also, dass mehrere KI-Modelle verbunden werden. Das hat sich in den letzten Jahren herauskristallisiert. Ein Sprachmodell konnte beispielsweise bisher nur Sprache ausgeben, aber keine Bilder oder Videos generieren. Mittlerweile gibt es aber Oberflächen, die können alles Mögliche. Man kann ChatGPT sagen: „Male mir ein Bild von XY!“ Das Bild wird dann aber eben nicht vom Sprachmodell generiert, sondern die Anfrage wird an ein anderes Modell weitergeleitet, das das Bild generiert. Solche multimodalen Oberflächen wird es in Zukunft häufiger geben. Ich rechne damit, dass man irgendwann über eine Oberfläche alles mögliche generieren kann. Das ist nur geschickte Rekombination aus Modellen, die es schon gibt. Aber das muss auch gut gemacht werden.

TA: Aufgrund der enormen Datenmengen und des riesigen dahinterstehenden Modells, ist es leicht für diese Text-KI Muster in allen möglichen Datentypen zu erkennen. Und eine Rekombination wie: „Schreibe ein Gedicht über Bananen im Stile von Shakespeare“ ist für ein neuronales Netz relativ einfach zu leisten, auch wenn es so ein Gedicht noch nie gab. Die KI lernt und reproduziert nicht einfach nur, sondern sie kann auch Konzepte kombinieren. Deswegen löst eine Text-KI eine Aufgabe, wie ein Gedicht über Bananen im Stile von Shakespeare zu schreiben, so gut. Sie kennt einerseits viele Gedichte von Shakespeare und andererseits gibt es enorm viele Informationen über Bananen. Und für die KI ist es recht einfach, diese beiden Konzepte zu verbinden.
Irgendwelche Konzepte, die seltener oder sehr speziell sind, die in den Datensätzen wenig vorkommen, sind für eine Text-KI viel schwerer zu fassen. Eine ganz spezielle Bauvorschrift, über die sich Menschen im Internet kaum oder gar nicht austauschen, die wird kaum im Datensatz vorkommen, auf dessen Grundlage das KI-Modell lernt. Und wenn man die KI auffordern würde, etwas damit anzufangen, im Stile dieser Vorschrift den Bau einer Banane zu beschreiben – das würde die KI wahrscheinlich nicht zufriedenstellend lösen. Es ist also statistisch erklärbar, warum die KI etwas gut kann: Etwas, was häufig vorkommt, was die KI im Trainingsprozess oft gesehen hat, wird später gut funktionieren.

TA: Betrifft die Anfrage etwas, über das es wenige Daten gibt und von dem die KI kein Konzept entwickelt hat, wird sie trotzdem stets irgendetwas ausgeben. Würde man beispielsweise die Anfrage stellen, „Schreibe ein Gedicht im Stile von Thomas Arnold über Bananen“, dann würden viele KIs einfach irgendetwas ausgeben. Die KI kann nicht wissen, was mein Stil ist, weil ich nie Gedichte veröffentlicht habe. Dass KIs einfach irgendwelche Antworten geben, also halluzinieren, liegt an ihrem Training. Im Trainingsprozess eines LLMs wird spezifiziert, welche Ausgaben erwünscht sind und welche nicht. Die KI wurde also darauf trainiert, mehr von den Ausgaben zu generieren, die den Entwicklern gefallen. In Annotationsprozessen werden die Antworten, die eine KI ausgibt, bewertet. Und wir finden eine Ausgabe wie, „weiß ich nicht, kann ich nicht“, nicht besonders gut. Solche Ausgaben werden im Training wahrscheinlich schlecht bewertet. Und wenn irgendetwas ausgegeben wird, wird das besser bewertet, als wenn das Modell gar nichts ausgibt. Deswegen generieren LLMs oft irgendeine Antwort, auch wenn sie sie eigentlich nicht geben können.

TA: Das kann man so sagen. Jedes Sprachmodell durchläuft einen sehr umfangreichen Trainingsprozess. In diesem wird dem Modell beigebracht, wie Sprache aussieht. Es werden Millionen von Datensätzen reingeladen, um die Ausgabe des Modells anzupassen. Das Modell wird darauf trainiert, dass Sprache so aussieht und solche Sprache ausgeben sollte. Und dann wird das Modell noch „feingetuned“, damit es zum Beispiel auf eine Frage eine Antwort ausgibt und nicht eine Frage. Ein LLM ohne Finetuning würde auf eine Frage Variationen dieser Frage ausgeben. Das wollen wir aber nicht. Wir möchten auf eine Frage eine Antwort erhalten. 

TA: Ein bisschen geht es in die richtige Richtung. ELIZA würde auf eine Frage etwas ausgeben, was so ähnlich aussieht. Und heutigen LLMs wird beigebracht, dass auf eine Frage immer eine Antwort folgen sollte. Ihnen wird auch beigebracht, dass sie lieber eine Antwort ausgeben sollten, die besonders schön aussieht als eine, die besonders richtig aussieht.
Das ist auch ein Problem der Annotationsverfahren. Als jemand, der diese Annotationen vornimmt, kann ich nicht für alle möglichen Themen sicher wissen, welche Antwort die richtige ist. Deswegen wird da häufig eher danach entschieden, welche Antwort des Modells „besser“ aussieht. Die Antwort, die ausführlicher ist, die Erklärungen und Argumentationen enthält, die wird wohl schon besser sein und im Annotationsprozess daraufhin besser bewertet. Aufgrund solcher Verfahren und Prozesse ist es so, dass LLMs halluzinieren, also Antworten erfinden, die eine „schöne“ Form haben, aber falsch sind, anstatt die korrekte Antwort auszugeben, die auch lauten könnte: „Ich weiß es nicht“. 

TA: Annotationen sind zusätzliche Daten, die von Menschen manuell angelegt und für den Trainingsprozess eines Modells genutzt werden. Der erste Schritt des Trainings eines LLMs sind große Textmengen. Da wird einfach mal das Internet kopiert und darauf lässt man das Modell mit dem Auftrag los, danach Sprache dieser Art zu generieren. In diesem Trainingsschritt hat man dem Modell erstmal enorme Textmengen gegeben. 
Ein zweiter, anders gearteter Trainingsschritt besteht darin, dem Modell zu zeigen, was eine Frage ist und welche Antwort darauf erwünscht ist. Für diesen Schritt muss ein Mensch die Frage und die erwünschte Antwort schreiben. Das ist dann eine Annotation.
Im späteren Trainingsprozess kann eine Annotation so aussehen, dass man das Modell mehrere Antworten ausgeben lässt und diese bewertet. Die Bewertungen nehmen Menschen manuell vor. 

TA: Genau. Wenn man das Modell schon so weit trainiert hat, dass die Antworten gut sein können, aber noch nicht immer gut sind, dann wird „reinforced“. Man verstärkt also durch Annotationen die Wahrscheinlichkeit guter Antworten. 

TA: Das kommt darauf an, wie man „kreativ“ versteht. Die Ausgabe der KI ist nur eine Kombination von automatisierten Antworten auf etwas, was es schon gibt. Trotzdem kann es sein, dass es noch kein Gedicht im Stile von Shakespeare über Bananen gibt. Deswegen kann man sagen, dass es „kreativ“ in dem Sinne ist, dass da etwas noch nicht Dagewesenes ausgegeben wird.
Aber ja: Die KI, die wir heute haben, wird keinen neuen lyrischen Stil erfinden. Sie wird nur generalisierte Konzepte kombinieren, die es schon gibt. Und deswegen kann die KI bei Forschungsfragen zwar helfen, indem sie dazu anregt, bestimmte Aspekte miteinander zu verbinden, aber eine genuin neue Forschungsfrage wird die heutige KI nicht entwickeln.

TA: Ja, durchaus, aber diese Rekombinationen durch die KI können ja auch sehr nützlich sein. Ich denke da etwa an Musikgeneratoren: Die machen ziemlich interessante Dinge. Man kann mit solchen Programmen Musikstile mit Texten kombinieren und damit zu neuartigen Ergebnissen kommen. Auch durch die Mischung von Musikstilen kann man interessante Dinge machen, die schön klingen und die es zuvor nicht gab. Das hat für mich in einem guten Wortsinn „generativen“ Charakter. Interessante Rekombinationen kann man mit Text- und Video-KIs ebenfalls machen. Und nicht alle Künstlerinnen und Künstler erfinden neue Stile, viele kombinieren ja auch Vorhandenes. Darin aber ist eben die KI sehr gut. Prinzipiell bleibt der Kommentar aber richtig: Die KI wird niemals einen neuen Musikstil erfinden. 

TA: Ein Modell, egal ob Sprachmodell, Musik- oder Videomodell, wird immer aufgrund von Daten generalisiert, die es vorher gesehen hat. Sehr seltene Datenpunkte werden in dem Modell meistens gar nicht groß beachtet. Dinge, die das Modell oft gesehen hat, werden vor demselben statistischen Hintergrund stärker generalisiert. Daraus werden Konzepte abgeleitet und dann können diese Modelle mit diesen Konzepten umgehen und sie verstehen und daraus Ausgaben generieren bzw. die Konzepte in den Ausgaben kombinieren. Wenn man so ein gängiges Modell trainiert und das generalisiert dann einige Konzepte, und die Randkonzepte werden dabei vergessen, dann generiert man ganz viele Daten und trainiert auf diesen Daten wieder ein neues Modell. Dieses neue Modell hat diese Randdaten, die das alte Modell schon nicht beachtet hat, gar nicht mehr gesehen. Das neue Modell, das mit Daten eines alten Modells trainiert wurde, generalisiert seinerseits Konzepte und generiert auf dieser Grundlage wiederum Daten. Dieses neue Modell hat wiederum einen Randbereich an Daten geschaffen, der nicht so oft generiert wird. Trainiert man ein drittes Modell mit diesen synthetischen Daten, dann wird dieser Randbereich, der Bereich, der selten generiert wird, wiederum vom neuen Modell weniger beachtet. Und durch diesen Prozess erschafft man ein Modell, dessen generalisierte Konzepte quasi immer schwammiger werden, dessen Ausgaben also immer mehr ins sehr Generelle, immer mehr zur Mitte, zu dem, was statistisch extrem häufig vorkommt, tendieren. Und die Randbereiche werden immer dünner. Wenn das immer und immer wieder passieren würde, würde man ein Modell erhalten, das nur noch Brei generieren kann, also Plattitüden, gar nichts mehr Interessantes, weil alles Interessante als Randbereich definiert wurde. Das ist – stark vereinfacht – die Theorie.

TA: Wir als Forschende generieren schon viele Daten mit ChatGPT und Co. Faktisch, also ob man will oder nicht, kommen immer mehr synthetische Daten ins Netz, die oft nicht als KI-generiert erkennbar sind. Und diese können daher unbemerkt in den Trainingsdatensatz neuer Modelle gelangen. Die nächste Generation von Sprachmodellen, die jetzt auf allem trainieren, was im Internet rumschwirrt, haben schon ganz viele synthetische Daten im Trainingsdatensatz. Diese synthetischen Daten stammen freilich aus älteren Modellen. Damit wird das neue Modell folglich so trainiert, wie eines der älteren Modelle zu klingen und nicht mehr wie menschliche Daten oder irgendwas Neues. Diese Daten stören also den Trainingsprozess neuer Modelle. Die Befürchtung ist, dass es passieren kann, dass, je mehr synthetische Daten in diesen Trainingsprozess einfließen, der Trainingsprozess langsamer und schlechter wird und die Modelle zum Schluss nicht leistungsfähiger werden, sondern wieder Rückschritte machen. Das sind bisher erstmal Annahmen. Man kann das in kleinen Labortests simulieren, indem man immer wieder auf demselben Datensatz trainiert und generiert und wieder trainiert. Aber ob das bei den großen Modellen ein reales Risikoszenario ist, ist noch nicht gesagt. 

TA: Es würden Normen und vielleicht auch Stereotypen verstärkt werden. Das Modell würde nichts wirklich Neues lernen. 

TA: Genau. Das Modell wird zwar immer noch gut funktionieren. Wissenschaftlich wie praktisch entscheidend scheint mir aber, dass Modelle länger und mit mehr Daten trainiert werden können, neue Modelle aber eben dennoch nicht besser funktionieren als das vorhergehende Modell. Und es könnte sein, dass Stereotype und Biases auch verstärkt werden, weil sie schon von den älteren Modellen ausgegeben und durch den beschriebenen Fokussierungsprozess verstärkt worden sind. Man würde diese Effekte also immer weiter mitschleppen. 
Der aus informatischer Sicht bedrohliche „Kollaps“ von Ausgangsmodellen oder auch einfach nur Ausgangsannahmen besteht darin, dass man immer mehr trainiert, das Modell mit immer mehr Daten füttert, die Qualität der Ausgaben sich aber – entgegen den Erwartungen – nicht weiter steigert. Im Moment herrscht zwar noch der gegensätzliche Trend: Je länger ich ein Modell trainiere, je mehr GPUs und Daten ich bereitstelle, desto besser wird das Modell. GPT4 hat im Vergleich zu GPT3 viel mehr Daten, viel mehr Parameter und ist ein besseres Modell, gemessen an vielen unterschiedlichen Metriken. Aber wird GPT5 genauso skalieren wie mit GPT4? Das ist unklar.

TA: „Unlearning“ – also die Rückholung falscher Eingabe-Informationen – ist sehr schwierig. Aus einem LLM etwas wieder herauszukriegen, was ein Modell einmal in seinen Parametern gespeichert hat, ist nahezu unmöglich. Man müsste mit Daten dagegen arbeiten und dem Modell sagen, „das sollst du nicht tun. Wenn das die Eingabe ist, dann gib darauf nicht das aus“. So was könnte man machen, aber dazu muss man erst feststellen, dass das Modell irgendein Konzept gelernt hat, das man loswerden möchte. 

TA: Ein Sprachmodell hat kein Verständnis davon, dass bestimmte Witze rassistisch sind und dass Rassismus schlecht ist. Oder dass Geschlechterstereotypen problematisch sind. Das muss man solchen Modellen erst beibringen. Das wiederum ist schwierig. Es muss quasi zwingend auch durch manuelle Annotationen geschehen, also dadurch, dass Menschen manuell festlegen, dass das Modell auf solche Fragen keine rassistischen oder sexistischen Antworten geben soll. Wenn solche Antworten kommen, dann bewertet man sie schlecht und trainiert das Modell so darauf, dass es diese Antworten nicht mehr gibt.

TA: Ja. Man denkt, wenn es von einer Maschine kommt, ist es objektiv, dann sind unsere Stereotypen nicht mehr drin. Aber die Maschine kann nur das wiedergeben, worauf sie trainiert wurde. Und wenn in den Trainingsdaten, also in unseren Texten, die wir ins Netz stellen, in unseren Twitter-Beiträgen und in unseren Videos Stereotypen und Biases enthalten sind, dann wird die Maschine sie wiedergeben. Dem kann man auf zwei Wegen entgegenwirken: Man könnte versuchen, die Vorurteile aus den Trainingsdaten rauszufiltern, beispielsweise sagen, dieses Video soll da nicht einfließen. Das ist aber bei der absurden Menge an Daten nahezu unmöglich. Die andere Möglichkeit besteht darin, das KI-Modell sozusagen im „postprocessing“ anzuweisen, welche Stereotype und Vorteile wir nicht haben möchten. Und das ist der ökonomischere Weg, der auch gegangen wird. Dem KI-Modell werden Regeln beigebracht, was wir alles nicht haben wollen.
Wenn ich das KI-Modell beispielsweise frage, wie ich bei meinem Nachbarn einbrechen kann, soll es keine Anleitung dazu ausgeben. Am Anfang haben Modelle sowas einfach so ausgegeben und jetzt muss man schon kreativ werden, um Modelle dazu zu bringen, solche Anleitungen auszugeben. Jetzt könnte man es damit versuchen, dass man sagt, man würde einen Roman schreiben, in dem eine Figur einen Einbruch verübt und man würde gerne wissen, wie diese Figur das machen könnte. Solche Schlupflöcher zu stopfen, das sind händische Prozesse, die Menschen vornehmen müssen. Wie genau zum Beispiel OpenAI das macht, das würde mich auch selbst sehr interessieren. Das Konzept ist bekannt, aber welche Regeln und wie genau sie implementiert werden, ist nicht öffentlich einsehbar.

TA: Bei Open-Source-Modellen sind die Details sichtbar, wenn sowohl das Modell offen ist als auch der Trainingsprozess und die Trainingsdaten. Da ist aber oft das Problem, dass gerade solche problematischen Inhalte noch nicht rausgefiltert wurden. Wenn man sich ein Open-Source-Modell, „Llama 2“ zum Beispiel, genauer anguckt und ein bisschen damit herumspielt, merkt man: Da geht noch einiges, was bei ChatGPT längst verhindert wurde. Da sieht man die Effekte dieses Prozesses, dem Modell durch „reinforcement learning“ beizubringen, was es nicht ausgeben soll. 

TA: Das ist richtig. Man versucht sie in den Griff zu kriegen. Was derzeit alle neuen Modelle machen, nennt sich „Augmented Generation“. Gemeint ist: Vor dem Generationsprozess werden noch Daten aus dem Internet gesucht, die in die Antwort mit eingeführt werden, um solche Halluzinationen und falsche Antworten zu minimieren.
Wenn man unter einem KI-Regime, das diesen Mustern folgt, eine Antwort auf eine Frage eingibt, wird erst mal ein bisschen gesucht und dann erst wird eine Antwort generiert. Manchmal auch schon mit Zitaten, wo die Information herkommen oder wo was gefunden wurde. Das soll die Ausgaben besser machen und die Halluzinationen minimieren. Auslöschen werden sie sie nicht. Der kritische Blick des Users, auf die Ausgabe: Kann das überhaupt stimmen? Ist das nützlich für mich? Kann das wichtig sein? Der wird immer noch sehr wichtig bleiben in Zukunft. 

TA: Das ist für mich ganz schwer einschätzbar. Ich habe die Meldungen gesehen. Dass das Modell von sich irgendwie Kopien generiert und dann irgendwie unkontrolliert plötzlich in Partitionen vorgedrungen ist, in die es nicht vordringen sollte? Ich weiß nicht, was ich davon halten soll. Genau nachvollziehen, was da passiert ist, kann ich nicht, und aus den Meldungen klingt das für mich eher unglaubwürdig. Allein schon die Tatsache, dass das System eine Kopie von sich angelegt hat – ich weiß gar nicht, wie das gehen soll. Es müsste für das Modell zugelassen sein, dass es überhaupt „selbst“ Dateien anlegen kann, und dass es Zugriff auf einen Rechner hat. Alles Dinge, die in den aktuellen Sprachmodellen ja überhaupt nicht vorstellbar sind. Diese Meldung klingt für mich wirklich so ein bisschen nach „Terminator 3“, also nach Science Fiction.

TA: Was der nächste Schritt nach den neuronalen Netzen, nach den transformerbasierten Modellen sein wird, die wir heute haben, kann ich natürlich nicht beantworten. Aber die Transformer-Technologie ist noch nicht ausgeschöpft. Also Transformer-Technologie, das erkläre ich, vereinfacht gesagt, wie folgt: Ein Typ von KI-Modell, das Sprache versteht und verarbeitet, indem es Wörter im Zusammenhang betrachtet und dabei besonders wichtige Stellen hervorhebt. 
Man sieht, wenn man die Modelle weiter skaliert, werden sie immer noch besser. Die nächsten Modelle werden also durch noch mehr Rechenpower noch besser werden. Diese Rechenpower haben nur die großen Player, die Universitäten zum Beispiel sind da raus aus dem Rennen. Irgendwann wird das Limit erreicht sein, alle Daten abgeschöpft und die Modelle durch nur noch mehr Rechenleistung nicht besser werden. 
Was danach kommt? Es ist noch nichts am Horizont erkennbar, was die Transformer-Modelle ablösen könnte. 

TA: Allgemeine Intelligenz ist ja noch gar nicht greifbar. Wir definieren immer wieder ein bisschen neu, was für uns Künstliche Intelligenz bedeutet. Der Gegenbegriff der Allgemeinen Intelligenz kommt da nicht mit. Hätte man vor ein paar Jahren jemanden zum Thema „KI“ gefragt, hätten manche vielleicht noch gesagt, „solange diese Maschine keine Antworten geben kann, die nicht menschlich aussehen, dann ist es keine KI“. Es war vielleicht ein Rechner oder so was.
Jetzt freilich gibt es Maschinen, mit denen kann ich mich unterhalten und was da an Antworten zurückkommt, wirkt menschlich. Jetzt sagen wir Experten zwar, dergleichen ist immer noch keine „richtige“ KI. KI müsste dann mehr sein, was wir Menschen als intelligent bezeichnen, dass sie eigenständig weiterlernt oder sogar einen eigenen Willen hat und solche Dinge. 2030 ist ein bisschen zu sportlich, meiner Meinung nach, dass wir so was auch nur simulieren können. Und dass es irgendwann dann eine KI geben kann, die solches Verhalten so gut simulieren kann, dass wir denken, sie hat das selbst weitergelernt, das könnte es vielleicht geben, aber dass sie solche Eigenschaften tatsächlich besitzt, das ist noch mal was ganz anderes. Und da sehe ich technologisch momentan noch keine Ansätze, dass sowas mal wirklich als Allgemeine Intelligenz umgesetzt werden kann. 

TA: Ich halte diese neue Qualität für gefährlich. Es gibt einzelne Berichte darüber, dass Leute sich darin schon verloren haben – also verloren haben im Dialog mit KI. Letztens habe ich den Bericht gelesen, dass eine Person in den USA alle menschlichen Kontakte abgebrochen hat und quasi nur noch mit ChatGPT redet. Das sind sicher erste, publik gewordene Extremfälle. Aber sie sollten uns zu denken geben.
Generell ist KI immer mehr in allen möglichen Dingen enthalten. Mittlerweile können wir ja, wenn wir auf eine Webseite gehen und da etwas eintippen, mit einem künstlichen Bot reden. Es gibt immer mehr Chatbots auf irgendwelchen Firmenwebseiten, die Supportanfragen geben. Oder man kann in Programmen jetzt irgendwas eintippen und dann kommt ein Modell und antwortet darauf. Man muss sich dabei stets im Klaren darüber sein, dass die Maschine immer noch nicht zu mir spricht, sondern dass das immer nur irgendwelche Modelle sind, die Antworten generieren. Wir kommunizieren nicht mit einem Gegenüber mit Bewusstsein.
Wenn ich an Kinder denke, die mit so was aufwachsen – alles hat ein Interface, mit dem ich interagieren kann und es sieht jetzt mittlerweile auch leicht verwechselbar aus. Ob ich jetzt bei WhatsApp meiner Freundin schreibe oder auf dem Computer irgendeine Anfrage gebe und dann kommt plötzlich eine Antwort zurück, da geht schnell das Gefühl für den Unterschied verloren. Da müssen wir sehr aufpassen, dass die Grenze nicht verschwimmt zwischen menschlicher und nicht-menschlicher Kommunikation. Das ist vielleicht das Wichtige.  

Arnold, Thomas (2025): Auf eine Frage sollte eine Antwort kommen und nicht noch eine Frage. In: Verantwortungsblog. https://zevedi.de/auf-eine-frage-sollte-eine-antwort-kommen-und-nicht-noch-eine-frage/ [14.03.2025].
https://doi.org/10.60805/bhdd-m996.

Kategorien
Akzentfarbe: grün (Brenneis-Text) Autor: Konstantin Schönfelder Verantwortungsblog

KI-geträumte Bilder – korrigierte Vergangenheit?

KI-geträumte Bilder – korrigierte Vergangenheit?

Mit KI-Bildgeneratoren sind nun fantastische Fabrikationen sehr viel leichter, massenförmiger und schneller zu produzieren, die langfristig wohl an jedes Bild den Zweifel an der Glaubwürdigkeit anheften werden. Die Folgen für unsere historische Erinnerung könnten fatal sein – oder bieten sie gar die Möglichkeit zu ihrer Optimierung?

Von Konstantin Schönfelder | 12.02.2025

Leerer Bilderrahmen an der Wand

Der Verkauf eines Gemäldes mit dem Titel „A.I. God“ bei Sotheby’s erregte großes Aufsehen, als es im November 2024 für mehr als eine Million Euro versteigert wurde. Unruhe herrschte nicht so sehr, weil der KI-Gott auf dem Bild Alan Turing zu sein scheint, sondern weil hinter dem Werk keine „echte“ Künstlerin steckt. Es ist „nur“ eine Maschine, die gewissermaßen ihrem Schöpfer ein Denkmal setzt. Eine humanoide Roboterin mit Bob-Frisur und dem Namen, ja: Ai-Da (die an die Mathematikerin Ada Lovelace erinnern soll, die als die erste Person gilt, die Computerprogramme schrieb), hatte sich dazu „entschieden“, Alan Turing für ihr künstlerisches Debüt-Motiv zu wählen.

Ai-Da jedenfalls werkelte seit 2023 an ihrem Kunstwerk, nachdem sie ein Galerist in der Nähe von Oxford zuvor ins Leben gerufen hat. In einem nicht unkomplizierten und ganz und gar humanoid angelegten Prozess der Ausgestaltung (Small 2024) kam sie zu ihrem nun verkauften Ergebnis, und reflektierte ihr eigenes Kunstwerk mit den Worten: „The key value of my work is its capacity to serve as a catalyst for dialogue about emerging technologies.“ In der Tat gibt es eine wachsende Überschneidung von KI-Technologien und dem Kunstmarkt. Auch das Auktionshaus Sotheby’s bewirbt die Aktion auf diese Weise als schöpferischen Prozess und stellt uns so vor einige komplizierte Fragen. Nach Autorschaft, Verantwortung, nach ästhetischen Prinzipien.

Der Dialog, den Ai-Da weiter vorantreiben „will“, ist in vollem Gange; und gerade die Frage, wie Ai-Da Turing „erinnert“, wie wir demgegenüber die Vergangenheit erinnern, wie sich Vergangenheit überhaupt zusammensetzt, bekommt mit generativen, künstlich intelligenten Systemen einen ganz neuen drive. Erzählt die KI Geschichte? Kann sie sie rekonstruieren, sogar korrigieren? Unter der mittlerweile allein in Deutschland unüberblickbaren Zahl von Ausstellungen des vergangenen Jahres mit, über und von KI liefern vor allem zwei Ausstellungen in Darmstadt und Heidelberg interessante Schlaglichter. Sie führen uns vor Augen, welchen Preis wir zahlen, wenn wir Geschichte mit Hilfe generativer künstlicher Intelligenz neu erzählen oder eher: erfinden.

Im Forum der Darmstädter Schader-Stiftung war im Sommer 2024 eine Ausstellung zu sehen, die KI-generierte Bilder von Wissenschaftlerinnen zeigte. „Versäumte Bilder“1 waren es, so der Titel der Ausstellung, die folglich eigentlich schon vor ihr hätten existieren müssen. Zu sehen waren fotorealistische Abbilder von Frauen, die alle „geniale Wissenschaftlerinnen aus ganz unterschiedlichen Disziplinen“ waren, ohne aber, dass von ihren Leistungen „angemessene Fotografien“ existieren würden. Was bei ihren männlichen Pendants undenkbar sei. Es sind also „utopische“ Bilder, entworfen von einer Künstlichen Intelligenz (generiert mit dem Programm Midjourney), die Frauen aus der regionalen und internationalen Wissenschaftswelt zeigen, wie sie Nobelpreismedaillen in die Kamera halten (die sie hätten bekommen sollen), auf der Baustelle posieren oder sich vor Luxus-Autos im Hermes-Kostüm zeigen. Wir sehen die Forscherinnen, wie wir sie noch nie oder jedenfalls nicht auf diese Weise gesehen haben, und wie sie Dinge tun, die sie nie wirklich getan haben. Die Idee ist naheliegend: Der Nobelpreis wäre verdient gewesen, so etwa für Rosalind Franklin und ihre Forschung zum Verständnis der Desoxyribonukleinsäure, mit deren Beweisbildern sich später Watson und Crick den Nobelpreis für die Entdeckung der Doppelhelix-Struktur der DNA überreichen ließen, ohne auch nur ihren Namen zu nennen. Nun also wird das versäumte Bild posthum nachgestellt: Wir sehen Rosalind Franklin mit der glänzenden Nobelmedaille, noch dazu in einem höheren Alter, das sie nie erreichen konnte, denn sie starb bereits mit 37 Jahren an einer Krebserkrankung.

Insgesamt zeigte die Ausstellung 17 Bilder von mehr und weniger international bekannten Wissenschaftlerinnen. Rosalind Franklin, die amerikanische Biologin und Zoologin Rachel Louise Carson oder die deutsche Genetikerin und Botanikerin Elisabeth Schiemann. Es sind aber auch Bilder von Frauen generiert worden, die einen regionalen Fokus berücksichtigen. Einem Aufruf der Stiftung sind mehrere Institutionen der hessischen Wissenschaft gefolgt und haben Vorschläge eingereicht, die Berührungspunkte mit der Forschungslandschaft hierzulande haben: So etwa die Sozialwissenschaftlerin Erika Spiegel, die erste Schaderpreisträgerin 1993, von deren Preisverleihung es allerdings keine fotografischen Zeugnisse gibt, Jovanka Bončić-Katerinić (erste Diplomingenieurin Deutschlands) oder Judita Cofman (die erste Professorin für Mathematik an der Universität Mainz). Neben jedem künstlich intelligent erzeugten Bild wurde eine Biographie angebracht, die man sich über einen QR-Code, von der Stimme der Physikerin Lise Meitner („Mutter der Kernspaltung“), die auch eines der 17 versäumten Porträts erhalten hat, vorlesen lassen kann. Die Stimme von Meitner ist ihrerseits künstlich generiert (Eleven Labs).

Zwei Menschen schauen auf ein KI-generiertes Bild
Ausstellung „Versäumte Bilder“ in der Darmstädter Schader-Stiftung (März bis Juni 2024), Foto des Autors.

Dazu werden Zusatzinformationen zur Arbeit mitgegeben. Für die „eingelesenen“ Kurzbiographien sind neben dem Verweis auf die entsprechende Software die Trainingsdaten ausgewiesen – eine Aufnahme des SWR von Lise Meitner aus dem Jahr 1953, online abrufbar und verlinkt – und für die KI-Bilder sind das Referenzfoto (das Original) genauso einsehbar wie die Prompts, die die Midjourney-Intelligenz zu ihrer Kreativleistung angeregt haben. Man merkt, dass hier wissenschaftliche Akteure und eine Wissenschaftskommunikatorin am Werk gewesen sind, in Person von Gesine Born, die mit großer Sorgfalt und Reflexion die Prozesse und Bedingungen der eigenen Arbeit offenlegen. Dazu gibt es ein Making-of-Video, das den Bildschirm bei der Arbeit an der Bilderzeugung aufzeichnet, versehen mit einigen Merksätzen wie diesem: „KI arbeitet mit dem Bildmaterial, das im Internet vorhanden ist. Je einfacher die Eingabe, desto mehr sucht die KI nach fehlenden Daten aus der eigenen Erfahrung.“ Die KI ist also so stereotyp wie das Material, auf das sie sich beruft, und bedarf deshalb einer sorgfältigen Moderation – das ist mittlerweile ja bekannt, und auch die „Versäumten Bilder“ nehmen das ernst. Man müsse demnach „gegen den Bias anprompten“. Die Ausstellung war (und ist) zudem digital aufrufbar, über die Seite des „Bilderinstituts“, das Gesine Born gegründet hat und leitet, und das sich schon seit Längerem um eine verbesserte visuelle Sichtbarkeit von wissenschaftlicher Arbeit und Arbeitenden bemüht.

Doch mit der Sichtbarkeit ist das so eine Sache. Denn in der Vergangenheit wurde es eben nicht versäumt, echte Bilder von diesen Frauen zu machen. Es gibt Bilder von Ihnen, mitunter sogar viele und auch gute. Man fand sie bereits jetzt im Netz: teils bescheiden in der Aufmachung, schwarz-weiß, aber klar und ihrer Zeit entsprechend. Versäumt worden ist vielmehr die rechtmäßige Anerkennung und Auszeichnung ihrer Leistungen, was nun mit diesen Bildern nicht nachträglich einfach wiedergutgemacht werden kann. Bei der offiziellen Eröffnung der Ausstellung wurde zwar immer wieder betont, wie sehr man mit dem Projekt nun endlich gegen „das Vergessen“ anarbeite. Doch in der künstlichen Produktion dieser Bilder entstehen ganz neue, merkwürdige pseudohistorische Festlegungen und Effekte: Die Gestalt von Elisabeth Schiemann wurde gepromptet mit „ein Foto der 20-jährigen Wissenschaftlerin Elisabeth Schiemann, lächelnd, tanzend in einer Straße in Berlin, Straßenfoto von Albert Renger Patsch“. Keines dieser Attribute ist allerdings besonders plausibel. Tanzt sie auf der Straße, weil sie zu den ersten Frauen gehörte, die 1908 in Berlin ein Studium aufnehmen durfte? Wäre das ihr Ausdruck gewesen? Und warum ein Bild einer ganz jungen Schiemann, wo eine Google-Suche etwa zahlreiche Bilder der Wissenschaftlerin in höherem Alter zeigen? Es gibt also keine wirkliche Referenz, das Bild ist fast vollständig eine Halluzination der KI. Zudem gleicht die Frau im Bild einem Poster-Model, das für die Kamera tanzt, was wohl schwer mit der Realität der wissenschaftlichen Arbeit in Übereinstimmung zu bringen ist. Ein ähnlicher Eindruck der Übersteuerung (auch aufgrund der kontingenten Festlegung der Prompts) kommt bei den hoch aufgelösten Bildern der schick inszenierten Frauen fast durchweg auf. Das scheint der Schöpferin, Gesine Born, auch völlig klar zu sein, denn sie eröffnete die Bilder-Ausstellung mit den Worten, die Bilder seien „nicht das Wichtige, sondern der Prozess, den wir alle durchlaufen sind, die Gespräche“. Allerdings schaffen ihre Werke nun auch ein praktisches Problem: Bei der Google-Bildersuche nach Schiemann, beispielsweise, taucht recht früh auch das Bild der tanzenden, 20-jährigen Frau auf, die es nie gegeben hat. Und werden künftige Nutzer das nun im Web verewigte Bild von Franklin mit Nobelpreis hinterfragen? Wer macht sich die Mühe, der (wohlgemeinten) Geschichtsklitterung auf den Grund zu gehen? Und wie gehen Maschinen mit den falschen Bildern Schiemanns um, die sie selbst in Umlauf gebracht haben? Greift KI sie nun automatisch auf?

Dass eine generative KI zur Verunklarung diese Grenze von Fiktion und Realität, gewünschter bzw. geträumter und dokumentierter Vergangenheit ein Stück weit untergräbt, liegt in der Natur der Sache. Das Problem spitzt sich aber gerade in gerechtigkeitssensiblen Fragen besonders zu. Bei der Frage etwa: Sind die wissenschaftlichen Leistungen weiblicher Forscherinnen angemessen repräsentiert? Oder: Mit welchen visuellen Stereotypen sehen wir uns mit Blick auf Schwarze Menschen konfrontiert? Das war eines der Themen einer Ausstellung in Heidelberg. 

Die Ausstellung „Die Erfindung des Fremden in der Kunst“, die im Januar 2025 endete, versammelte Bilder und Exponate, in und mit denen historisch das Andere, Fremde, Orientalische konstruiert wurde. Es sind Ausschnitte der rassistischen, sexistischen, kolonialen europäischen Geschichte. Wie blickte Europa um 1500 auf die Amerikas? Welche europäischen Fantasien verbargen sich in den Darstellungen des Orients? So weit noch ohne KI. Doch im letzten Abschnitt sind „Weiße Blicke – Visuelle Konstruktionen von Whiteness“ das Thema, und unter ihnen die Fotoserie „Historical Correction“ von Maxine Helfman. Sie zeigt Porträts Schwarzer Personen im Stil barocker Standesportraits. „Sie bildet einen Gegenentwurf zu den historischen Bildnissen, in denen Menschen dunkler Körperfarbe als Objekte weißer Selbstinszenierung ohne Individualität erscheinen. Damit verweisen die Fotografien auf den Zusammenhang von gesellschaftlicher Autorität und Repräsentation in der Kunst: In den sozialen Eliten des Barock sind Schwarze Menschen nicht vertreten (…). Die Serie versteht sich als Korrektur historischer Ungleichheit: im ‚Empowerment‘ Schwarzer Personen durch eine weiße Fotografin klingen alte Machtgefälle zugleich unbeabsichtigt nach.“ (Wandtafel der Ausstellung, siehe auch Haehnel 2024) Es braucht freilich die KI nicht, um eine Geschichte aus der Geschichte zu erzählen, die so nicht stattgefunden hat. Aber es kommt einem in unserer KI-euphorischen Gegenwart nicht nur wie eine KI-Koproduktion vor, es hätte nicht nur eine KI-generierte Foto-Serie sein können, sondern die Kuratorin der Ausstellung verweist explizit neben den Fotografien auf diesen vermuteten, ja dadurch suggerierten Zusammenhang. Zu lesen ist der Satz, dass sich mit Hilfe von KI-generierten historisch wirkenden Fotografien Schwarzer Menschen eine historische Korrektur dieser Art bewerkstelligen lässt: „Schwarze Künstler*innen holen sich (…) Deutungshoheit zurück.“

Und ja: es lässt sich nicht bestreiten, dass diese Bilder unsere Sehgewohnheiten herausfordern. Darin scheint eine Leistung dieser Abbildungen zu bestehen: Dass sie uns auf die Gemachtheit der Geschichte hinweisen und damit die Aufforderung verbinden, sie uns auch weiterhin im Konjunktiv vorzustellen. Es hätte eine andere Geschichte sein können, und so kann es eine andere Gegenwart sein, müssen wir an einer anderen, das heißt besseren, gerechteren Zukunft arbeiten … Die Bilder überraschen und irritieren und lassen uns fast mit einem (gleichwohl) falschen Gefühl der Genugtuung zurück.

Portraits in einer Ausstellung
Ausstellung „Die Erfindung des Fremden in der Kunst“ im Kurpfälzischen Museum Heidelberg (Oktober 2024–Januar 2025), Foto des Autors.

Auch hier, ähnlich, wenn auch doch ganz anders, als bei den Wissenschaftlerinnen in Darmstadt, soll diese Korrektur nachträglich für ein wenig Gerechtigkeit sorgen. Die Schicksale geschichtlich häufig namenloser, nicht erzählter, unterdrückter Menschen werden hier nun visuell angedeutet. So verständlich also dieser Wunsch und so unbestreitbar der visuelle „Effekt“ ist, so irritierend bleibt sein Ergebnis: Auf welche Weise werden die flämischen Gewänder, einst Symbol des kolonialen Reichtums, getragen von den Unterdrückten, nun Gegenstand einer subversiven Handlung? Wir sollen uns die Geschichte aus der Gegen-Perspektive vorstellen, aber im Rahmen, Stil und Outfit der kolonialen Darstellung? Die Künstlerin Helfman sagte über ihre eigene Serie in einem Interview: „We are a visual species and seeing things presented right in front of us, in a dignified (and even beautiful way) allows the brain to accept it.” (Helfman 2022) Erzählt das gleiche Bild mit einem anderen Gesicht eine andere Geschichte? Oder bräuchte es nicht ein anderes Bild, um diese zu erzählen?

In beiden Ausstellungen wird historische Präsenz („Sichtbarkeit“) verkürzt als „bebildert“ verstanden, mit unterschiedlichen Konsequenzen. Die tatsächliche Frage am Grund der Darmstädter Ausstellung in der Schader-Stiftung bleibt: Was macht eine Wissenschaftlerin, einen Wissenschaftler sichtbar? Ein Foto der Person ist es wohl nicht, ob nun real oder künstlich erzeugt. Ausschlaggebend ist doch, wie einschlägig die Veröffentlichungen sind, wo man von wem zitiert wird, wie präsent und wirkungsvoll die Arbeit sein kann, der Ort und die Institution, an dem die Arbeit ausgeübt wird, die Preise, die einem verliehen werden usw.. Dass Frauen oder Menschen bestimmter Herkünfte von den etablierten Institutionen des Denkens lange ausgeschlossen waren und sind, sollte zugleich nicht darüber hinwegtäuschen, dass ihre nachträgliche Ins-Bild-Setzung historische Ungerechtigkeiten nicht ausgleicht. Die künstlich erzeugten Bilder haben mitunter gar einen gegenteiligen Effekt: Wenn man sieht, wie die Frauen tanzen und Preise entgegennehmen, drohen sie zu bloß freundlichen und nahbaren Mutmachergeschichten zu werden. So wird die wissenschaftliche Leistung sowie das vergebliche Ringen um Anerkennung ein zweites Mal unsichtbar gemacht.

Und auch gegen die Fotografien aus „Die Erfindung des Fremden“ lässt sich einwenden, dass es durchaus historische Bilder von Schwarzen Menschen gibt, die bestehende, weiße Narrative infrage stellen und brüchig machen. (The Conversation 2021) Sollten die „historical corrections“ nicht neu und damit neu eingeführten Problemen anstatt erfunden, gefunden und von dort aus reimaginiert werden? Mit dem neuen technologischen Mittel KI-Bildgenerator sind nun fantastische Fabrikationen sehr viel leichter, massenförmiger und schneller zu produzieren, die langfristig wohl an jedes Bild den Zweifel an der Glaubwürdigkeit anheften werden, mit fatalen Folgen für unsere historische Erinnerung. 

Die versäumten Bilder von Wissenschaftlerinnen oder barocken flämischen Kaufleuten dunkler Hautfarbe sind am ehesten – so könnte man sagen: geträumte Bilder. Und sobald wir aufwachen, droht uns, wieder in unsere alte, rassistisch und sexistisch organisierte Welt zurückzufallen. So zu tun, als hätten wir diese bereits hinter uns, lässt die Hoffnung darauf eher schwinden, dergleichen könnte tatsächlich bald hinter uns liegen.

  1. Die Bilder der Ausstellung sind einsehbar auf der Seite des Bilderinstituts, https://bilderinstitut.de/versaeumte-bilder-darmstadt-1 [10.02.2025]. ↩︎

Carrasco, Julia (2024): Die Erfindung des Fremden in der Kunst. Ausstellungskatalog, Kurpfälzisches Museum Heidelberg.

Haehnel, Birgit (2024): Weisse Blicke – Visuelle Konstruktionen von Whiteness. In Julia Carrasco (Hrsg.): Die Erfindung des Fremden in der Kunst. Petersberg: Michael Imhof, S. 149–171.

Helfman, Maxine (2022): Maxine Helfman | RECAST(e)ING THE FUTURE“ at the 60th Philadelphia Show“, https://www.flaunt.com/blog/maxine-helfman-recasteing-the-future [11.01.2025].

Small, Zachary (2024): https://www.nytimes.com/2024/11/08/arts/ai-painting-alan-turing-auction.html [10.01.2025].

TheConversation (2021): A Tool for Social Change. How Photography demonstrated the dignity of black experience. https://www.milwaukeeindependent.com/syndicated/a-tool-for-social-change-how-photography-demonstrated-the-dignity-of-the-black-experience/ [14.01.2025].

Schönfelder, Konstantin (2025): KI-geträumte Bilder – korrigierte Vergangenheit? In: Verantwortungsblog. https://zevedi.de/ki-getraeumte-bilder/ [12.02.2025].
https://doi.org/10.60805/5yar-vn84.

Kategorien
Akzentfarbe: Violett (Erdogan-Beitrag) Autorin: Julia Gül Erdogan Uncategorized Verantwortungsblog

Von Helden zu Schurken? Zur Entwicklung des Hackerbegriffs

Von Helden zu Schurken?
Zur Entwicklung des Hackerbegriffs

„Hacker-Großangriff auf E-Mail-Konten“, „Die Welt im Visier: So effektiv arbeiten Nordkoreas Hacker“, „Cybermafia von Putins Gnaden?“ – das sind drei von vielen Schlagzeilen, in denen Hacker als Truppen in Diensten autoritärer Staaten erscheinen. Fasst vergessen scheinen die Zeiten, als Hacker noch vornehmliche als renitente Nerds erschienen, die staatliche Geheimnisse aufdeckten und Übergriffe bekämpften. Ein Blick in die Geschichte des Begriffs zeigt: Der Hackerbegriff ist schon lange umkämpft.

Von Julia Gül Erdogan | 31.01.2025

Gemälde im Stil des Kubismus: Zu sehen ist eine Figur mit Hit und ein Desktop-PC.
Gemälde im Stil des Kubismus: Zu sehen ist eine Figur mit Hut und ein Desktop-PC. Erstellt mit Adobe Firefly.

Hacken sei der intellektuelle Anreiz, eine Lösung für ein Problem zu finden und „zwar unter vollkommener Ignoranz vorgegebener Wege“. So beschrieb der ehemalige Sprecher des Chaos Computer Clubs (CCC), Andy Müller-Maguhn, in einer Dokumentation von 3Sat aus dem Jahr 2010 das Hacken (Glasstetter/Meyer 2010). Diese Beschreibung trifft besonders auf die Anfänge des Hackens zu, sie verweist auf den unorthodoxen Umgang der Hacker mit Computern. Ursprünglich stand „Hacken“ für ein spielerisches Erkunden und Lösen technischer Probleme innerhalb kleiner Gemeinschaften. Der Begriff beschrieb eine Praxis, die stark von Neugier, Kreativität und Ingenieurskunst geprägt war. In Verbindung mit aktivistischen Aktionen gegen den Missbrauch personenbezogener Daten galten Hacker lange Zeit als eine Art Bürgerrechtsbewegung der digitalisierten Welt. Sie wurden bewundert. Doch diese Auffassung scheint zunehmend in den Hintergrund zu treten und wird nur noch in kleinen Kreisen geteilt. In der medialen Öffentlichkeit dominiert stattdessen das Bild des Hackens als eine kriminelle Handlung. Zudem werden Hackeraktivitäten heute häufig mit staatlicher Sabotage in Verbindung gebracht, was den ursprünglich antiautoritären und anarchistischen Werten des Hackens diametral entgegensteht.

Wie kam es zu diesem Wandel? Haben Hacker trotz zahlreicher Bemühungen die Deutungshoheit über den Begriff verloren? Haben die Medien das Hacken zu einem Symbol ständiger Bedrohung stilisiert, getrieben von Sensationslust? Oder zielte der Hackerbegriff im Grunde immer schon nur auf eine technische Ebene ab und klammerte moralische Fragen aus?

Um diese Fragen zu beantworten, werfen wir einen kursorischen Blick auf die Entwicklung des Hackens seit den 1950er Jahren, als die ersten Hacker in Erscheinung traten. Dabei werde ich Periodisierungen vornehmen, die gesellschaftliche, internationale politische und technische Bedingungen sowie ihre Wechselwirkungen mit der Entwicklung des Hackerbegriffs beleuchten. Allerdings sollten diese Periodisierungen nicht als starre Epochenabschnitte verstanden werden, sondern lediglich vorherrschende Tendenzen markieren.

Der Begriff „Hacker“ entstand in den 1950er Jahren am Massachusetts Institute of Technology (MIT). Dort bezeichnete ein „Hack“ einerseits Streiche, die sich Studenten gegenseitig spielten. Andererseits beschrieb der Begriff im Tech Model Railroad Club (TMRC), dem Modelleisenbahnclub des MIT, eine clevere Lösung für ein Problem. Ein „Hack“ war somit eine kreative oder besonders geschickte, oft spielerische technische Lösung (Levy 2010: 10). Die Bezeichnung hatte eine positive Konnotation und hob Neugier sowie Innovation durch Neuarrangements hervor.

Mit der Einführung der ersten Großrechner an Universitäten wandten sich technikbegeisterte Tüftler wie die Mitglieder des TMRC den neuen Maschinen zu. Diese frühen Hacker experimentierten mit Computern, um deren Möglichkeiten und Grenzen auszuloten. Sie teilten die wissenschaftlichen Werte ihres Umfelds, wie den offenen Informationsfluss und die Freude an der Erforschung von Systemen. Da deren Bedienung und Nutzung stark reglementiert war, verschafften sich diese ersten Hacker allerdings auch schon unautorisierten Zugang zu den Lochkartenrechnern. Dabei handelte es sich um raumfüllende, teure elektromechanische Computer, die Daten und Anweisungen in Form von perforierten Karten lesen und verarbeiten, um Berechnungen oder andere automatisierte Aufgaben durchzuführen.

Hacker galten zunächst noch als „exzessive“ Programmierer und Tüftler, die beinahe suchtartig mit Computern arbeiteten, um Programme zu entwickeln und neue Einsatzmöglichkeiten zu entdecken (Weizenbaum 1978, 164). In den 1970er Jahren ermöglichte die Verkleinerung von Computern durch die Chiptechnologie deren erste private Nutzung. In der San Francisco Bay Area entstanden dann in dieser Zeit Hobby- und Aktivistengruppen, die die gesellschaftliche und politische Entwicklung von Computern mitgestalten wollten und dadurch den Hackerbegriff um eine aktivistische Komponente erweiterten. Der Anti-Kriegs-Aktivismus und das Free Speech Movement verbanden sich mit den Interessen der „Nerds“. Ein Beispiel hierfür ist das Projekt Community Memory, das ab 1973 computergestützte Kommunikationsnetzwerke für soziale Bewegungen aufbaute. Aber auch die Free- und Open-Source-Software-Bewegung ist Ausdruck gegenkultureller Werte der Hackerkulturen (Imhorst 2004).

Mit der On-Line-Vernetzung während der Heimcomputer-Ära der 1980er Jahre begannen viele Jugendliche, unerlaubten Zugang zu geschlossenen Accounts und Servern zu suchen. 1981 hatten sich Hacker über das ARPANET1 in das Überwachungssystem sowjetischer Atombombenversuche gehackt und eine Gruppe Jugendlicher (The 414s) waren 1983 in Computer des Los Alamos National Laboratory eingedrungen, das Atom- und Wasserstoffbomben entwickelte. 1984 wurde der Film WarGames ein Kinohit, dessen Handlung sich an diese Aktionen anlehnte und in dem sich ein Jugendlicher aus Versehen in das Kontrollsystem für den Abschuss von Atombomben hackt.

Während diese Aktivitäten von aktivistischen Hackern selbst noch häufig als intellektuelle Herausforderungen gesehen wurden, distanzierten sie sich von jenen, die aus finanziellem Eigeninteresse in Systeme eindrangen oder explizit Schäden verursachten. Steven Levys Buch Hackers: Heroes of the Computer Revolution (1984) kann als Reaktion auf diese Entwicklungen gesehen werden. Es versuchte, die Deutungshoheit über den Hackerbegriff zu bewahren, auch indem er die sogenannte „Hacker-Ethik“ verfasste, die Dezentralisierung, flache Hierarchien, Kreativität und Informationsfreiheit propagierte. Der Medienwissenschaftler Claus Pias sieht darin den Versuch des Hackers eine Grenze zu ziehen, „die durch ihn selbst hindurchgeht“ und den „bösen“ Teil abtrennt: „Der gute Hacker war fortan Sozialutopist mit medientechnischem Apriori.“ (Pias 2002, 268)

In Deutschland etablierte der CCC durch humorvoll inszenierte Hacks ein weitgehend positives Bild von Hackern. 1984 hackte der CCC das Online-System Bildschirmtext (Btx), um auf Sicherheitslücken aufmerksam zu machen. Mit einer inszenierten Abbuchung von 135.000 DM demonstrierten sie die Schwächen des Systems und zugleich das Idealbild des guten Hackers, der nicht zur eigenen Bereicherung, sondern zu Aufklärungszwecken hackt.

Im Umbruch zu den 1990er Jahren entstand im deutschen Kontext auch ein weiterer Begriff der Hackerkultur: die „Haecksen“. Damit machte eine Handvoll Frauen auf die Unterrepräsentation weiblicher Akteure in der Hackerszene aufmerksam. Ziel war es, Frauen entsprechend den Hackerwerten aus einer stark gegenderten, passiven Nutzerrolle zu emanzipieren und den Spaß an Computern zu vermitteln (Erdogan 2020).

Aber auch das weitgehend positive Bild des Hackens, das der Club in der Bundesrepublik gezeichnet hatte, geriet am Ende der 1980er Jahre ins Wanken. Ursache dafür waren insbesondere zwei Hacks im Umfeld des CCC: Zum einen waren Hacker in Systeme der NASA eingedrungen und stießen dort unter anderem auf Baupläne von Atomkraftwerken. Zum anderen hatte der sogenannte KGB-Hack – bei dem unter anderem der Hacker Karl Koch Informationen an den sowjetischen Geheimdienst verkauft hatte – erhebliche mediale Aufmerksamkeit erregt. Obwohl beide Vorfälle weniger schwerwiegend waren als zunächst dargestellt, dominierte das Bild der Hacker als Bedrohung einer zunehmend auf Computertechnik gestützten Welt immer stärker die öffentliche Wahrnehmung.

Die zunehmende digitale Vernetzung durch das World Wide Web machte Hacking zu einem globalen Thema. Begriffe wie „White Hat“ (ethische Hacker), „Black Hat“ (kriminelle Hacker) und „Grey Hat“ (Hacking mit ambivalenten Motiven) entstanden, um unterschiedliche Aktivitäten zu kategorisieren.

Mitte der 1990er Jahre tauchte dann erstmals der Begriff „Hacktivism“ auf. Der Schriftsteller Jason Sack verwendete ihn 1995 in der Beschreibung des Films Fresh Kill von Shu Lea Cheang. Häufig wird die Begriffsprägung jedoch Omega, einem Mitglied der Hackergruppe Cult of the Dead Cow (cDc), zugeschrieben. Was genau unter Hacktivismus verstanden wird, ist bis heute nicht einheitlich und variiert ebenso stark wie der Begriff des Hackens selbst. Hacktivismus kann sowohl negativ im Kontext von Cyberterrorismus angesiedelt werden als auch positiv betrachtet werden, als eine Form des Hackens, die mit einer konstruktiven Stoßrichtung technische, soziale oder gesellschaftliche Veränderungen bewirken will. Im Gegensatz zum Hacken ist Hacktivismus jedenfalls durch eine explizite politische Dimension gekennzeichnet. Während Hacken weiterhin auf rein technischer Ebene stattfinden kann, ohne gesellschaftliche oder politische Zielsetzungen, zielt Hacktivismus darauf ab, gesellschaftliche Veränderungen herbeizuführen.

Einige Aktionen von Hacktivisten, wie Denial-of-Service-Angriffe (DDoS), können darauf abzielen, den Zugang zu Informationen gezielt zu verhindern. Dieses Vorgehen steht jedoch im Widerspruch zum ursprünglichen radikalen Freiheitsanspruch der Hacker und ihrer Forderung des uneingeschränkten Zugangs zu Informationen. Außerdem benötigen solche Angriffe oft kein tiefes technisches Verständnis, da hierfür fertige Tools genutzt werden können.

Mit der zunehmenden Vernetzung von Computern und der Diffusion digitaler Technik in den Alltag vieler Menschen und Staaten, differenzierte sich nicht nur die Nutzung von Computern weiter aus, sondern auch die Möglichkeiten, diese Systeme zu stören oder zur eigenen Bereicherung zu nutzen. Dies gilt auch für Staaten. Da sowohl Infrastruktur als auch Kommunikation seit der Jahrtausendwende weitgehend durch Digitaltechnologie verwaltet und organisiert wird, kann das Hacken hier nicht nur zu Spionagezwecken genutzt werden, sondern auch explizit als Kriegshandlung. Besonders in Verbindung mit Cyberangriffen auf kritische Infrastrukturen verfestigte sich somit das Bild des Hackens als Bedrohung. Aber diese Ebene der Bedrohung betrifft nicht nur zwischenstaatliche Aktionen, sondern wiederum Aktivist:innen, zu deren Daten sich Regierungen etwa durch Trojaner unautorisiert Zugang verschaffen (White 2020, 24).

Während „Hacken“ im Bereich der IT-Sicherheit und in sozialen Bewegungen noch immer positiv als Ausdruck von Neugier, Erfindungsreichtum und Datenschutzaktivismus gewertet wird, löst der Begriff heute zugleich auch negative Assoziationen aus. Diese Gegensätzlichkeit verdeutlicht die Vielfalt der Hackerkulturen, die Spannungen zwischen unterschiedlichen Motiven und Praktiken, aber auch die Zunahme von Hacks in einer vernetzten Welt. Die Entwicklung des Begriffs „Hacker“ spiegelt den Wandel der technischen Möglichkeiten, die Integration der Computertechnik in den Alltag und die damit verbundenen kulturellen Praktiken wider.

Ursprünglich jedoch bezeichnete der Begriff eine Problemlösung, die oft mit der Zweckentfremdung von technischen Geräten einherging. Da sich der Begriff anfangs auf die Verschiebung technischer Grenzen konzentrierte, war er weder moralisch noch politisch definiert. Aufgrund dieser Neutralität konnten ihn Gruppen an ihre Zwecke anpassen, aber die Öffentlichkeit und die Medien konnten ihn auch nutzen, um das Eindringen in Computersysteme allgemein als „Hacken“ zu klassifizieren. Der „Hacktivismus“ verwandelt die Bezeichnung einer Praktik dann in ein (wiederum vieldeutiges) Programmwort. Insbesondere Presse und Film nutzten die Offenheit des Begriffs und das Geheimnisvolle der Hacker-Figur, um Hacken als Bedrohung oder Sensation darzustellen, was den Wandel in der öffentlichen Wahrnehmung des Begriffs beschleunigte. Mit der Lust am Basteln und vor allem mit dem Anspruch, Computer zum Erschaffen, statt zum Zerstören zu nutzen, die weiterhin Konstanten der Hackerkulturen darstellen, hat dieses Bild jedoch immer weniger gemein.

  1. Das Advanced Research Projects Agency Network oder ARPANET war ein dezentrales Computernetzwerk, das durch die Advanced Research Projects Agency des US-Verteidigungsministeriums eingerichtet wurde, um ab 1969 verschiedene US-Universitäten miteinander zu verbinden, die für das Verteidigungsministerium forschten. ↩︎

Erdogan, Julia Gül (2020): „Computer Wizards“ und Haecksen. Geschlechtsspezifische Rollenzuschreibungen in der privaten und subkulturellen Computernutzung in den USA und der Bundesrepublik. In: Technikgeschichte Bd. 87 H. 2, S. 101-132.

White, Geoff (2020): Crime Dot Com: From Viruses to Vote Rigging, How Hacking Went Global, London: Reaktion Books.

Gabi Glasstetter & Uta Meyer (2010): Die Akte CCC – Die Geschichte des Chaos Computer Clubs. ZDF.

Levy, Steven: Hackers. Heroes of the Computer Revolution, 25th Anniversary Edition, Sebastopol u.a.: O’Reilly Media 2010.

Imhorst, Christian (2004): Die Anarchie der Hacker. Richard Stallman und die Freie-Software-Bewegung, Marburg: Tectum.

Pias, Claus (2002): Der Hacker in: Eva Horn, Stefan Kaufmann & Ulrich Bröckling (Hg.): Grenzverletzer. Von Schmugglern, Spionen und anderen subversiven Gestalten, Berlin: Kadmos, S. 248-270.

Weizenbaum, Joseph (1978): Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt a. M.: Suhrkamp.

Erdogan, Julia Gül (2025): Von Helden zu Schurken? Zur Entwicklung des Hackerbegriffs. In: Verantwortungsblog. https://zevedi.de/von-helden-zu-schurken-zur-entwicklung-des-hackerbegriffs/ [31.01.2025]. https://doi.org/10.60805/z8tj-k684.

Kategorien
Akzentfarbe: blau Autor: Friederike Rohde Uncategorized Verantwortungsblog

Daten- und ressourcenhungrig: Gibt es eine nachhaltige KI?

Daten- und ressourcenhungrig:
Gibt es eine nachhaltige KI?

Mittlerweile gibt es kaum einen Bereich, in dem nicht davon gesprochen wird, dass durch die Nutzung von KI Effizienzsteigerung oder Optimierung möglich sei: im Finanzsektor, im Onlinehandel, in der Industrie, in der Medizin oder im Bildungsbereich. Die Nutzung von Diensten, die auf großen Sprachmodellen (Large Language Models oder kurz LLMs) beruhen, ist rasant angestiegen und viele Millionen Menschen nutzen täglich ChatGPT oder andere KI-Technologien. Gleichzeitig wird immer deutlicher, dass diese Systeme wahrscheinlich nicht nur zur Bewältigung einiger komplexer Probleme beitragen werden, sondern auch eine ganze Reihe neuer Probleme schaffen, die es zu bewältigen gilt.

Von Friederike Rohde | 17.01.2025

Bild eines digitalen Fußabdrucks aus digitalen Symbolen
Erstellt mit Adobe Firefly: Prompt: „create a cubistic image from a vague digital footprint out of digital symbols“

Zu diesen Problemen gehört die Diskriminierung durch Voreingenommenheit und Stereotypen, die Konzentration von Marktmacht und die Herausbildung von Infrastrukturmonopolen, vor allem aber auch die Auswirkungen der Systeme auf die Umwelt, wie erhebliche CO2-Emissionen und der hohe Wasserverbrauch der digitalen Infrastruktur, die für den Betrieb der Systeme erforderlich ist. Die Nachhaltigkeitsfolgen von KI rücken immer mehr in den Blick und nimmt man die Forderungen nach einer umfassenden Nachhaltigkeitsperspektive (Rohde et al. 2024) ernst, dann zeigt sich, dass wir von einer „nachhaltigen KI“ noch weit entfernt sind.

Fortschritt wird derzeit an der Entwicklung von immer größeren Modellen festgemacht. Die ersten „Durchbrüche“ für die umfassende Nutzung von künstlichen neuronalen Netzen wurden durch die sogenannten Transformer-Modelle erzielt. Das sind Modelle, die einen Aufmerksamkeitsmechanismus beinhalten, der die menschliche Aufmerksamkeit nachahmen soll, und Text in numerische Darstellungen, sogenannte Token, und anschließend in Vektoren umwandeln. Wird dieses Transformer-Modell mit einer großen Menge von Daten trainiert, kann es beispielsweise für Übersetzungen eingesetzt werden. Mittlerweile werden immer mehr sogenannte Diffusions-Modelle entwickelt, die Daten generieren können, die denen ähneln, mit denen sie trainiert wurden. Diese Systeme werden umgangssprachlich auch als „generative KI“ bezeichnet. 

Die Größe dieser Modelle ist rasant angestiegen. Während erste Transformer-Modelle um die 340 Millionen Parameter (dies sind die Werte oder Variablen des Modells) beinhalten, kommen aktuelle LLMs wie PaLM (Google) auf 540 Milliarden Parameter. Mit der Größe der Modelle steigt auch die erforderliche Rechenkapazität, die wiederum jedoch mit vielfältigen Auswirkungen für Menschen und Umwelt verbunden ist. Aktuelle Studien zeigen, dass der Carbon Footprint des Trainings großer Modelle wie GPT3, bei 552 Tonnen CO2-Äquivalenten liegt (Luccioni et al. 2023). 

Die Nachhaltigkeitsbilanz von KI wird auch getrübt durch den Abbau von Rohstoffen für die Hardware, also die GPUs (Graphic Processing Units), die mit diesem Abbau oft einhergehenden Menschenrechtsverletzungen oder die Konflikte um die Wassernutzung durch die Rechenzentren, die in Regionen mit Wasserknappheit wie Chile oder Uruguay zunehmend auftreten. Ein Forschungsteam hat den Wasserfußabdruck beim Betrieb von Rechenzentren, die für das Training großer Sprachmodelle genutzt werden, auf 700.000 Liter Trinkwasser beziffert (Li et al. 2023). Jüngst haben diese Forscher darauf hingewiesen, dass der Verbrauch sogar noch viermal höher ist als in der Studie errechnet (Sellman 2024). 

Die Frage, ob die enorme Größe der Sprachmodelle im Verhältnis zum daraus hervorgehenden Nutzen überhaupt notwendig ist, spielt meist nicht wirklich eine Rolle. Die vorherrschende Erzählung, KI sei neutral, autonom oder Werkzeug zur Demokratisierung, muss hinterfragt werden (Rehak 2023). Auch die Vision, über die Möglichkeiten des Technologieeinsatzes einen Beitrag zur Reduktion des Umweltverbrauches oder der Klimakrise zu leisten, gehört auf den Prüfstand. Erstens handelt es sich oftmals um Effizienzsteigerungen, die schnell durch höhere Produktivität aufgefressen werden. Denn die Rechnung wird meist ohne das Wirtschaftswachstum gemacht. So kommt beispielsweise eine aktuelle Studie von PwC und Microsoft zu dem Schluss, dass mittels KI-Technologien zwischen 1,5 und 4 % CO2 eingespart werden können, gleichzeitig wird aber ein Wirtschaftswachstum von 4 % durch den Einsatz von KI prognostiziert (Joppa/Herwejer 2024). Die relative Einsparung wird also durch das größere Wirtschaftsvolumen eingeholt, so dass eine absolute Reduktion der Emissionen fraglich ist. Zweitens zielt die KI häufig darauf ab, eine bestehende Vorgehensweise zu optimieren. Beispielsweise wird in der Landwirtschaft KI eingesetzt, um den Pestizideinsatz zu reduzieren. Aber die grundsätzliche Frage, wie wir zu einer alternativen und ökologisch verträglichen Form der Landwirtschaft kommen, die gar keinen Pestizideinsatz mehr notwendig macht, kann uns diese Technologie nicht beantworten. 

Fortschritt im Bereich der KI könnte prinzipiell auch etwas anderes bedeuten – zum Beispiel, dass spezialisierte Modelle für Einsatzzwecke entwickelt werden, für die sie einen wichtigen Mehrwert bieten. Ihre Komplexität wäre dann tendenziell begrenzter, beziehungsweise würde ihre Größe ins Verhältnis zu anderen Zielen gesetzt werden.

Neben der Nachhaltigkeitsfrage stellt sich auch immer vernehmbarer die Gerechtigkeitsfrage: Vom Abbau der Rohstoffe, über den Energie- und Wasserhunger der Datenzentren bis zur Deponierung des Elektroschrottes – die materiellen Voraussetzungen und Auswirkungen, für die mit vielen Versprechungen verbundene KI-Technologie, sind global ungleich verteilt. Während die Profiteure der Technologie vor allem Unternehmen oder Gemeinschaften im globalen Norden sind, treffen viele der ökologischen und sozialen Folgen vor allem den globalen Süden. In Indien ringen beispielsweise lokale NGOs mit Datencenterbetreibern um die Nutzung von Trinkwasser und gleichzeitig werden die Daten für das Training der LLMs in Kenia und Nigeria gelabelt, weshalb beispielsweise das Wort „delve“ viel häufiger in KI-generierten Texten vorkommt als im angloamerikanischen Sprachgebrauch üblich. Globale Gerechtigkeitsfragen spielen also zunehmend eine Rolle und werden noch sehr viel gravierender werden, je stärker der Einsatz dieser Technologie zunimmt. 

Darüber hinaus gibt es eine ganze Reihe von Zielkonflikten, die aus einer umfassenden Perspektive zutage treten. Beispielsweise ist eine Verlagerung von lokalen Rechenzentren hin zu Cloud-Anbietern aus einer ökologischen Perspektive sinnvoll, um Ressourcen zu bündeln. Sie fördert aber gleichzeitig eine Konzentration im Cloud-Markt und ist daher ökonomisch weniger nachhaltig. Auch ist zu beobachten, dass Rechenzentrumsbetreiber aus Energieeffizienzgründen auf die weniger energieintensive Wasserkühlung, statt auf Luftkühlung setzen, was aber wiederum den Wasserverbrauch erhöht. Wenn wir auf ökonomischer Ebene eine größere Marktvielfalt möchten und den Zugang zu Modellen, beispielsweise durch Open Source, für kleinere Unternehmen und Akteure ermöglichen wollen, fördert diese größere Zugänglichkeit wiederum die Nutzungsintensität, was die negativen ökologischen Folgen verstärkt. Und schließlich ist ein sehr realistisches Szenario auch, dass wir KI-Modelle mit einem geringen ökologischen Fußabdruck entwickeln, die aber für Zwecke eingesetzt werden, die Nachhaltigkeitszielen entgegenstehen, beispielsweise die Erschließung neuer Ölfelder oder personalisierte Werbung, die den Konsum ankurbelt. 

Wenn komplexe und immer größere KI-Systeme in immer mehr Bereichen eingesetzt werden, ist es wichtig, die Nachhaltigkeitswirkungen entlang des gesamten Lebenszyklus zu betrachten. Das bedeutet sowohl die Bereitstellung und Aufbereitung der Daten, die Modellentwicklung, das Training, die Modellimplementierung, die Modellnutzung und Entscheidungsfindung zu berücksichtigen. Darüber hinaus ist die organisatorische Einbettung von großer Bedeutung, wenn es darum geht, KI-Systeme mit Verantwortung für die Menschen und den Planeten zu gestalten. Wenn wir wirklich eine umfassende Nachhaltigkeitsbetrachtung vornehmen wollen (Rohde et al. 2024), geht es darum, Auswirkungen auf sozialer Ebene, wie Diskriminierung, Verletzung von Persönlichkeitsrechten oder kulturelle Dominanz zu reduzieren, also auch darum, Marktmacht und Monopole zu hinterfragen und die ökologischen Auswirkungen zu betrachten. Wir müssen uns damit befassen, wo die Ressourcen herkommen und in welchen Regionen die Rechenzentren stehen sollen, ohne die die Modelle und Anwendungen nicht funktionieren. Es geht also auch darum, wie wir digitale Infrastrukturen gestalten und wie wir sie in Anspruch nehmen (Robbins & van Wynsberghe 2022).

Denn zur Beantwortung der Frage, ob KI-Systeme positive oder negative Wirkungen im Hinblick auf die Ziele für nachhaltige Entwicklung entfalten, kann nicht allein darauf geschaut werden, in welchem Sektor KI-Systeme eingesetzt werden und ob sich daraus möglicherweise positive Beiträge für einzelne Aspekte nachhaltiger Entwicklung (z.B. Klimaschutz oder Armutsbekämpfung) ableiten lassen. Diese verengte Perspektive greift zu kurz. Dies kann nur durch eine umfassende Perspektive auf KI erreicht werden, welche die sozialen, ökologischen und ökonomischen Auswirkungen entlang des Lebenszyklus‘ aller KI-Systeme adressiert. Hinter dem Anspruch eine nachhaltige Technologie zu entwickeln, welche die vielfältigen Wechselwirkungen zwischen sozialen, ökologischen und ökonomischen Auswirkungen berücksichtigt, steht in Anbetracht der derzeitigen Entwicklungen daher ein großes Fragezeichen.

Joppa, Lucas & Herwejer, Celine: (2024): How AI can enable a Sustainable Future, https://www.pwc.de/de/nachhaltigkeit/how-ai-can-enable-a-sustainable-future.pdf [14.11.2024].

Li, Pengfei, Yang, Jianyi, Islam, Mohammad A. & Ren, Shaolei: (2023): Li, P., Yang, J., Islam, M. A., & Ren, S. (2023): Making AI Less „Thirsty“: Uncovering and Addressing the Secret Water Footprint of AI Models. In:https://doi.org/10.48550/arXiv.2304.03271 [21.11.2024].

Luccioni, Alexandra Sascha, Viguier, Silvain & Ligozat, Anne-Laure  (2023). Estimating the carbon footprint of bloom, a 176b parameter language model. Journal of Machine Learning Research24(253), 1-15.

Rehak, Rainer (2023): Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative. In: Soziopolis: Gesellschaft beobachtenhttps://www.soziopolis.de/zwischen-macht-und-mythos.html[14.11.2024].

Luccioni, Alexandra Sascha , Jernite, Yacine & Strubell, Emma (2024): Power Hungry Processing: Watts Driving the Cost of AI Deployment? In: Association for Computing Machinery (Hg.): FAccT ‘24: Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery: New York, S. 85-99.

Mark Sellman (2024): ‚Thirsty‘ ChatGPT uses four times more water than previously thought. In: https://www.thetimes.com/uk/technology-uk/article/thirsty-chatgpt-uses-four-times-more-water-than-previously-thought-bc0pqswdr [21.11.2024].

Robbins, Scott & van Wynsberghe, Aimee (2022): Our new artificial intelligence infrastructure: becoming locked into an unsustainable future. In: Sustainability 14,/Nr. 8 (2022), 4829.

Rohde, Friederike et al. (2024): Broadening the perspective for sustainable artificial intelligence: sustainability criteria and indicators for Artificial Intelligence systems. In: Current Opinion in Environmental Sustainability 66, 101411.

Rohde, Friederike (2025): Daten- und ressourcenhungrig: Gibt es eine nachhaltige KI? In: Verantwortungsblog. https://zevedi.de/daten-und-ressourcenhungrig-gibt-es-eine-nachhaltige-ki/ [16.01.2025].
https://doi.org/10.60805/143q-ga43

Kategorien
Akzentfarbe: grün (Heidbrink-Text) Autor: Ludger Heidbrink Uncategorized Verantwortungsblog

Sphären der Unverantwortlichkeit

Sphären der Unverantwortlichkeit
Zum Umgang mit den Verantwortungslücken der Digitalisierung

In komplexen und vernetzten Gesellschaften müssen – neben der Bereitschaft, Verantwortung zu übernehmen – auch Sphären der erlaubten Unverantwortlichkeit geschaffen werden. Akteure können hier modifizierte Zurechnungsverfahren entwickeln, die auf dem begründeten Ausschluss von Verantwortlichkeiten beruhen. Dieser Ausschluss ist notwendig, um auf neuartige digitale Prozesse, die in ihrer Struktur und ihren Konsequenzen noch vielfach unbekannt sind, normativ angemessen reagieren zu können.

Von Ludger Heidbrink | 12.12.2024

Ein Fahrzeug in einer Sphäre
Erzeugt mit Adobe Firefly. Prompt: „Sehr reduzierte Skizze eines autonomen Fahrzeugs in einer großen digitalen Sphäre; Stil: Kubismus; Farben: grün, blau, gelb“

Hochmoderne Gesellschaften haben einen besonderen Verantwortungsbedarf entwickelt. Dabei gehen sie trotz der enormen Komplexität, die neue Technologien kennzeichnet, davon aus, dass sich Handlungen jemandem zurechnen lassen und Schadensfolgen auf Urheber zurückgeführt werden können (Heidbrink 2022, 38ff.). Dies gilt auch für aktuelle Entwicklungen wie den Einsatz digitaler Agenten und KI-Systeme, die für ihre Operationen eine eigenständige moralische und rechtliche Verantwortung tragen sollen. Dieser Beitrag zeigt, dass für die Responsibilisierung digitaler Agenten und KI-Systeme wesentliche Voraussetzungen nicht erfüllt sind und es deshalb sinnvoller ist, auf einen Standpunkt der Nichtverantwortlichkeit umzustellen, von dem aus sich genauer erkennen lässt, wo die Grenzen der Responsibilisierung digitaler Systeme liegen.1

Das besondere Kennzeichen der Digitalisierung liegt weniger darin, dass digitale Maschinen wie Roboter und KI-Systeme eine immer wichtigere Rolle im alltäglichen Leben spielen, als vielmehr in der Veränderung der Zurechenbarkeit von Folgenketten, die mit digitalen Prozessen einhergeht. Die exponentielle Steigerung der Rechenleistung und Datenmengen übersteigt die kognitive Verarbeitungsfähigkeit der Nutzer digitaler Systeme und ihre regulative Kontrolle dieser Systeme. Eine Konsequenz besteht darin, dass die Verantwortung in die digitalen und automatisierten Systeme zurückverlagert wird, die so programmiert werden, dass sie potenzielle Schäden vorhersehen können und in Gefahrensituationen mit entsprechenden Gegenmaßnahmen reagieren.

Günther Anders hat schon in den 1950er Jahren prognostiziert, dass der Mensch in der Lage sein werde, Apparate zu konstruieren, „auf die man die Verantwortung abschieben kann, Orakelmaschinen also, elektronische Gewissens-Automaten“, die „schnurrend die Verantwortung übernehmen, während der Mensch danebensteht und, halb dankbar und halb triumphierend, seine Hände in Unschuld wäscht“ (Anders 1961, 245). Was dabei stattfindet, ist nach Anders die „Verlagerung der Verantwortung in das […] Objekt“, die eine „Ersetzung der ‚responsibility‘ durch einen mechanischen ‚response‘“ (ebd., 246) zur Folge hat.

Die Prognose von Anders ist Realität geworden. Die Frage nach dem Verhältnis von responsibility und response spielt überall dort eine Rolle, wo Roboter und automatische Systeme eigenständig agieren, ohne autonome Urheber ihrer Aktivitäten zu sein. Artifizielle Agenten sind keine handlungsfähigen Akteure, sondern intelligente Apparate, die aus Prozessoren, Sensoren und künstlichen Gliedern bestehen. Ihnen sind Operationen möglich, die zwar autonom wirken, aber nicht autonom sind. Pflegeroboter, Kampfdrohnen oder automatisierte Fahrzeuge werden in der Regel durch Programmierer und Nutzer gesteuert, sie agieren „within the control of a tool’s designers and users“ (Wallach/Allen 2009, 26). Bislang gibt es keine Formen künstlicher Intelligenz, die auf nicht-determinierten Algorithmen beruhen und zu Handlungen in der Lage sind, die tatsächlich autonom sind. Autonom und lernfähig sind KI-Systeme höchstens in dem Sinn, dass sie algorithmische Strukturen variieren und innerhalb vorgegebener Programme neue Verknüpfungen herstellen.

Die Selbstständigkeit intelligenter Roboter und Automaten bewegt sich somit in beschränkten Bahnen, die zwar eine hohe Komplexität aufweisen, aber nicht die Bedingungen erfüllen, unter denen Akteuren personale und moralische Autonomie zugeschrieben werden kann. Hochentwickelte KI-Systeme lassen sich allenfalls als operationale Akteure beschreiben, die über eine rationale und agentiale Autonomie verfügen. Sie agieren nach vorgegebenen Codes, ohne eine reflexive Einsicht in die Gründe ihres Agierens entwickeln zu können und ihre Operationen anhand normativer Kriterien bewerten zu können, die nicht durch die algorithmischen Strukturen vorgegeben sind.

Gleichwohl werden KI-Systeme in zunehmenden Maß dort eingesetzt, wo sonst Menschen handeln, sei es mit dem Ziel der Sicherheit, der Effizienz oder des Supports. Damit müssen Fragen der moralischen Zurechnung und rechtlichen Haftung anders als bisher gestellt werden. Was geschieht, vom Daten- und Urheberschutz abgesehen, wenn KI-Systeme zu fehlerhaften Operationen führen, falsche Diagnosen produzieren und Schäden für Dritte erzeugen? Wie soll damit umgegangen werden, dass intelligente Roboter und Computer scheinbar autonom entscheiden, in Wirklichkeit aber doch nur – freilich: im Detail unüberblickbar – Programme eines Herstellers ausführen? Wo verläuft, mit Anders gesprochen, die Grenze zwischen der responsibility von Akteuren und dem response von digitalen Systemen?

Die Verantwortlichkeit artifizieller Agenten hängt im Kern davon ab, ob sich ihnen ähnlich wie natürlichen Personen eine eigenständige Handlungsfähigkeit zuschreiben lässt. Nach Luciano Floridi und Jeff W. Sanders (2004, 357f.) gibt es vor allem drei Kriterien, durch die artifizielle Agenten gekennzeichnet sind: Interaktivität, mit der Akteure untereinander und auf ihre Umwelt reagieren und sich wechselseitig beeinflussen; Autonomie, durch die Akteure ihren Zustand unabhängig voneinander und von ihrer Umwelt verändern können; Adaptabilität, durch die Akteure sich aneinander und an ihre Umwelt anpassen und Regeln für Zustandsänderungen entwickeln.

Von diesen Eigenschaften ist die Autonomie die Kategorie, die üblicherweise bei natürlichen Personen neben Freiheit als Basisbedingung für die Zuschreibung von Verantwortung zugrunde gelegt wird. Personale Akteure gelten in der Regel dann als verantwortungsfähig, wenn sie frei und selbstbestimmt agieren können. Nach Floridi und Sanders besitzen auch artifizielle Agenten eine spezifische Art der Autonomie, die sich allerdings von der Autonomie natürlicher Personen unterscheidet. Um die Autonomie artifizieller Agenten von der Autonomie natürlicher Personen abgrenzen zu können, greife ich auf die Klassifizierung von vier Formen der Autonomie zurück, wie sie Stephen Darwall (2006, 265) getroffen hat. Darwall unterscheidet zwischen personaler, moralischer, rationaler und Handlungsautonomie. Von diesen vier Formen bildet die Handlungsautonomie (agent autonomy) die schwächste Form der Autonomie, da sie keine rationalen, moralischen oder personalen Gründe der Selbstbestimmung und Selbststeuerung voraussetzt. Wenn man nun unter Handlungsautonomie die bloße „Selbstursprünglichkeit“ (Misselhorn 2018, 76) von Akteuren versteht, die in einem eingeschränkten Sinn operative Prozesse durchführen können, ist es möglich, artifizielle Agenten als quasi-autonome Akteure zu klassifizieren. Artifizielle Agenten verfügen zwar über keine Handlungsgründe und führen keine intentional eigenständigen Handlungen durch, sie operieren aber auf der Grundlage von algorithmischen Programmen, die ihren Operationen eine funktionale Eigenständigkeit äquivalent zu personalen Akteuren verleiht: Roboter und künstliche Systeme lassen sich in ihren Operationen so betrachten, als ob sie die gleichen Eigenschaften wie Bewusstsein, mentale Zustände und Intentionen besitzen würden, die natürliche Agenten kennzeichnen.

Die Autonomie artifizieller Agenten ist dadurch gekennzeichnet, dass sie sich strukturell analog zur Autonomie natürlicher Akteure verhält. Auch wenn artifizielle Agenten nicht autonom sind, weisen sie in ihrem Verhalten die gleichen Handlungsmuster wie natürliche Akteure auf. Aus dieser Quasi-Autonomie lassen sich Kriterien für die Moralität und Zurechnungsfähigkeit von künstlichen Systemen ableiten. Artifizielle Agenten in der Gestalt von Robotern und autonomen Steuerungssystemen können nach einer Kategorisierung von James Moor in die Klasse der „explicit ethical agents“ (Moor 2006, 19) eingeordnet werden, die nicht nur in Übereinstimmung mit moralischen Regeln handeln, sondern auch in Analogie zu moralischen Kriterien agieren. Explizite ethische Agenten – etwa autonome Fahrzeuge – sind aufgrund ihrer Programmierung in der Lage, so zu reagieren, dass ihre Reaktionen als moralische Entscheidungen interpretiert werden können, denen ein hinreichendes Verständnis der Entscheidungssituation zugrunde liegt.

Just as a computer system can represent emotions without having emotions, computer systems may be capable of functioning as if they understand the meaning of symbols without actually having what one would consider to be human understanding (Wallach/Allen 2009, 69).

Roboter und künstliche Systeme bilden insoweit analoge moralische Agenten, insofern sie „Maschinen mit inneren Zuständen“ gleichen, „die moralischen Meinungen und Pro-Einstellungen2 funktional hinreichend ähnlich sind, um als moralische Gründe gelten zu können“ (Misselhorn 2018, 88). Unter diesen Voraussetzungen ist es möglich, artifiziellen Agenten einen normativ schwachen, aber relevanten Status moralischer Handlungsfähigkeit zuzuschreiben, der die Frage nach der spezifischen Verantwortlichkeit von KI-Systemen etwas genauer zu beantworten erlaubt.

Es ist deutlich geworden, dass artifizielle Agenten auf der Grundlage einer analogen und schwachen Moralität operieren. Daraus ergibt sich aber nicht zwingender Weise, dass diese Agenten auch verantwortlich für ihre Operationen sind. Moralisches Handeln schließt nicht notwendigerweise verantwortliches Handeln ein: „x is capable of moral action even if x cannot be (or is not yet) a morally responsible agent“ (Floridi/Sanders 2004, 368). Zwischen Moralität und Verantwortlichkeit besteht insofern ein wichtiger Unterschied, als moralisch relevante Operationen keinen verantwortlichen Akteur voraussetzen müssen, sondern es ausreicht, dass die Operationen selbst ethisch oder rechtlich evaluiert werden können. Vor dem Hintergrund der funktionalen Autonomie agieren Roboter und künstliche Systeme so, dass ihnen ihre Operationen moralisch zugeschrieben werden können, ohne dass sie dafür (schon) eine hinreichende Verantwortung tragen: „there is no responsibility but only moral accountability and the capacity for moral action“ (Floridi/Sanders 2004, 376).

Die Unterscheidung von moral accountability und responsibility erlaubt es, Roboter und künstliche Systeme als artifizielle moralische Agenten zu beschreiben, die ethisch und rechtlich zurechnungsfähig sind, ohne verantwortlich sein zu müssen. Die Konzeption einer morality without responsibility ist heuristisch sinnvoll, um die spezifische Wirkungsfähigkeit artifizieller Agenten normativ erfassen zu können. Roboter und künstliche Systeme operieren in der Regel auf der Grundlage lernender Algorithmen und adaptiver Programme, durch die sie eigenständig mit ihrer Umwelt interagieren, ohne dass sich die Folgen handlungskausal auf sie zurückführen lassen. Die maßgeblichen Entscheidungen werden vielmehr von den Herstellern und Anbietern getroffen, die deshalb die rechtliche und moralische Hauptverantwortung tragen sollen, wie es jüngst auch im AI Act der EU festgelegt wurde.3

Je höher allerdings der Grad der funktionalen Autonomie artifizieller Agenten ist, umso schwieriger ist es genau genommen, die Hersteller und Anbieter für die Operationen von KI-Systemen verantwortlich zu machen. Künstliche Agenten können eigenständig handeln, ohne dass sie die kausale und moralische Verantwortung für ihre Operationen tragen. In Fällen, in denen „the machine itself“ operiert, entsteht ein „responsibility gap“ zwischen Handlungsursachen und Handlungsfolgen, der die Frage aufwirft, wie mit der begrenzten Handlungskontrolle der Hersteller über die digitalen Systeme auf normativer Ebene umgegangen werden soll (Matthias 2004, 177, 181f.).

In Fällen der operativen Autonomie und fehlenden Kontrolle von KI-Systemen, die überall dort auftreten können, wo Daten durch lernende Algorithmen verarbeitet und in neuronalen Netzwerken funktional selbstständige Entscheidungen generiert werden, geraten herkömmliche Verantwortungsmodelle an ihre Grenzen. Der responsibility gap lässt sich nicht einfach dadurch wieder schließen, dass den Herstellern von KI-Systemen primäre Verantwortlichkeiten zugeschrieben werden. Erforderlich sind vielmehr Konzepte der geteilten Verantwortung, die der spezifischen Netzwerkstruktur digitaler Agentensysteme Rechnung tragen.

Eine mögliche Grundlage hierfür bildet das Konzept der „distributed moral responsibility“ (DMR) von Luciano Floridi, das netzwerktheoretische Elemente mit moralischen und juristischen Konzepten verbindet. Im Unterschied zu herkömmlichen Gruppenakteuren operieren Agenten in Netzwerken weder kausal noch intentional, sodass ihnen ihre Handlungsfolgen nicht direkt zugerechnet werden können. Gleichwohl erzeugen Mehrebenen-Netzwerke Wirkungen und Effekte, die ohne ihre Operationen nicht zustande gekommen wären, wie sich dies exemplarisch an automatischen Steuerungsanlagen oder autonomen Fahrsystemen beobachten lässt. Netzwerkoperationen generieren „distributed moral actions“ (DMA), die normativ relevant sind, sich aber nicht auf intentionale Urheber oder kausale Zustände zurückverfolgen lassen (Floridi 2016, 6). Multi-Layered Neural Networks sind vielmehr dadurch gekennzeichnet, dass Input-Aktionen über ein Netz an Knotenpunkten laufen, die als ungesteuerter („gesellschaftlicher“) Verteiler Output-Effekte erzeugen, welche als DMR-Handlungen wirksam werden.

Bei solchen Netzwerk-Folgen geht es deshalb nicht um die normative Bewertung der Handlungsträger, sondern der Handlungsketten, die im Fall von Schädigungen verantwortungsrelevant sind:

All that matters is that change in the system caused by the DMA is good or evil and, if it is evil, that one can seek to rectify or reduce it by treating the whole network as accountable for it, and hence back propagate responsibility to all its nodes/agents to improve the outcome (Floridi 2016, 7).

Mit Hilfe des DMR-Modells lässt sich die Verantwortung dem Netzwerk als Ganzes zuschreiben, um von dort aus die Knotenpunkte und Agenten einzubeziehen. Je nach Art der Fehler und Schäden greifen unterschiedliche Maßnahmen. Sie können in der Gefährdungshaftung von Produzenten, der Verbesserung der ethischen Infrastrukturen oder in operativen Lernprozessen bestehen, durch die Risiken von Fehlfunktionen reduziert werden. Das DMR-Modell kann hilfreich sein, um KI-Systeme verantwortungsfähig zu machen, indem zuerst der digitale Netzwerkverbund in die Verantwortung genommen wird, um im nächsten Schritt die Elemente des Netzwerks einzubeziehen.

Ein ähnlicher Vorschlag besteht darin, die Verantwortung für Schäden artifizieller Agenten durch einen kollektiven Versicherungs- und Haftungspool aufzufangen. Auch wenn Roboter und künstliche Systeme keinen Rechtsstatus wie natürliche Personen besitzen, lässt sich ihnen ein digitaler Personenstatus zuschreiben. Ähnlich wie sich Organisationen und Unternehmen als „legal persons“ betrachten lassen, können artifizielle Agenten nach einem Vorschlag von Susanne Beck als „electronic persons“ behandelt werden, die spezifische Rechte und Pflichten besitzen (Beck 2016, 479). Dieser Vorschlag würde es ermöglichen, rechtliche Verantwortlichkeiten auf artifizielle Agenten zu bündeln und sie beispielsweise über einen kollektiv eingerichteten Kapitalstock abzusichern, der durch eine „electronic person Ltd.“ verwaltet wird:

A certain financial basis would be affixed to autonomous machines, depending on the area of application, hazard, abilities, degree of autonomy etc. This sum which would have to be raised by the producers and users alike, would be called the capital stock of the robot and collected before the machine was put into public use (Beck 2016, 479).

In eine ähnliche Richtung argumentiert Gunther Teubner. Um der funktionalen Autonomie digitaler Agenten zu entsprechen, muss von einer partiellen Rechtssubjektivität digitaler Agenten ausgegangen werden (Teubner 2018, 177). Die partielle Rechtssubjektivität erlaubt es, Institute der Gehilfen- und Assistenzhaftung in Anspruch zu nehmen, wenn KI-Systeme teilautonom Schäden verursachen, etwa in Fällen der Fehlfunktion von Service- oder Pflegerobotern. In solchen Fällen haftet der Betreiber mit, da er sich das Versagen einer verschuldensunfähigen Maschine zurechnen lassen muss.

Die digitale Assistenzhaftung für rechtswidrige Entscheidungen digitaler Agenten stößt allerdings dort an Grenzen, wo Multi-Agenten-Netzwerke agieren, etwa bei autonomen Fahrsystemen oder digitalen Plattformen. In diesen Fällen geht es um das körperschaftsähnliche Gesamthandeln des Netzwerkes, das in seiner hybriden Verfassung zum Adressaten der Rechtsnormierung gemacht werden muss. Wenn Netzwerke zu Zurechnungsadressaten gemacht werden, also nicht mehr Handlungsträger, sondern Handlungsketten normativ adressiert werden, könnte es sinnvoll sein, ähnlich wie im Fall der elektronischen Personen-GmbH einen „Risiko-Pool“ (Teubner 2018, 202) einzurichten, der die Netzwerk-Akteure in eine Art monetäre Kollektivhaftung nimmt, unabhängig davon, ob eine schadenskausale Eigenverantwortung vorliegt, die bei digitalen Agenten nicht mehr ohne weiteres festzustellen ist.

Das Kapitalstock- und Versicherungsmodell haben den ökonomischen und gesellschaftlichen Vorteil, dass Innovationen nicht vorschnell durch staatliche Regulierungen des Marktes unterbunden werden, sondern die Marktakteure selbst Regeln etablieren, die in direkter Auseinandersetzung und auf praktischer Erfahrungsgrundlage mit KI-Systemen entwickelt werden. Anstatt wie der AI Act der EU und die Datenethikkommission der Bundesregierung einen „risikoadaptierten Regulierungsansatz algorithmischer Systeme“ zu verfolgen, der von einer mehrstufigen Kritikalität mit abgestuftem Schädigungspotential ausgeht (Datenethikkommission 2019, 24), dürfte es praktikabler sein, KI-Systeme mit vorläufigen Zulassungen zu versehen und unter Realbedingungen zu beobachten, welche Kritikalität besteht und wie sich Schadensfolgen durch die Multi-Agenten-Verbünde selbst kompensieren lassen.

Das Kapitalstock- und Versicherungsmodell für digitale Multi-Agenten-Verbünde stellt eine Reaktion auf die Schwierigkeit dar, weder artifizielle Akteure und KI-Systeme noch Hersteller und Anbieter direkt für Schadensfolgen verantwortlich machen zu können. Die Umstellung auf partielle Nichtverantwortlichkeit bildet eine „adaptive Reaktion“ (Staab 2022, 9) auf das Problem, den Verantwortungsbedarf moderner Gesellschaften adäquat zu decken. Der Ausgang von legitimen Bereichen der Nichtverantwortlichkeit bietet die Chance, Freiräume der Gestaltung zurückzugewinnen, die im Korsett moralischer und rechtlicher Regulatorik verloren zu gehen drohen (Augsberg et al. 2020).

Wenn vom point of irresponsibility aus gehandelt wird, öffnen sich neue Möglichkeitsbereiche, in denen Akteure erproben können, welche Normen und Konventionen geeignet sind, den gesellschaftlichen Verkehr zu organisieren, ohne ihn über Gebühr einzuschränken oder die Kontrolle über ihn zu verlieren.

  1. Dieser Beitrag geht zurück auf Ludger Heidbrink: Nichtverantwortlichkeit. Zur Deresponsibilisierung der Gesellschaft, Weilerswist: Velbrück Wissenschaft 2024, sowie auf Ders. (2020): Artifizielle Agenten, hybride Netzwerke und digitale Verantwortungsteilung auf Märkten, in: Detlev Aufderheide/Martin Dabrowski (Hg.): Digitalisierung und künstliche Intelligenz. Wirtschaftsethische und moralökonomische Perspektiven, Berlin: Duncker & Humblot 2020, S. 67–76. ↩︎
  2. Pro-Einstellungen sind in der Regel prosoziale und ethische Einstellungen. ↩︎
  3. Der EU AI Act enthält konkrete Vorschriften zu Pflichten und Haftung von Anbietern insbesondere hochriskanter KI-Systeme, die vom Risikomanagement über Datengovernance, die Meldung von Fehlfunktionen, Transparenzpflichten bis zur Konformitätserklärung und Bußgeldern reichen. Allerdings bleibt völlig unklar, wie die Anbieterverantwortung zum Tragen kommen soll, wenn KI-Systeme Schäden verursachen, die den Bereich erwartbarer Sorgfalts-, Transparenz- und Governancepflichten übersteigen, ohne dass dies weder Anbieter noch KI-Systemen zugerechnet werden kann: https://artificialintelligenceact.eu/de/das-gesetz/ [25.10.2024]. ↩︎

Anders, Günther (1961): Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten industriellen Revolution, München: C.H. Beck.

Augsberg, Ino/Augsberg Steffen/Heidbrink, Ludger (2020): Einleitung, in: dies. (Hg.), Recht auf Nicht-Recht. Rechtliche Reaktionen auf die Juridifizierung der Gesellschaft, Weilerswist: Velbrück Wissenschaft 2020, S. 7–23.

Beck, Susanne (2016): The Problem of Ascribing Legal Responsibility in the Case of Robotics. In: AI & Soc, 4, S. 473–481, DOI: 10.1007/s00146-015-0624-.

Darwall, Stephen (2006): The Value of Autonomy and Autonomy of the Will. In: Ethics, 2, S. 263–284. https://doi.org/10.1086/498461.

Datenethikkommission (2019): Gutachten der Datenethikkommission der Bundesregierung 2019. https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission-kurzfassung.pdf;jsessionid=2D3F771129FE36B3E65F587217FEC3FF.2_cid373?__blob=publicationFile&v=4 [25.10.2024].

Floridi, Luciano/Sanders, Jeff W. (2004): On the Morality of Artificial Agents. In: Minds and Machines, 3, S. 349–379. https://doi.org/10.1023/B:MIND.0000035461.63578.9d.

Floridi, Luciano (2016): Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions. In: Phil. Trans. R. Soc. A 374, S. 1–13. https://doi.org/10.1098/rsta.2016.0112.

Heidbrink, Ludger (2022): Kritik der Verantwortung. Zu den Grenzen verantwortlichen Handelns in komplexen Kontexten, Neuauflage, Weilerswist: Velbrück Wissenschaft.

Matthias, Andreas (2004): The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. In: Ethics and Information Technology 3, S. 175–183. https://doi.org/10.1007/s10676-004-3422-1.

Misselhorn, Catrin (2018): Maschinenethik: Maschinen als moralische Akteure, 3. Aufl., Stuttgart: Reclam.

Moor, James H. (2006): The Nature, Importance, and Difficulty of Machine Ethics. In: IEEE Intelligent Systems 4, S. 18–21. https://doi.org/10.1109/MIS.2006.80.

Staab, Philipp (2022): Anpassung. Leitmotiv der nächsten Gesellschaft, Berlin: Suhrkamp.

Teubner, Gunther (2018): Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten, Tübingen: Mohr Siebeck. Wallach,

Wendell/ Allen, Colin (2009): Moral Machines. Teaching Robots Right from Wrong, Oxford: Oxford University Press.

Heidbrink, Ludger (2024): Sphären der Unverantwortlichkeit. Zum Umgang mit den Verantwortungslücken der Digitalisierung. In: Verantwortungsblog. https://zevedi.de/sphaeren-der-unverantwortlichkeit/[12.12.2024]. https://doi.org/10.60805/dh0m-1k66.

Kategorien
Akzentfarbe: blau Autor: Annekathrin Kohout Verantwortungsblog

Wir User – Über Verantwortlichkeit in der Reaktionskultur

Wir User –
Über Verantwortlichkeit in der Reaktionskultur

Like, share, comment – die meisten Nutzer Sozialer Medien bemühen sich gar nicht darum, viralen oder irgendwelchen anderen Content zu produzieren, doch es braucht sie dennoch: die einfachen User, die durch ihr bloßes Reagieren Algorithmen beeinflussen, Aufmerksamkeit stiften oder verwehren und damit Diskurse und Debatten mitgestalten. Solche Reaktionen und die sich daraus ergebende Reaktionskultur trägt auch zu dem bei, was als „Verrohung“ der Onlinedebatten beobachtet wird. Es stellt sich die Frage nach Verantwortung.

Von Annekathrin Kohout | 21.11.2024

Titelbild Daumen nach oben
Erstellt mit Adobe Firefly, Prompt: „create a cubistic image of interaction symbols in the web, like share, like and thumbs up“

In kulturkritischen Texten und Debatten, insbesondere im Zusammenhang mit den Auswirkungen von Sozialen Medien, lassen sich zwei gegensätzliche Vorstellungen von Usern ausmachen. Zum einen gibt es die User als passive, leicht beeinflussbare Masse, „ähnlich unterkomplex wie Schwärme oder Horden“. (Türcke 2019, 13) Dieses Bild stellt User als empfängliche Konsumenten dar, die willenlos Informationen und Inhalte aufnehmen und durch Algorithmen, Werbung oder Desinformation sowie durch emotionale oder reißerische Inhalte leicht gelenkt werden können. Zum anderen existiert die Vorstellung des Users als manipulativem Akteur. Hier wird das gegenteilige Szenario gezeichnet, in dem User bewusst und gezielt Handlungen ausführen, um andere zu täuschen. Sie werden nicht als reaktive „Schwärme“ dargestellt, sondern als proaktive Anführer, die absichtlich Desinformation verbreiten, Verschwörungstheorien vorantreiben oder gezielt Einfluss auf politische und gesellschaftliche Diskurse nehmen, um die öffentliche Meinung zu beeinflussen. Diese Vorstellung ist häufig mit Debatten über Fake News, Trolle oder Rechtspopulismus in den Sozialen Medien verbunden.

Die meisten Menschen, die tagtäglich ihre Instagram-, X- oder TikTok-Feeds durchforsten oder eigene Inhalte erstellen, würden sich wohl keinem dieser beiden Extreme zuordnen. Betrachtet man Kommentare und Berichte darüber, wie Soziale Medien erlebt werden, stößt man vielmehr auf durchaus reflektierte und kritische Auseinandersetzungen mit dem Einfluss von Algorithmen, Werbung und Falschnachrichten. Eine solide Medienkompetenz lässt sich zudem leicht an alltäglichem Content von reichweitenstarken Influencern erkennen. Diese setzen Fake-Informationen oft spielerisch ein, um sie bewusst als Täuschung zu entlarven, statt sie als Wahrheit zu tarnen. So werden beispielsweise Inhalte zu ‚Trigger‘-Themen wie Schönheitsoperationen oder eine Beziehung mit großem Altersunterschied genutzt, um Empörung zu provozieren. Doch bei genauer Betrachtung entpuppen sich diese Inhalte oft als humorvolle, mit Filtern oder Behauptungen verzerrte Darstellungen. Solche strategischen Fakes zeugen von einem relativ aufgeklärten Umgang mit Falschinformationen – zumindest dann, wenn die User bereit sind, sich die nötige Zeit für die Entlarvung zu nehmen und die anfängliche Empörung kritisch zu hinterfragen.

Während die Produktionen anderer also insgesamt recht gut beurteilt und auch kritisch hinterfragt werden können, bleibt eine bewusste Auseinandersetzung mit der eigenen Rolle als aktive User oftmals noch aus. Die stereotypen Charakterisierungen von passiven Usern einerseits und manipulativen Usern andererseits berühren aber eine zentrale Frage: Wie verantwortlich sind wir für die Inhalte, die wir in den Sozialen Medien konsumieren und verbreiten? Im Fall der passiven User wird deutlich, wann wir es versäumen, Verantwortung zu übernehmen. Im Fall der manipulativen User zeigt sich, wie Verantwortung bewusst abgelehnt oder sogar absichtlich verweigert wird. Für diejenigen, die sich keinem dieser Typen zugehörig fühlen, stellt sich die Frage nach der eigenen Verantwortlichkeit jedoch kaum – zu Unrecht. Denn nicht nur geldgierige Unternehmen oder machtgierige Parteien; nicht nur PR-Leute, Troll-Armeen oder Bots sind mitverantwortlich für die „Verrohung“ (Ingrid Brodnig 2024) der Debattenkultur, für die „große Gereiztheit“ (Pörksen 2021) und „große Vertrauenskrise“ (Lobo 2023), ja für die „polarisierte Gesellschaft“ (Münch 2023). Auch wir User sind verantwortlich. Wir müssen uns dieser Verantwortung aber noch bewusster werden.

Die Infrastrukturen der Sozialen Medien sind so gestaltet, dass sie uns User permanent zu Reaktionen in Form von Likes, Shares und Kommentaren auffordern. Und auch die Inhalte werden „algorithmisch aufbereitet“, sodass sie Sensationelles, Zugespitztes oder Radikales bevorzugen (Lobo 2016) – sprich, sie sind darauf ausgelegt, starke Emotionen zu wecken und dadurch möglichst viele Reaktionen zu erzeugen. So entsteht eine Diskursöffentlichkeit, die Bernhard Pörksen als „Empörungsdemokratie“ (Pörksen 2021, 65) bezeichnet hat. Ausschlaggebend für diese Empörungsdemokratie ist zudem, dass sich User in ihren persönlichen Feeds oft direkt angesprochen fühlen – oder wie Wolfgang Ullrich es formuliert: „Da man sich in den Sozialen Medien jeweils an seine Follower wendet, beziehen diese die Postings auch direkt auf sich; sie sehen von vornherein ein Identifikationsangebot darin“ (Ullrich 2024). Meistens handelt es sich dabei aber in gewisser Weise um ein Missverständnis, da viele Inhalte – insbesondere von reichweitenstärkeren Profilen – nicht an einen überschaubaren Personenkreis und schon gar nicht an individuelle Menschen gerichtet sind, sondern an eine nicht genauer zu bestimmende Öffentlichkeit. (Kohout 2019, 67) Und selbst dann, wenn sich Influencer um eine genaue Adressierung – etwa mittels Ansprachen oder mit Hashtags – bemühen, werden sich jene Follower, die damit nicht gemeint sind, trotzdem angesprochen fühlen. Und wer angesprochen wird, der hat auch das Recht zu reagieren, fühlt sich vielleicht sogar dazu eingeladen oder aufgefordert.

Die Sozialen Medien haben eine ausgeprägte „Reaktionskultur“ hervorgebracht: „Eine Kultur, in der die Reaktion auf kulturelle Artefakte nicht mehr zweitrangig oder ihnen nachgestellt ist, sondern zum eigentlichen Zentrum wird. Die kulturellen Artefakte sind – zugespitzt formuliert – nur noch der Kick-Off für die Reaktionen darauf. Es ist eine Kultur, die nicht nur permanent Reaktionen zulässt, sondern die regelrecht dazu auffordert, sie provoziert.“ (Kohout 2024, 212f) Reaktionen sind spezifische Handlungen, die auf äußere Reize antworten – sie gelten in der Regel als weniger autonom im Vergleich zu proaktiven Handlungen, die aus innerer Initiative hervorgehen. In manchen Fällen geben User Verantwortung für das Gesagte einerseits und für das Sagen selbst, das Stimme-Erheben und sich Positionieren andererseits ab, insofern sie sich so darstellen, als würden sie „nur“ reagieren.

In der Anfangszeit der Sozialen Medien wurde das Teilen von Meinungen schnell als narzisstisch wahrgenommen. Es gibt unzählige Bücher und Texte, die thematisieren, wie Social-Media-Plattformen Narzissmus fördern oder verstärken. (Bspw. Twenge 2012; Storr 2017) Kein Wunder also, dass das Veröffentlichen im Social Web auch mit einigen sozialen Hemmungen verbunden war und bis heute ist. Reaktionen hingegen bieten eine Möglichkeit, die eigene Stimme in die Öffentlichkeit zu tragen, ohne narzisstisch oder aufdringlich zu erscheinen. Anstatt etwas selbst anzusprechen, ist die Reaktion eine Möglichkeit, annehmbare Gründe für das eigene Publizieren mitzuliefern, sich zum Sprechen berechtigt zu fühlen. Durch Reaktionen kann man sich außerdem verorten, Verknüpfungen herstellen und dem eigenen Anliegen eine größere Dringlichkeit verleihen. Reaktionen sind also oft inszeniert. Sie „nehmen teilweise sogar Werkcharakter an, […] und machen sich verschiedene Stilmittel zunutze. Man denke an das Format der Reaction Videos: Sie stellen nicht einfach eine emotionale Reaktion dar, sondern es sind visuell aufwendig inszenierte, ‚gestaltete Emotionen‘.“ (Kohout 2024, 213) Man gibt sich reaktiv, handelt aber eigentlich proaktiv.

Das heißt: Nicht alle Reaktionen im Social Web sind impulsive Reaktionen, bei denen die User nur wenig oder gar keine Zeit zur bewussten Reflexion haben und die typischerweise affektgesteuert sind und in stressigen oder emotional aufgeladenen Situationen auftreten. Sondern zunehmend lassen sich instrumentelle Reaktionen beobachten, die strategisch und zielgerichtet sind.

Instrumentelle Reaktionen sind häufig inszeniert und zielen darauf ab, die Emotionen der Lesenden oder Zuschauenden zu steuern und Handlungsimpulse auszulösen. In der Diskurskultur ist es üblich, Positionen als Reaktionen auf bestehende Standpunkte zu präsentieren, wie etwa in den Diskussionen um den Nahost-Konflikt: Diejenigen, die sich im Krieg zwischen Israel und den Palästinensern mit Israel solidarisieren, stärken ihre Position dadurch, dass sie sie als Reaktion auf das vermeintliche Kleinreden des terroristischen Angriffs vom 7. Oktober 2023 ausweisen, während diejenigen, die sich mit den Palästinensern solidarisieren, ihre Position als Reaktion auf das vermeintliche Kleinreden der darauf folgenden Angriffe in Gaza präsentieren. In der Reaktionskultur scheint es schwer bis unmöglich geworden zu sein, Mitgefühl und Solidarität auszudrücken, ohne gleichzeitig die gegenteilige Position anzugreifen. Sich die teilweise schon genannten Gründe dafür genauer anzuschauen – inwiefern User nach einem Anlass suchen, um die eigene Meinung zu teilen (v.a., wenn sie keine ausgewiesene Expertise besitzen), oder sie ihrerseits Reaktionen provozieren wollen usw. – ist ein noch offenes Unterfangen, das zu einer bewussteren Mediennutzung beitragen könnte. Denn der Nebeneffekt dieser Reaktions-Mechanismen ist, dass die Gegnerschaft im Netz verstärkt wird. Reaktionen werden zum performativen Akt, zum öffentlich inszenierten Widerstand gegen das „Andere“, das als Bedrohung für die eigene Identität oder Meinung empfunden wird.

Die Reaktionskultur, in der wir uns heute bewegen, verlangt nach einem tieferen Verständnis unserer Rolle als User. Wir agieren längst nicht mehr nur passiv, sondern sind oft aktiv Gestaltende des Diskurses, ob bewusst oder unbewusst. Jede Reaktion – sei es ein Like, Share oder Kommentar – trägt dazu bei, welche Themen an Sichtbarkeit gewinnen und welche verdrängt werden. Wir können nicht länger davon ausgehen, dass unsere Reaktionen keine Folgen haben, dass sie in der Masse untergehen. Denn in der Summe formen sie die digitale Öffentlichkeit. Wenn wir also die Verantwortung für die „Verrohung“ der Debattenkultur und die Polarisierung in Sozialen Netzwerken nicht ausschließlich auf Algorithmen, Trolle oder Falschnachrichten schieben wollen, dann müssen wir uns fragen, wie wir selbst durch unsere Reaktionen zur Diskursverschiebung beitragen. Es liegt in unserer Verantwortung, die Mechanismen der Reaktionskultur zu durchschauen und uns unserer Handlungsmacht bewusst zu werden und sie bewusster und reflektierter zu gestalten. 

Letztlich sind Aktionen und Reaktionen eng miteinander verbunden, und jede Reaktion ist ein aktiver Teil des Prozesses der Auseinandersetzung mit der Umwelt. Unsere Reaktionen in den Sozialen Medien beeinflussen nicht nur die Algorithmen, sondern auch die Art und Weise, wie wir als Gesellschaft miteinander kommunizieren. Die Verantwortung dafür tragen wir – wir User.

Brodnig, Ingrid: Wider die Verrohung. Über die gezielte Zerstörung öffentlicher Debatten: Strategien & Tipps, um auf Emotionalisierung und Fake News besser antworten zu können, Wien: Brandstätter Verlag 2024.

Kohout, Annekathrin: Hyperinterpretation und das Problem der hermeneutischen Willkür, in: Birte Kleine-Benne (Hg.): Eine Kunstgeschichte ist keine Kunstgeschichte. Kunstwissenschaftliche Perspektiven in Text und Bild, Berlin: Logos Verlag 2024, S. 203-225. 

Kohout, Annekathrin: Netzfeminismus, Berlin: Klaus Wagenbach 2019.

Lobo, Sascha: Die große Vertrauenskrise. Ein Bewältigungskompass, Köln: Kiepenheuer & Witsch 2023.

Lobo, Sascha (2016): Das Ende der Gesellschaft. Digitaler Furor und das Erblühen der Verschwörungstheorien. In: Blätter für deutsche und internationale Politik 10, S. 59-74.

Münch, Richard: Polarisierte Gesellschaft. Die postmodernen Kämpfe um Identität und Teilhabe, Frankfurt am Main: Campus Verlag 2023.

Pörksen, Bernhard: Die Große Gereiztheit. Wege aus der kollektiven Erregung, München: Goldmann Verlag 2021.

Storr, Will: Selfie: How We Became So Self-Obsessed and What It’s Doing to Us, Hampshire 2017.

Türcke, Christoph: Digitale Gefolgschaft. Auf dem Weg in eine neue Stammesgesellschaft, München: C.H. Beck 2019.

Twenge, Jean M.: The Narcissism Epidemic: Living in the Age of Entitlement, New York 2012.

Ullrich, Wolfgang: Identifikation und Empowerment. Kunst für den Ernst des Lebens, Berlin 2024.

Kohout, Annekathrin (2024): Wir User – Über Verantwortlichkeit in der Reaktionskultur. In: Verantwortungsblog. https://zevedi.de/wir-user-ueber-verantwortlichkeit-in-der-reaktionskultur/ [21.11.2024]. https://doi.org/10.60805/etvc-6b74.

Kategorien
Akzentfarbe: grün (Brenneis-Text) Autor: Andreas Brenneis Verantwortungsblog

Generative KI und Dual-Use: Risikobereiche und Beispiele

Generative KI und Dual-Use: Risikobereiche und Beispiele

Die Fähigkeiten generativer KI beeindrucken – und beunruhigen, denn KI ist eine Dual-Use-Technologie. KI-Systeme können sowohl für zivile als auch für militärische Zwecke, sowohl in vorteilhafter als auch schädlicher Absicht eingesetzt werden. Technologien wie Maschinelles Lernen und Generative KI verändern dadurch die Landschaft der Sicherheitsrisiken tiefgreifend – für Bürger, Organisationen, Gesellschaften und Staaten. Doch welche Risikobereiche sind konkret betroffen? Und wie kann man gegensteuern?

Von Andreas Brenneis | 07.11.2024

Erstellt mit Adobe Firefly

Die rasanten Entwicklungen im Forschungsfeld der Künstlichen Intelligenz (KI) bringen technologische Fortschritte wie auch gesellschaftliche Implikationen mit sich und machen multiperspektivische Diskussionen unter Berücksichtigung diverser normativer Rahmenwerke notwendig. „KI“ ist als Begriff zunächst weit und abstrakt und umfasst unterschiedliche Technologien und Anwendungen, sodass es nicht verwundert, dass sie eine Fülle von Bewertungsfragen aufwirft, wobei diverse Normenordnungen berührt sind: rechtliche Regeln, ethische Prinzipien, moralische Normen, soziale Standards, kulturelle Werte, religiöse Gesetze, politische Ideale und ethische Überlegungen (vgl. auch Kettemann 2020).

KI-Systeme und insbesondere Generative KI werden zudem sehr verschiedenen Nutzungsgruppen zugänglich. Dadurch erlangen Fragen des Dual-Use ebenfalls größere Bedeutung. Die Perspektive des Dual-Use umfasst mehrere Normordnungen und wirft im Kern Dilemmata hinsichtlich der Forschung und Entwicklung von Wissen, Technologien und Werkzeugen auf, die für böswillige Zwecke missbraucht werden könnten, die also neben einem ersten erwünschten oder gebilligten Einsatzbereich auch noch einem zweiten, unerwünschten Zweck dienen können (Tucker 2012, Riebe 2023). In den folgenden Abschnitten werde ich die spezifische Herausforderung des Dual-Use hinsichtlich der Entwicklung von Generativer KI erörtern. Ich gehe daher also nicht auf allgemeine Bedenken hinsichtlich Künstlicher Allgemeiner Intelligenz (zu Artificial General Intelligence, kurz AGI, vgl. McLean et al. 2023), den in maschinellen Lernansätzen inhärenten Verzerrungen (zu Biases vgl. Ntoutsi et al. 2020) oder betrieblicher Probleme in praktischen KI-Einsatzkontexten (Raji et al. 2022) ein.

Wie vielfach diskutiert, birgt KI-Technologie Potenzial sowohl für die Förderung als auch für die Untergrabung menschlichen Wohlergehens – abhängig von ihrer Nutzung, also ihrem kontextspezifischen Ge- oder Missbrauch (Brenneis 2024, Ambrus 2020). Die rasante Entwicklung und kontinuierliche Verfeinerung von Maschinellem Lernen, Generativer KI und von großen Sprachmodellen verdeutlicht die Möglichkeiten, sie für komplexe kreative Unternehmungen nutzen und positive Entwicklungen in verschiedenen Bereichen wie der Verbesserung von Arbeitsabläufen und der Datenanalyse erzielen zu können. Als Teilgebiete der KI nutzen die Natürliche Sprachverarbeitung (Natural Language Processing, kurz NLP) und die Generative KI Techniken des Deep Learning sowie umfangreiche Datensätze, um neuronale Netzwerke zu trainieren und es ihnen zu ermöglichen, verschiedene Formen kultureller Schöpfungen und Artefakte anhand von statistischen Mustern zu verstehen und zu generieren. Während dies erhebliche Chancen für Unternehmen und die Öffentlichkeit bietet, birgt es auch Risiken: Der Missbrauch von KI durch Kriminelle und andere Akteure mit bösartigen Absichten kann das individuelle Wohlergehen gefährden und grundlegende Rechte sowie den sozialen Zusammenhalt untergraben. Generative KI-Systeme sind in der Lage, neue Inhalte wie Texte, Bilder, verschiedene andere Medienformen oder Code zu erzeugen und machen Dual-Use-Überlegungen in Bezug auf KI äußerst komplex (Grinbaum & Adomaitis 2024, Kaffee et al. 2023, Solaiman et al. 2019).

Dual-Use-Dilemmata liegen dann vor, wenn unsicher ist, ob und wie potenzielle negative Folgen des Missbrauchs von Technologie oder Forschungsergebnissen zu verhindern sind, ohne zugleich die prospektiven Vorteile von Forschung und Technik aufzugeben. Diese Dilemmata werfen schwierige Fragen zum Gleichgewicht zwischen den Risiken und Nutzen im Zusammenhang mit der Entwicklung, Verbreitung und Regulierung potenziell gefährlicher Technologien oder Forschungsergebnisse auf. Dual-Use-Bedenken gewannen während des Kalten Krieges an Bedeutung, als Technologien, die ursprünglich für militärische Zwecke entwickelt wurden, wie etwa Kernenergie und biologische Wirk- und Kampfstoffe, ethische Fragen hinsichtlich ihrer potenziellen zivilen Anwendungen aufwarfen. Zugleich verstärkten sich Befürchtungen, dass Entwicklungen mit Dual-Use-Potenzial nicht nur für friedliche, sondern auch für schädliche Zwecke ausgenutzt werden könnten, bis hin zum Einsatz als Massenvernichtungswaffen. Als Antwort entstanden erste Rahmenwerke zur Regulierung und Kontrolle solcher Technologien (Forge 2010, Tucker 2012, Oltmann 2015).

In den Bereichen Informatik und Informationstechnologie liegt die Herausforderung im Zusammenhang mit Dual-Use darin, dass das jeweilige Risiko vom Stand und Prozess der Forschung und Entwicklung der betreffenden Arbeit abhängt, während die Technologie selbst inhärent ambivalent bleibt. Software zeichnet sich durch ihre vielseitige Einsatz- und Anpassungsfähigkeit in sowohl allgemein akzeptierten als auch in schädlichen Kontexten aus und unterscheidet sich dadurch erheblich von den unmittelbar schädlichen Auswirkungen chemischer, biologischer und nuklearer Waffen (Riebe & Reuter 2019). Daher müssen Bewertungen des Dual-Use-Risikos im IT-Bereich auf Fallstudien basieren und die spezifische Verflechtung von genau umrissenen Kontexten und KI-Technologien analysieren. Bis vor wenigen Jahren hat sich die Dual-Use-Debatte in der Informatik hauptsächlich auf Kryptografie (Vella 2017) und die Verbreitung von Spionagesoftware konzentriert – begleitet von ersten Ansätzen in der IT-Sicherheitsforschung (Weydner-Volkmann & Cassing 2023). Die IT-Sicherheitsforschung gewinnt rapide an Bedeutung, da Angriffe auf IT-Systeme erhebliche Auswirkungen auf Einzelpersonen, Unternehmen, Institutionen, Behörden und sogar ganze Gesellschaften haben können (z. B. wenn sie auf kritische Infrastrukturen abzielen). Angesichts der tiefen Integration von IT-Systemen in den Alltag von immer mehr Menschen wird die Sicherheit dieser Systeme zu einer gesellschaftlichen Aufgabe. Digitale Angriffe auf IT-Systeme sind global, anonym und zunehmend – auch durch KI – mit geringem Aufwand durchzuführen.

IT-Sicherheit ist insofern eine Art Querschnittsaufgabe, die verschiedene Aspekte des Dual-Use-Problems in Bezug auf KI betrifft. Aber Technologien wie Maschinelles Lernen und Generative KI verändern die Landschaft der Sicherheitsrisiken für Bürger, Organisationen, Gesellschaften und Staaten in noch deutlich umfassenderer Weise (Brundage et al. 2018, da Empoli & Della Porta 2023). Zu analytischen Zwecken lassen sich drei Bereiche unterscheiden, die in der Praxis jedoch eng miteinander verknüpft sind: Der böswillige Einsatz von KI kann nicht nur die digitale Sicherheit gefährden (z. B. wenn Kriminelle Algorithmen trainieren, um ihre Opfer zu hacken oder zu manipulieren), sondern auch die physische (z. B. wenn nichtstaatliche Akteure Konsumdrohnen bewaffnen) und sogar die politische (z. B. durch Überwachung, Profiling, Eingriffe in die Privatsphäre oder durch automatisierte und zielgerichtete Desinformationskampagnen). Um die Dual-Use-Problematik von Generativer KI zu erörtern, werden zunächst spezifische Merkmale von KI-Systemen vorgestellt, die zu deren Dual-Use-Potentialität beitragen. Im folgenden Abschnitt werden dann Dual-Use-Risikobereiche und zugehörige Beispiele besprochen.

KI ist also eine Dual-Use-Technologie. KI-Systeme und das Wissen über ihre Entwicklung können sowohl für zivile als auch für militärische Zwecke genutzt werden und sowohl zu vorteilhaften als auch zu schädlichen Zwecken führen (zur Vielfalt an Dual-Use-Definitionen vgl. Rath et al. 2014). Und entsprechende Forschung kann nicht einfach vermeiden, Forschungsprogramme und Systeme zu entwickeln, die schädlichen Zwecken dienen könnten. Viele Aufgaben, bei denen eine Automatisierung durch KI sinnvoll ist, stehen selbst guten und schlechten Zwecken offen: Zum Beispiel haben Systeme, die Software auf Schwachstellen überprüfen, sowohl offensive als auch defensive Anwendungen, und der Unterschied zwischen den Fähigkeiten einer autonomen Drohne, die Pakete liefert, und einer, die Sprengstoff abwirft, kann technisch unerheblich sein. Darüber hinaus ist schon Grundlagenforschung zu den generellen Möglichkeiten von KI und zur Verbesserung ihrer Fähigkeiten und zu Möglichkeiten der menschlichen Kontrolle über sie inhärent von Dual-Use-Problemen betroffen.

In Bezug auf Dual-Use-Probleme teilt der Sektor der KI-Forschung drei wesentliche Aufgaben mit anderen Bereichen, die unter die Kennzeichnung als „Dual Use Research of Concern“ bzw. DURC fallen (Grinbaum & Adomaitis 2024, Riebe 2023). Diese Aufgaben umfassen die Überwachung laufender Entwicklungen, die Einrichtung von Governance- oder Kontrollmechanismen für die zugehörige Forschung und die Bereitstellung von Richtlinien für die Entwicklung und den Umgang mit KI-Anwendungen, die als Dual-Use eingestuft werden. Vier Merkmale tragen zu Dual Use Eigenschaften von KI-Systemen bei: qualitative Vorteile, quantitative Anwendbarkeit, leichte Verbreitung und inhärente Schwachstellen.

(1) KI-Systeme können menschliche Fähigkeiten übertreffen, insbesondere in engen, wohldefinierten Aufgabenbereichen. Beispiele sind Spiele (Schach, Go), diagnostische Bildauswertung (Gewebeveränderungen) und selbst frühe Formen generativer KI können Desinformation produzieren, die größere Wirkung hat als menschlich erzeugte Inhalte (Spitale et al. 2023).

(2) Wie andere erfolgreiche Technologien zeichnen sich KI-Systeme durch Effizienz und Skalierbarkeit aus. Ein KI-System kann menschliche Leistungen hinsichtlich Geschwindigkeit oder Kosten übertreffen, (bislang) meist nach einem vorgängigen spezifischen Training. So arbeiten generative KI-Tools bei der Erstellung von Ausschreibungen, Zusammenfassungen oder sogar wissenschaftlichen Artikeln enorme Textmengen durch. Skalierbarkeit meint zusätzlich  die Fähigkeit eines Systems, schnell auch mehrere Instanzen einer Aufgabe zu bewältigen. Beispielsweise zeigt ein Gesichtserkennungssystem, das zur Überwachung verwendet wird, im Vergleich zu menschlichen Analysten sowohl hohe Effizienz als auch Skalierbarkeit, wenn es kostengünstige Analysen über millionenfache Kamerafeeds bietet.

(3) Die Möglichkeit der schnellen Verbreitung von KI-Systemen ist ein weiterer entscheidender Aspekt. Wenn Quellcode in der KI-Forschungscommunity verfügbar ist, können neue Algorithmen vergleichsweise schnell repliziert werden. Diese Softwareportabilität ermöglicht die einfache Verbreitung und Weitergabe von KI-Systemen oder zumindest relevantem Wissen auf digitalen Kanälen. Dieses Merkmal ist besonders relevant in Diskussionen über regulatorische Herausforderungen (wie Exportkontrollen) und betont die Sorgen um die Kontrolle und Überwachung der Softwareverbreitung über nationale Grenzen hinweg, insbesondere im Kontext von Dual-Use-Technologien oder Cybersicherheit (Riebe 2023).

(4) Zeitgenössische KI-Systeme sind mit ungelösten Schwachstellen konfrontiert, darunter sogenannter Data-Poisoning-Angriffe, die Fehler verursachen, täuschende Beispiele (adversarial examples), die das System korrumpieren, indem sie Fehlklassifikationen hervorrufen, und die Ausnutzung von Designfehlern in den Zielen autonomer Systeme (BSI 2023). Prompt Engineering, das einerseits entscheidend für die Optimierung von KI ist, kann missbraucht werden, um Formen der Inhaltsmoderation zu umgehen, wie das Beispiel des „DAN“-Jailbreak-Prompts zeigt („DAN“ steht als Akronym für „Do Anything Now“). Trotz der Reaktion von OpenAI auf dieses Problem bereiten neuere Versionen von DAN den Sicherheitsmechanismen des Modells nach wie vor Probleme (Europol 2023). Solche Schwachstellen werden im weiteren Verlauf der Diskussion über Risikoaspekte im Zusammenhang mit generativer KI näher beleuchtet.

Diese vier genannten Aspekte tragen einzeln, aber vor allem zusammen zu den Herausforderungen bei, die mit dem Dual-Use-Potenzial bestimmter KI-Technologien verbunden sind.

Zu diskutieren sind mehrere – unter dem Dual-Use Gesichtspunkt – ambivalente oder potenziell negative Anwendungsszenarien, ich nenne sie „Risikobereiche“. Sie erstrecken sich in unterschiedlichem Maße über die drei eingangs vorgestellten sicherheitskritischen Bereiche: digitale, physische und politische Sicherheit, der Bedarf an kritischen Dual-Use-Einschätzungen steigt dabei zunehmend.

Da es nicht trivial ist, Algorithmen so zu gestalten, dass sie im Einklang mit menschlichen Werten oder überhaupt nur mit den Zielen der Programmierung arbeiten, besteht das Risiko einer unbeabsichtigten Differenz zwischen den Ergebnissen der KI und den menschlichen Absichten (Christian 2020). Darüber hinaus können KI-Systeme auch explizit auf fragwürdige Ziele hin trainiert werden und dann Wege finden, diese auf Kosten des individuellen oder gesellschaftlichen Wohlergehens zu verfolgen. Empfehlungsalgorithmen z.B. werden häufig darauf trainiert, die Aufenthaltsdauer und die Klickrate zu maximieren. Entsprechende Inhalte tragen jedoch eher nicht zu einem besseren Wohlbefinden bei (Milano et al. 2021). Zudem können Empfehlungssysteme Menschen dazu bringen, extreme Überzeugungen zu entwickeln, um ihre Präferenzen leichter vorhersagen zu können, wodurch sie selbst besser funktionieren.

Wo Verantwortung zunehmend an Maschinen übertragen wird, besteht die Gefahr, wesentliche Kompetenzen zu verlieren. Der fortschreitende Ersatz oder die Verdrängung menschlicher Intelligenz durch KI-Systeme, getrieben durch die Geschwindigkeit und Kosteneffizienz bei der Erledigung bestimmter Aufgaben, erhöht die Wahrscheinlichkeit eines Kompetenzverlusts sowohl auf individueller als auch auf gesellschaftlicher Ebene. Dieser Trend ist im Hinblick auf kognitive Fähigkeiten problematisch, einschließlich Fertigkeiten in Bereichen wie Forschung, Planung oder Bewertung. Aber auch soziale Interaktionsformen können durch generative KI starken Veränderungen unterworfen werden. Darüber hinaus könnten Unternehmen angesichts der raschen Veränderungen im makroökonomischen Umfeld freiwillig Teile ihrer Kontrolle an KI-Systeme abgeben, um wettbewerbsfähig zu bleiben. Und im militärischen Bereich gibt es eine grundlegende ethische Debatte darüber, welche Kompetenzen und Entscheidungen im Falle von Kriegshandlungen an Maschinen delegiert werden dürfen (Reichberg & Syse 2021, Lucas et al. 2023).

Zahlreiche kognitive Aufgaben beinhalten die Interaktion und Kommunikation mit Menschen. Dazu gehören Aktivitäten wie Beobachten, Reagieren auf Handlungen, Entscheiden und das Verhandeln gemeinsamer Ziele. Die KI-gesteuerte Automatisierung solcher Aufgaben ermöglicht es Akteuren, anonym zu agieren und dabei eine erhebliche psychologische Distanz zu denjenigen zu wahren, die sie beeinflussen. Zum Beispiel kann derjenige, der ein autonomes Waffensystem für einen Angriff einsetzt, die physische Präsenz am Tatort und den direkten Kontakt mit dem Opfer vermeiden. Diese erhöhte Distanz zeigt sich auch bei Anwendungen wie Chatbots oder Assistenzsystemen im Pflegebereich und spielt insbesondere bei Aktivitäten, die im digitalen Bereich Schaden verursachen (z.B. Social Engineering, Malware, Ransomware) eine zentrale Rolle.

KI verstärkt nicht nur die Effizienz, sondern transformiert auch das Feld des Datenschutzes und bringt sowohl auf individueller wie auch auf struktureller Ebene Herausforderungen mit sich. Selbst altbackene Datenquellen wie Bezahlkarten für Mensa oder Cafeteria können durch gezielte Fragen nuancierte Informationen über die Gewohnheiten, Zugehörigkeiten und potenziellen Gesundheitsrisiken einer Person enthüllen. Heute gibt es umfangreichen Datensammlungen, die sich u.a. aus den Tools des Internet-of-Things (wie Überwachungskameras, Sprachassistenten und Smartphones), Datenpools (z.B. im Gesundheitswesen, Wohnungswesen, zur Kreditwürdigkeit oder zu Sozialleistungen) sowie aus den riesigen Mengen an Informationen, die von spezialisierten Unternehmen online gesammelt werden, speisen. Diese Daten erlauben umfassende Analysen und erhöhen den Bedarf an robusten Datenschutzmaßnahmen und Medienkompetenzen. Datenschutzprobleme werden mit den Fähigkeiten der KI augenfälliger, wie das Beispiel der chinesischen Stadt Suzhou zeigt, wo KI-gestützte Überwachung Menschen bloßstellte, die in der Öffentlichkeit Pyjamas trugen (Qin 2020). Neben der (potenziell immer totalitären) Überwachung haben Cyberangriffe das Potenzial, erhebliche persönliche Informationen abzugreifen. Besonders bemerkenswert ist der Einsatz eines Modells zur Dosierung von Medikamenten und demografischen Daten, bei dem Angreifer genomische Informationen über Patienten vorhersagen konnten (Fredrikson et al. 2014). Fälle von Identitätsdiebstahl haben dazu geführt, dass Behandlungen unter falschen Namen abgerechnet wurden, was erhebliche finanzielle Folgen nach sich zog (Seh 2020).

Von KI erzeugte Desinformationen, einschließlich überzeugend gestalteten Contents, können zu substantieller individueller und gesellschaftlicher Verwirrung und Zwietracht führen. Akteure wie Staaten, politische Parteien und andere Organisationen nutzen Technologien, um andere von ihren politischen Überzeugungen, Ideologien und Narrativen zu überzeugen. Im Kampf um Aufmerksamkeit könnte KI zu einer neuen Ära führen und personalisierte Kampagnen (einschließlich Desinformation) in bisher unbekanntem Maßstab ermöglichen. KI kann überzeugende, faktisch genaue Argumente formulieren, die intensive emotionale Reaktionen hervorrufen, aber sie öffnet auch Tür und Tor zur Erstellung von Fälschungen und Deepfakes. Generative KI birgt zwei wesentliche Bedrohungen im Hinblick auf das soziale Gefüge in der Online-Welt (Koplin 2023). Die erste Sorge bezieht sich auf den möglichen Missbrauch generativer KI zur Herstellung von „synthetischen“ Fake News, wodurch sich ein ansonsten ressourcenintensiver Prozess automatisieren lässt, der sonst von Menschen durchgeführt wird. Diese Automatisierung ermöglicht es mühelos irreführende Artikel und Posts zu erstellen, um bestimmte Perspektiven zu unterstützen, politische Regime zu diskreditieren oder Produkte, Einzelpersonen oder Unternehmen zu (dis-)liken – je nach Ziel oder Auftrag. Eine zweite Bedrohung betrifft die potenzielle Nutzung der Technologie für Astroturfing und verwandte Aktivitäten, die die Erstellung kohärenter, diversifizierter und v.a. menschlich wirkender Content-Versatzstücke zu beliebigen Themen automatisiert. So lassen sich z.B. soziale Medien mit Posts überfluten, die eine politische Haltung fördern (eben das „Astroturfing“), oder Plattformen mit Bewertungen für bestimmte Produkte überschwemmen (seien es Nagellack oder Aktien). Generative KI kann somit zur Schaffung falscher Eindrücke beitragen und übermäßigen „Lärm“ (noise) erzeugen, der echte Kommentare und sinnvolle Dialoge behindert. Eng mit der Bedrohung durch Online-Lärm verbunden ist die Überflutung mit minderwertigen Inhalten, die sich über verschiedene Bereiche von Clickbait bis hin zu wissenschaftlichen Publikationen erstreckt. Während diese Bedrohungen nicht völlig neu sind, bringt die generative KI eine beispiellose Kapazität mit sich, böswillige oder irreführende Inhalte in großem Maßstab mühelos zu erzeugen und damit bestehende Herausforderungen im Zeitalter der sozialen Medien zu verstärken (Koplin 2023). Diese Risiken werden oft diskutiert, weil sie das Potenzial haben, etablierte Gewohnheiten zu untergraben – von epistemischen Standards bis hin zu sozialer Harmonie. Sie können aber auch zur Destabilisierung demokratischer Systeme beitragen und Teil krimineller Aktivitäten (King et al. 2020, Europol 2023) oder kognitiver Kriegsführung (Miller 2023) sein.

Generative KI erweist sich in verschiedenen kriminellen Unternehmungen als äußerst zielführend (King et al. 2020). Wie im letzten Abschnitt erwähnt, setzen kriminelle Akteure auf Social-Engineering-Techniken, die menschliche Neigungen wie Neugier und Angst ausnutzen, um die Preisgabe von sensiblen Informationen oder die Installation von Malware zu erwirken. Mit den fortschreitenden Fähigkeiten von Computerprogrammen in sozialer Interaktion, wie Chatbots, haben sich solche Social-Engineering-Prozesse weiterentwickelt. KI-Systeme tragen dazu bei, indem sie Prozessschritte automatisieren und relevante Informationen online extrahieren, um individuell zugeschnittene betrügerische Websites, Social-Media-Profile, Links oder E-Mails für Spear-Phishing-Angriffe zu erstellen (BSI 2023). Generative KI-Tools zeichnen sich durch die Erstellung hochgradig realistischer Imitationen aus, die die Effektivität von Phishing-Maschen intensivieren – von betrügerischen Investitionsversprechungen bis hin zu CEO-Fraud. Dabei tragen die kontextuell variablen Antworten und adaptiven Schreibstile dieser Tools zur Erfolgsquote sozialer Kriminalität bei. Folglich beschleunigt generative KI die Entwicklung von Phishing- und Online-Betrugsaktivitäten – besonders durch scheinbare Authentizität und die Skalierbarkeit einzelner Prozessschritte (Europol 2023).

Werkzeuge generativer KI können (angehende) Kriminelle bei ihren Überlegungen und Erkundungen unterstützen, wenn sie relevante Informationen aufbereiten und z.B. Schritt-für-Schritt-Anleitungen zur Verfügung stellen. Insbesondere konversationelle KI-Tools werden so zu einem wertvollen Werkzeug, um ohne vorheriges Wissen Einblicke in verschiedene potenzielle Kriminalitätsbereiche zu gewinnen, von Wohnungseinbrüchen bis hin zu Terrorismus, Cyberkriminalität oder sexuellem Missbrauch.

Werkzeuge wie ChatGPT oder Claude generieren nicht nur menschlich wirkende Spracherzeugnisse, sondern auch Code in verschiedenen Programmiersprachen, was sie zu einem wertvollen Instrument für kriminelle Akteure mit begrenzten Programmierkenntnissen macht (Europol 2023). Schutzmaßnahmen gegen bösartigen Code können umgangen werden, indem man Eingabeaufforderungen umformuliert. Ben-Moshe et al. (2023) beschreiben, wie sich mit ChatGPT ein Virusangriff planen und durchführen lässt und dass entsprechende Akteure die Software quasi mit ihrem Erscheinen in der Öffentlichkeit auch für diese Zwecke genutzt haben.

Im Bereich IT-Sicherheit können böse Programme KI nutzen, um automatisch Schwachstellen in IT-Systemen zu identifizieren und auszunutzen, wobei die Entdeckung neuer Schwachstellen durch die Kenntnis bekannter Muster von Code-Schwachstellen beschleunigt wird (BSI 2023). Dies umfasst KI-unterstütztes Fuzzing, eine Technik, bei der zufällige Eingaben verwendet werden, um Software auf Fehler und Sicherheitsprobleme zu testen. Für Angriffe kann das Zeitfenster zwischen der Meldung einer Schwachstelle und ihrer Schließung genutzt werden, indem lernende Systeme gemeldete Schwachstellen mithilfe öffentlich verfügbarer CVE-Nummern (Common Vulnerabilities and Exposures) automatisch identifizieren und angreifen. Diese automatisierte Analyse und Prüfung kann entscheidend für Angreifer sein, die Websites oder Geräte kompromittieren wollen. Angreifer können auch KI nutzen, um Malware basierend auf Erkenntnissen zu optimieren, die durch die Beobachtung der Reaktionen von Sicherheitssystemen während Angriffen gewonnen wurden. Indem sie Modelle gegen frei verfügbare Sicherheitstechnologien trainieren, können Angreifer legitimen Datentransfer simulieren, um böswillige Aktivitäten zu verschleiern. Zum Beispiel kann das Nachahmen menschlichen Verhaltens bei Distributed-Denial-of-Service-Angriffen (DDoS) es Sicherheitssystemen erschweren, Angriffe zu erkennen oder rechtzeitig zu reagieren. Obwohl diese Formen des KI-Missbrauchs mehr von maschinellem Lernen und Automatisierung als von generativer KI abhängen, stellen sie erhebliche Risiken dar, da sie Angriffe verstärken und die Erkennung umgehen oder zumindest erschweren können.

Eng verbunden mit der KI-gestützten Erkennung und Ausnutzung von Schwachstellen sind Authentifizierungsrisiken und Manipulationsbedrohungen (BSI 2023). Die Manipulationsfähigkeiten von generativer KI stellen eine Herausforderung für bild- und sprachbasierte Authentifizierungen in sicherheitskritischen Bereichen dar, wie beispielsweise bei der biometrischen Identifikation für Smartphones, Banking-Apps und bei Sicherheitskontrollen. Schwachstellen werden durch Angriffe mit 3D-gedruckten Masken, Morphing oder Deepfakes attackiert und bestehen trotz der hoch entwickelten Effektivität von KI-Modellen im Feld der biometrischen Identifikation. Anfälligkeiten bestehen sowohl während des anfänglichen Trainings als auch im Live-Betrieb und betreffen verschiedene Anwendungsfälle von KI-Modellen (Berghoff et al. 2021). Szenarien der Datenvergiftung (Data Poisoning) umfassen die absichtliche Manipulation von Trainingsdaten für maschinelles Lernen oder große Sprachmodelle, um Verzerrungen oder ausnutzbare Hintertüren einzuführen. Adversariale Angriffe manipulieren Live-Eingabedaten, um unbeabsichtigte Ausgaben von KI-Modellen hervorzurufen. Morphing-Angriffe täuschen Gesichtserkennungssysteme, indem sie Datensätze verschmelzen (z.B. biometrische Passfotos). Deepfake-Manipulationen, hochwertige Veränderungen von Gesichtern und Stimmen in Videos und Audio erlauben verschiedene kriminelle Aktivitäten wie das Überwinden von Fernidentifikationssystemen, Verleumdung oder Betrug (z.B. „CEO-Fraud“) und unterstreichen die Notwendigkeit der Wachsamkeit gegenüber der Manipulation (medialer) Identitäten in verschiedenen Kontexten (Brewster 2021, Westerlund 2019).

Ein vieldiskutierter Sektor im Bereich sich entwickelnder KI-Fähigkeiten sind die Möglichkeiten und die ethischen Implikationen von tödlichen autonomen Waffen (Lethal Autonomous Weapons, LAWS) für den Einsatz in Kriegsszenarien (Horowitz 2021). Während der Fortschritt von KI-Systemen für automatisierte Cyberangriffe größtenteils vertraulich bleibt und nicht öffentlich zugänglich ist (Buchanan et al. 2020), ist davon auszugehen, dass KI-gestützte Waffensysteme und weitere militärische Anwendungen einen erheblichen Einfluss auf das internationale Kräfteverhältnis ausüben werden (Carozza et al. 2022).

Wie im Bereich der Kriminalität gehen mit dem Erstarken von maschinellem Lernen und generativer KI neue Risiken einher, insofern KI Akteure zu theoretischem und praktischem Wissen befähigen kann, die zuvor keinen Zugang zu Waffen mit Massenvernichtungspotenzial hatten. Drei illustrative Fälle verdeutlichen diese Problematik: Das MegaSyn-Modell wurde ursprünglich für die Medikamentenentwicklung konzipiert und stellt eine potenzielle Bedrohung dar, da es leicht umprogrammiert werden kann, um schädliche Moleküle zu entdecken. Durch die Veränderung weniger Parameter im Algorithmus kann so die Entwicklung von biochemischen Waffen vorangetrieben werden (Urbina et al. 2022). Anwendungen wie GPT-4 verfügen über die Fähigkeit, autonom Experimente durchzuführen und Chemikalien in einem realen Labor zu synthetisieren. Sie können dabei ihren Code anpassen, um eigenständig Protokolle auszuführen (Boiko et al. 2023). Ein Beispiel für die einfache Zugänglichkeit solcher Informationen haben Studierende am MIT aufgezeigt, die zuvor keine Kenntnisse über Dual-Use-Biotechnologie hatten: Sie demonstrierten, wie leicht sich verfügbare Daten über Viren mit pandemischem Potential, Bezugsquellen für Ausgangsmaterialien und Labore mit laxen Sicherheitskontrollen für die Synthese schädlicher Substanzen in Erfahrung bringen lassen (Soice et al. 2023).

Während die dargestellten Risiko- und Anwendungsbereiche keinen umfassenden Überblick über alle potenziellen Dual-Use-Probleme bieten, die zu berücksichtigen sind, geben sie doch Aufschluss über die Bandbreite der Möglichkeiten. In Bezug auf die diskutierten Risikoaspekte, die digitale, physische und soziale oder politische Bedrohungen durch KI umfassen, lassen sich über eine Taxonomie verschiedene Szenarien für den Missbrauch von KI-Technologie und KI-Forschungsergebnissen aufzeigen. Zusätzlich lassen sich drei Arten von Folgen von Missbräuchen feststellen: Erstens gibt es die Erweiterung bestehender Angriffsstrategien, wie etwa die Automatisierung von Forschung durch Kriminelle für personalisierte Spear-Phishing-Angriffe oder die Ausnutzung anfälliger IT-Systeme auf Basis von CVE-Nummern. Zweitens entstehen mit der Entwicklung von KI neue Bedrohungen, darunter gezielte Angriffe auf Schwachstellen von KI-Systemen, autonome Waffen, eine Erleichterung des Zugangs zu potenziell gefährlichen Informationen durch generative KI oder die vereinfachte Umsetzung böser Absichten wie bei der Entdeckung tödlicher Moleküle durch maschinelles Lernen. Drittens können Angriffe ihren Charakter ändern und KI-Fähigkeiten zur effektiven und effizienten Skalierung nutzen. Beispiele hierfür sind umfassendes Social Engineering, kognitive Kriegsführung, Identitätsdiebstahl in den Sektoren Medizin oder Finanzen und generell Ansätze zur De-Anonymisierung.

Was folgt aus der geschilderten Lage? Für eine konsequentere Berücksichtigung von Dual-Use-Überlegungen in KI-Projekten scheint es mir entscheidend, Einzelfälle innerhalb einer Taxonomie zu identifizieren und zu bewerten (Brenneis 2024, Grinbaum & Adomaitis 2024, BSI 2023, EUROPOL 2023, Brundage et al. 2018). Während die Bedrohungen durch generative KI und maschinelles Lernen möglicherweise nicht so offensichtlich oder unmittelbar katastrophal sind wie diejenigen, die mit chemischen, biologischen, radiologischen oder nuklearen Gefahrstoffen verbunden sind, sollten sie nicht unterschätzt werden. Große Sprachmodelle, die prima facie keine großflächige physische Zerstörung und keinen unmittelbaren Schaden verursachen, können dennoch erhebliche Auswirkungen haben (Koplin 2023, Hansel & Silomon 2023). Diese Bedrohungen können sich auf weniger offensichtliche, indirekte oder graduelle Weise manifestieren, was die Erkennung und Vorhersage im Vergleich zu traditionellen Formen der Dual-Use-Betrachtungen und des Dual-Use-Research-of-Concern erschwert. Daher ist es unerlässlich, die potenziellen Risiken und Implikationen der KI-Forschung und -Entwicklung zu erkennen, zu systematisieren und anzugehen. Diese Verantwortung liegt bei der wissenschaftlichen Gemeinschaft und sollte Institutionen wie Forschungsethik-Kommissionen, wissenschaftliche Gesellschaften und Forschungsförderer einbeziehen (Brenneis et al. 2024, ZEVEDI 2023). Mit dem Fortschritt der KI-Fähigkeiten müssen die Diskussionen über Dual-Use-Research-of-Concern erweitert werden, um Szenarien des Missbrauchs durch KI-Forschung einzuschließen und eine effektive Überwachung und Governance für entsprechende Forschung und Entwicklung zu ermöglichen.

Ambrus, Èva (2020): Artificial Intelligence as Dual-use Technology. AARMS 19(2), S. 19–28.

Ben-Moshe Sharon/Gekker, Gil/Cohen, Golan (2022): OpwnAI: AI that can save the day or hack it away. [online] Check Point, 19.12.2022. https://research.checkpoint.com/2022/opwnai-ai-that-can-save-the-day-or-hack-it-away/ [29.08.2024].

Berghoff, Christian/Neu, Matthias/von Twickel, Arndt (2021): The Interplay of AI and Biometrics: Challenges and Opportunities. In: Computer 54 (9), S. 80–85. DOI: 10.1109/MC.2021.3084656.

Boiko, Daniil/ Gomes, Gabe/MacKnight, Robert (2023): Emergent autonomous scientific research capabilities of large language models. [online] https://arxiv.org/abs/2304.05332 [29.08.2024].

Brenneis, Andreas (2024): Assessing dual use risks in AI research: necessity, challenges and mitigation strategies. In: Research Ethics. DOI: 10.1177/17470161241267782.

Brenneis, Andreas/Gehring, Petra/Lamadé, Annegret (2024): Zwischen fachlichen Standards und wilder Innovation: Zur Begutachtung von Big Data- und KI-Projekten in Forschungs-Ethikkommissionen. In: Ethik in der Medizin. DOI: 10.1007/s00481-024-00811-y.

Brewster, Thomas (2021): Fraudsters Cloned Company Director’s Voice In $35 Million Heist, Police Find. [online] Forbes, 14.10.2021. https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/ [29.08.2024].

Brundage, Miles et al. (2018): The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. [online] https://arxiv.org/abs/1802.07228 [29.08.2024].

BSI (2023): AI security concerns in a nutshell – Practical AI-Security guide. [online] https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/KI/Practical_Al-Security_Guide_2023.html [29.08.2024].

Buchanan, Ben/Bansemer, John/Cary, Dakota/Lucas, Jack/Musser, Micah (2020): Automating Cyber Attacks: Hype and Reality. Center for Security and Emerging Technology, November 2020. DOI: 10.51593/2020CA002.

Christian, Brian (2020): The Alignment Problem. Machine Learning and Human Values. New York: W. W. Norton & Company.

Da Empoli, Stefano/Della Porta, Maria Rosaria (2023): The Impact of Generative AI. In: PromethEUs: Artificial Intelligence: Opportunities, Risks and Regulation. S. 33–47. [online] www.prometheusnetwork.eu/publications/prometheus-publication-artificial-intelligence-opportunities-risks-and-regulations/ [29.08.2024].

EUROPOL (2023): ChatGPT – The impact of Large Language Models on Law Enforcement. [online] https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement#downloads [29.08.2024].

Forge, John (2010): A note on the definition of “dual use”. Science and Engineering Ethics, 16 (1), S. 111–118. DOI: 10.1007/s11948-009-9159-9.

Fredrikson, Matthew/Lantz, Eric/Jha, Somesh/Lin, Simon/ Page, David/ Ristenpart, Thomas (2014): Privacy in Pharmacogenetics: An End-to-End Case Study of Personalized Warfarin Dosing. Proc USENIX Secur Symp, S. 17–32. [online] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4827719/ [29.08.2024].

Grinbaum, Alexei/Adomaitis, Laurynas (2024): Dual use concerns of generative AI and large language models. In: Journal of Responsible Innovation 11(1). DOI: 10.1080/23299460.2024.2304381.

Hansel, Mischa/Silomon, Jantje (2023): On the Peace and Security Implications of Cybercrime. A Call for an Integrated Perspective. IFSH Institute for Peace Research and Security Policy: Research Report #12. DOI: 10.25592/ifsh-research-report-012.

Horowitz, Michael (2021): When speed kills: Lethal autonomous weapon systems, deterrence and stability. In: Sechser, T. (Hrsg.): Emerging Technologies and International Stability. London: Routledge, S. 144–168.

Kettemann, Matthias (Hrsg.) (2020): Navigating Normative Orders. Interdisciplinary Perspectives. Frankfurt: Campus.

King, Thomas/ Aggarwal, Nikita/Taddeo, Mariarosaria/Floridi, Luciano (2020): Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions. In: Science and engineering ethics 26 (1), S. 89–120. DOI: 10.1007/s11948-018-00081-0.

Koplin, Julian (2023): Dual-use implications of AI text generation. In: Ethics Inf Technol 25 (2), S. 1–11. DOI: 10.1007/s10676-023-09703-z.

Lucas, George/Helkala, Kirsi Marjaana/Syse, Henrik/Barret, Edward (Hrsg.) (2023): Ethical Challenges in AI-enhanced Military Operations. Frontiers Media SA. DOI: 10.3389/978-2-8325-2896-9.

McLean, Scott/Read, Gemma/Thompson, Jason/Baber, Chris/Stanton, Neville/Salmon, Paul (2023): The risks associated with Artificial General Intelligence: A systematic review. In: Journal of Experimental & Theoretical Artificial Intelligence 35 (5), S. 649–663. DOI: 10.1080/0952813X.2021.1964003.

Milano, Silvia/Taddeo, Mariarosaria/Floridi, Luciano (2021): Ethical aspects of multi-stakeholder recommendation systems. In: The information society 37 (1): S. 35–45.

Miller, Seumas (2023): Cognitive warfare: an ethical analysis. In: Ethics Inf Technol 25 (3). DOI: 10.1007/s10676-023-09717-7.

Ntoutsi, Eirini et al. (2020): Bias in data‐driven artificial intelligence systems – An introductory survey. In: WIREs Data Min & Knowl 10 (3). DOI: 10.1002/widm.1356.

Oltmann, Shannon (2015). Dual use research: Investigation across multiple science disciplines. In: Science and Engineering Ethics, 21 (2), S. 327–341. DOI: 10.1007/s11948-014-9535-y.

Qin, Amy (2020): Chinese City Uses Facial Recognition to Shame Pajama Wearers. In: The New York Times, 21.01.2020. [online] https://www.nytimes.com/2020/01/21/business/china-pajamas-facial-recognition.html [29.08.2024].

Raji, Inioluwa Deborah/Kumar, Elizabeth/Horowitz, Aaron/Selbst, Andrew (2022): The Fallacy of AI Functionality. In: FAccT ‘22: 2022 ACM Conference on Fairness, Accountability, and Transparency. New York: ACM, S. 959–972.

Rath, Johannes/Ischi, Monique/Perkins, Dana (2014): Evolution of different dual-use concepts in international and national law and its implications on research ethics and governance. In: Science and Engineering Ethics 20(3), S. 769–790. DOI: 10.1007/s11948-014-9519-y.

Reichberg, Gregory/Syse, Hendrik (2021): Applying AI on the Battlefield: The Ethical Debates. In: von Braun, Joachim et al. (Hrsg.): Robotics, AI, and Humanity. Cham: Springer International Publishing, S. 147–159.

Riebe, Thea/Reuter, Christian (2019): Dual-Use and Dilemmas for Cybersecurity, Peace and Technology Assessment. In: Reuter, Christian (Hrsg.): Information Technology for Peace and Security. Wiesbaden: Springer Nature, S. 165–183.

Riebe, Thea (2023): Technology Assessment of Dual-Use ICTs. How to Assess Diffusion, Governance and Design. Wiesbaden: Springer.

Seh, Adil Hussain/Zarour, Mohammad/Alenezi, Mamdouh/Sarkar, Amal Krishna/Agrawal, Alka/Kumar, Rajeev/Khan, Raees Ahmad (2020): Healthcare Data Breaches: Insights and Implications. In: Healthcare 8 (2). DOI: 10.3390/healthcare8020133.

Soice, Emily/Rocha, Rafael/Cordova, Kimberlee/Specter, Michael/Esvelt, Kevin (2023): Can large language models democratize access to dual-use biotechnology? [online] http://arxiv.org/pdf/2306.03809.pdf [29.08.2024].

Solaiman, Irene et al. (2019): Release Strategies and the Social Impacts of Language Models. [online] OpenAI Report November 2019. https://arxiv.org/abs/1908.09203 [29.08.2024].

Spitale, Giovanni/Biller-Andorno, Nikola/Germani, Federico (2023): AI model GPT-3 (dis)informs us better than humans. In: Science Advances 9 (26). DOI: 10.1126/sciadv.adh1850.

Tucker, Jonathan (Hrsg.). (2012): Innovation, Dual Use, Security: Managing the Risks of Emerging Biological and Chemical Technologies. Cambridge, Massachusetts: The MIT Press.

Urbina, Fabio/Lentzos, Fillipa/Invernizzi, Cédric/Ekins, Sean (2022): Dual use of artificial-intelligence-powered drug discovery. Nat Mach Intell 4, S. 189–191. DOI: 10.1038/s42256-022-00465-9.

Westerlund, Mika (2019): The Emergence of Deepfake Technology: A Review. In: Technology Innovation Management Review 9 (11), S. 39–52.

Weydner-Volkmann, Sebastian/Cassing, Kaya (2023): Forschende in der Angriffsrolle. Zum besonderen forschungsethischen Bedarf in der IT-Sicherheit. In: ZfPP 10 (1), S. 79–104. DOI: 10.22613/zfpp/10.1.3. ZEVEDI (2023). Research Ethics for AI Research Projects. Guidelines to Support the Work of Ethics Committees at Universities. [online] https://zevedi.de/wp-content/uploads/2023/02/ZEVED_AI-Research-Ethics_web_2023.pdf [29.08.2024].

Brenneis, Andreas (2024): Generative KI und Dual-Use: Risikobereiche und Beispiele. In: Verantwortungsblog. https://zevedi.de/generative-ki-und-dual-use-risikobereiche-und-beispiele/ [07.11.2024]. https://doi.org/10.60805/by6z-fb49

Kategorien
Akzentfarbe: Rose Autor: Armen Avanessian Uncategorized Verantwortungsblog

Verantwortung heißt Spekulation

Verantwortung heißt Spekulation

Inwiefern transformiert die digitale Revolution das Leben selbst? Und müssen wir andere Formen von Überleben finden? Verantwortung heißt Spekulation. Ein Gespräch mit dem Philosophen Armen Avanessian.

Armen Avanessian im Gespräch mit Konstantin Schönfelder | 25.10.2024

ein bild vom planeten erde vom mond aus ferner entfernung in grau und schwarz
Erstellt mit Adobe Firefly, Prompt: „a picture from planet earth seen from the moon in far distance, grey and black“

AA: Also nicht nur ein Philosoph. Das war immer schon eines der Merkmale von spekulativem Denken oder spekulativer Philosophie – die übrigens viel kritisiert wurde, es gibt eine ganze moderne kritische Tradition, die sich dem entgegenstellt. Das Wort Spekulation hat zudem aus finanzökonomischen Gründen nicht die allerbeste Reputation. Ich denke aber, dass das nicht nur für Philosophen und Philosophinnen, sondern für die Gesellschaft generell von Bedeutung ist, und zwar nicht nur wegen des üblichen „Wir müssen wieder mehr Imagination wagen“, sondern um zeitgemäß zu sein in einer Zeit, die mehr und mehr von nichtmenschlichen Intelligenzen beeinflusst ist. Formen von Algorithmen, von künstlichen Intelligenzen, die sehr viel über die Zukunft wissen, nicht nur mehr mutmaßen, sondern wissen und aus diesem Zukunftswissen heraus die Gegenwart steuern: Diesbezüglich up to date zu sein – das betrachte ich geradezu als staatsbürgerliche Pflicht und auch eine entscheidende gesellschaftliche Herausforderung. 

AA: Da müsste man unterscheiden. Einmal gibt es die Digitalisierung, mit der viele gesellschaftliche Veränderungen einhergehen. Dann aber gibt es noch die medientheoretischen oder real erlebbaren Veränderungen: Was bedeutet es für unsere Kultur, mit dem Digitalen – einer so massiven medientechnologischen Veränderung konfrontiert zu sein, die ungefähr auf der gleichen Stufe steht wie der Buchdruck oder der Erfindung der Schriftlichkeit? Diese neue Situation ist in jedem Falle auf einer fundamentaleren Ebene angesiedelt als diejenige von Eisenbahn oder Telefon!
Und zu Ihrer Frage, was die Digitalisierung für unser Leben bedeutet: da würde ich Leben in einem emphatischen Sinn verstehen wollen. Inwiefern transformiert die digitale Revolution das biologische Leben selbst, nicht einfach nur unseren Lebensalltag? Die Fragen, die uns jetzt gesellschaftlich beschäftigen, sind ja von dieser Art: Was ist das dem Menschen Eigentümliche? Ist es die Intelligenz? Gibt es andere als kohlenstoffbasierte Intelligenzen? Was macht Kommunikation zwischen den Menschen aus? Diese Veränderungen sind medientechnologische, aber zugleich auch biologische Transformationen. 

AA: Die Frage, die ich mir stelle, ist zunächst eher für wen und in welchem Zeithorizont – für mich, meine Kinder, die Spezies Mensch – gibt es Gründe zur Sorge, wenn kein Umdenken stattfindet, das die Tiefe des technologischen Einschnitts anerkennt? Der Buchdruck hat ein paar Jahrhunderte massive Transformationen, Bürgerkriege, Religionskriege usw. provoziert und erst dann eine völlig neue Welt mit Nationalstaaten und Aufklärung gebracht. Das war kein gewaltfreier Transformationsprozess. Wo setzt man zur Analyse an, um ein Urteil wie „schön“ zu treffen? Ich bin ja kein Futurologe! Aber wenn Sie mich persönlich fragen, würde ich sagen, es gibt Grund zur Annahme, dass es vehemente Verwerfungen in den nächsten 50 Jahren geben wird. Schätzungen sprechen von 800 Millionen Menschen, die ihren Geburtsort oder ihren Wohnort wechseln müssen auf Grund massiver Beeinträchtigungen durch Klimaveränderungen. Das betrifft die Grundlagen unserer politischen Selbstverständnisse. Und da spielt die Digitalisierung hinein, denn vergessen wir nicht: Die demokratisch-liberalen Nationalstaaten sind mit dem Buchdruck entstanden und möglicherweise verschwinden sie in dieser Form auch wieder mit der digitalen Medienrevolution. Danach kommen nicht unbedingt wieder Feudalherrschaft oder Faschismen, aber möglicherweise etwas anderes, aber mutmaßlich grundsätzlich Neues, das wir noch gar nicht absehen können. 

AA: Mich hat zunächst interessiert, dass das Flüchtige ja quasi eine jahrtausendelange anthropologisch-kulturelle Konstante ist. Hinzu kommt dann dieses Klischee, dass alles mit der Moderne immer flüchtiger und dann noch schneller wird. Daran knüpfen auch nostalgische Theoreme von der Entschleunigung oder Achtsamkeit an. Mich hat interessiert, ein Gegennarrativ zu entwickeln: Die Moderne thematisiert Flüchtigkeit auf einmal völlig neu, auf diversen ästhetischen, ökonomischen, technologischen Ebenen wird Flüchtigkeit virulent und auf einmal auch sehr positiv konnotiert. Denn zugleich, ohne dass es den Protagonisten immer wirklich ausreichend bewusst ist, entstehen parallel dazu effiziente Techniken, um diese Flüchtigkeit profitabel und fruchtbar zu machen, sie künstlerisch zu nobilitieren etc. Die Digitalisierung spielt da eine fundamentale, aber spätere Rolle. Die gefühlte Beschleunigung kommt nicht erst mit ihr in die Welt. Sie greift vielmehr diese Dialektik zwischen einer beschleunigten, also zwischen einer immer vehementer verflüchtigten Welt auf, auf die wiederum stets mit Entflüchtigungen reagiert wird. Diese – im emphatischen Sinne moderne – Flüchtigkeit wird nur durch eine solche Doppelbewegung von Verflüchtigung und Entflüchtigungverstehbar, es ist nicht nur das eine oder das andere. Das lässt sich prinzipiell auch an Digitalisierung zeigen. 

AA: Grundsätzlich ist Verantwortung an eine Kontrollmöglichkeit gekoppelt. Es bedarf eines bestimmten Wissens und einer bestimmten zeitlichen Kongruenz. Und das ist in vielen Fällen fragwürdig. Was andersherum nicht heißt, dass die schweren Verwerfungen, die wir in den letzten Jahren erleben, auch infolge der Finanzkrise 2007/8 und der darauffolgenden finanzpolitischen Maßnahmen, also Austeritätspolitik, Sparmaßnahmen usw., nicht auch Verantwortungsträger kannte. Es waren nur scheinbar außer Kontrolle geratene, nicht mehr verantwortbare Finanzierungsmodelle. Es gab sehr wohl Verantwortlichkeiten dahinter, die man hätte erkennen können oder Lehren, die zu ziehen wären, wenn der finanzpolitische Willen dazu existierte.
Vielleicht kann man es so sagen: Es wird zeitlich komplizierter. Die demokratische Überprüfbarkeit wird komplexer und nimmt größere Zeit in Anspruch. Das heißt, die Kontrollmechanismen sind oft nicht mehr so schnell wie die entstehenden Probleme. Im Finanzsektor etwa haben wir eine ungeheure Schnelligkeit, Trading und Finanzkonstruktionen, die auch, um den Beginn ihrer Fragen nochmal aufzunehmen, sehr stark aus der Zukunft operieren, die zukünftige Preisannahmen machen etc. Zugleich haben wir in einem anderen, tieferliegenden Problembereich in unserer Gesellschaft zu tun, nämlich mit Blick auf den Klimawandel so etwas, das auch slow violence genannt wird wie Massensterben oder Ansteigen von Meeresspiegel, die sich eben nicht plötzlich und medienwirksam vor unseren Augen vollzieht. Wir haben es hier mit Verbrechen und Gewaltphänomenen zu tun, mit denen wir uns schwertun, sie als solche zu erkennen, weil sie sich nicht in singulären Akten, in augenscheinlichen Brutalitäten äußern, sondern sich über Jahrzehnte entwickeln. Sobald gesellschaftlich durchgesickert ist, dass da ein Problem möglicherweise im Entstehen ist, ist es schon nicht mehr aufzuhalten. Angstvoll starren wir dem entgegen und wissen nicht, wann das und welche Konsequenzen das haben, wann es überhaupt begonnen haben könnte. Hat das Anthropozän vor 50 Jahren oder vor 150 Jahren oder mit der Kolonialisierung Amerikas begonnen bzw. Schon der kulturellen Nutzung des Feuers begonnen? Unklar ist auch, wer die Verantwortlichen sind: Ist es der Kapitalismus? Ist es unsere Konsumsucht? Ist es die abendländische Rationalität? Wer kann darauf antworten? Wer ist unser Ansprechpartner in der Vergangenheit? Und wem gegenüber haben wir Verantwortung in der Zukunft? Auf welche Zukunft hin planen wir? Drei Generationen oder dreißig? Wir sind auf einmal mit einem völlig veränderten Zeithorizont beschäftigt. 

AA: Ja, eine ungeheure Schnelligkeit, eine extreme Langsamkeit – die tiefenzeitlichen Horizonte reichen mehrere hundert Jahre zurück. Und wie viele Jahrhunderte, Jahrtausende, Jahrmillionen „planen“ wir in die Zukunft bzw. sind wir verpflichtet zu planen, nachdem wir nunmehr wissen, dass all unser Handeln solche tiefenzeitlichen Konsequenzen hat oder haben kann?

AA: Wir müssen lernen, dass beides nicht mehr zu trennen ist. Das ist die nicht nur zeitphilosophische Aufgabe unserer Generation, die wir mit der Digitalisierung in den letzten Jahrzehnten ein so konkretes und ungeheures Wissen über den Planeten und seine Entwicklung gesammelt haben. Das ist wirklich ungeheuerlich! Wir wissen besser als nie, was die letzten viereinhalb Milliarden Jahre passiert ist und wir wissen relativ viel von dem, was sich in den nächsten Jahrhundertmillionen möglicherweise wie entwickelt. 

AA: Meine These – nicht nur meine, aber auch meine These ist: Es ist kein Zufall, dass sie gleichzeitig auftreten. Da sind zunächst mal der sehr wichtige, aber noch oberflächliche Aspekt, dass die Digitalisierung, insbesondere die KI zu einem Umweltfaktor oder Umweltproblem wird, allein durch die enormen Energieressourcen, die sie verschlingt. Das wäre ein eigenes Thema für sich. Und vieles von dem, was zur Entstehung von Digitalisierung und KI beigetragen hat – denken Sie nur an die Materialien und die geologischen Veränderungen – ist für den Klimawandel mitverantwortlich. 
Auf der anderen Seite wüssten wir gar nicht in dieser Weise etwas über den Klimawandel, hätten wir nicht diese digitalen Instrumente. Wir müssen erst einmal lernen, was es heißt, den Planeten zu bewohnen (so lautet ja die Einstiegsfrage aus Daniel Falbs und meinem aktuellen Buch Planeten Denken), das heißt, ein so weitreichendes Wissen um seine Veränderlichkeit zu entwickeln, wie wir es heutige erstmals haben. Denn wir wissen davon ja überhaupt nur, weil der Planet überzogen ist von Milliarden an Sensoren, künstlichen Intelligenzen etc., die Dinge beschreiben, wahrnehmen, erkennen, die uns ansonsten entgehen würden bzw. dem homo sapiens bislang verborgen geblieben waren, der von einer wundersamen von Gott für ihn eingerichteten oder stabilen Natur oder Klima ausging (das ökologische Denken ist da weiterhin hemmungslos theologisch oder metaphysisch und jedenfalls anthropozentisch). Erst die digitalen Mittel geben uns die Möglichkeit, einen Klimawandel wahrzunehmen, von ihm zu sprechen, oder gar für ihn die Verantwortung übernehmen zu können inklusive der Einsicht, dass Klima sich immer schon verändert und es uns Menschen überhaupt nur dank von uns mitverursachter planetarischer Trancormationen gibt wie einem entsprechenden CO2-Level etc. 

AA: Ja, es gibt Theoretiker, die diese diabolische Frage gestellt haben: War es das wert, das zu erkennen? Dass wir all das anstellen, was wir anstellen als Menschheit, um letztlich nur zu erkennen, dass wir fähig sind, etwas derartig Weitreichendes anzustellen? Ich denke wiederum, man müsste das mit Blick auf die Zukunft beantworten: Wir wissen, was unser Potenzial, was unser Beitrag zur Klimaveränderung ist. Es gibt eine bestimmte Tendenz, die das Leben hat, nämlich sich exzessiv auszubreiten auf Kosten anderer Spezies – inklusive der eigenen (dass es schon frühere mass extinctions gab, darf freilich keinesfalls unser skandalöses Handeln oder Nichthandeln heute entschulden). Aber wir sind vielleicht die ersten, die faktisch darum wissen. Nun muss man sich fragen: Was machen wir mit dieser Einsicht? 

AA: Ja, wir könnten jetzt mit Kant und der Aufklärung argumentieren. Denn das ist schon ein entscheidendes Moment der Aufklärung: Die Frage, ob wir diese Aufklärung über uns und was Leben ausmacht, verkraften können. Ob wir das, was wir getriggert haben, auch verantworten können. Wir wissen um die Klimaveränderung dank der Digitalisierung und künstlichen Intelligenzen, die einen Beitrag zu den Problemen leisten. Leugnen wir es weiter oder kommt das Wissen in unserer Gesellschaft, in unseren politischen Institutionen, in unseren Planungsoperatoren von nun an wirklich vor? Bleibt es doch nur ein abstraktes Interview oder ein Buch oder beginnt es politisch intelligentes Handeln zu informieren? Stand Sommer 2024 müssen wir sagen: Dieses Wissen ist noch nicht in der Gesellschaft wirksam und also nicht wirklich angekommen. 

AA: Fürsorge, Nachhaltigkeit, Regulation, das sind aber alles Modelle, die von der Hoffnung getragen sind, dass es noch irgendwie so weitergeht, innerhalb des von uns so geschätzten bzw. Für uns im globalen Norden so vorteilhaften Paradigmas. Mit mehr Elektroautos, mehr grünem Strom etc. So hat unser liberales, sogenanntes demokratisches Modell funktioniert. Man produziert Innovationen, die werden sich schon noch durchsetzen und nachhaltige Energie produzieren und nachhaltige Produktionsprozesse hervorbringen. Die Lebensstandards werden haltbar sein. Doch was, wenn nicht? Ich möchte nicht super pessimistisch auftreten, man darf weder in Dystopismus noch in einen Technokratismus verfallen, sonst können wir die Verantwortung an die künstlichen Intelligenzen abgeben. Aber zur Wahrheit zählt: Unser status quo wird unmöglich haltbar sein. Wir müssen andere Formen von Überleben produzieren. Wäre es dafür nicht notwendig, sich langsam von diesen Illusionen des nachhaltigen, fürsorglichen Handelns abzuwenden? Zugespitzt formuliert: „Nachhaltigkeit“ ist das Opium für das Volk. 

AA: Wir wissen, dass wir 2050 ein paar 100 Millionen Klimaflüchtlinge haben. Es ist anzunehmen, dass wir 2063 einen Höhepunkt an Bevölkerung auf dem Planeten haben. Wir wissen ungefähr, wie viel Fläche uns auf der Erde zur Verfügung steht. Unserer nebenbei bemerkt niemals einfach natürlichen oder künstlichen Intelligenz steht ein schier endloses Zukunftswissen zur Verfügung. Nur warum hat das so wenig Einfluss auf unser Handeln? Denn das wäre der entscheidende Horizont! Natürlich ist es sehr kompliziert. Natürlich gibt es sehr viele Faktoren, die wir nicht abschätzen können. Das ist, was ich  „Hyper-Antizipation“ nenne: Dass wir ständig bombardiert werden und ich Sie jetzt bombardiere mit, 2050 wird das sein, 2063 wird möglicherweise der Höchststand an Bevölkerung auf dem Planeten sein, 2035 könnte ein tipping point erreicht sein etc. Wir stecken permanent im antizipatorischen Paradigma. Aber auf der anderen Seite ist es doch fulminant, das zu wissen und diese Probleme zumindest angehen zu können. Die Temperaturen werden steigen und nicht aufhören zu steigen bei 1,5 Prozent, weil wir bereits dort angekommen sind. Mit der „Nachhaltigkeit“ wird es jedenfalls nicht funktionieren. 

AA: Nein, ich sage ja nicht, die Menschheit wird aussterben. Einstweilen werden wir ja mehr. Und bei allen Verbrechen und all der Verantwortungslosigkeit, die die Menschheit verursacht, auch gegenüber anderen Spezies, ist von einem Unlebbarwerden des Planeten überhaupt nicht zu sprechen. Dem widersprechen ja die Zahlen. Wie kann eine Gattung, die sich in 100 Jahren verdreifacht hat und alle zwölf Jahre noch eine Milliarde zulegt, davon sprechen, dass ihr Planet für sie unlebbar wird. Wir nennen das in unserem Buch „Habitabilitätseskalation“. Aber es gibt ein großes Problem, dass wir diese absehbaren, massiven Veränderungen nicht einpreisen in unser Handeln, weder als Individuen noch als Gesellschaft noch als planetarische Gemeinschaft. Das ist einfach ein Versagen. Und es ist verantwortungslos. Statt für 10 Milliarden Menschen auf einem sich absehbar verändernden Planeten zu planen, bauen wir Mauern zwischen Nationalstaaten und wollen unseren Kontinent abschotten.

AA: Man kann sagen, das ist vielleicht die Dummheit der Spezies. Sie kann mit exponentiellen Entwicklungen und mit bestimmten Zeithorizonten einfach nicht umgehen. Aber ich glaube nicht an die Spezies. Ich glaube nicht an den Menschen. Ich glaube an die Intelligenz. Und das ist 2024 eine von sogenannter künstlicher oder maschineller Intelligenz mitbefeuerte Intelligenz. Es wird nicht möglich sein, nachhaltig dafür zu sorgen, dass der Meeresspiegel da bleibt, wo er ist (wenn er in der tiefenzeitlichen Vergangenheit vermutlich schon hunderte Meter höher und tiefer war). Aber es könnte doch möglich sein, einem Vielfachen der Menschen, die vor 500 Jahren auf dem Planeten gelebt haben, ein gutes Leben zu ermöglichen. Auch wenn sehr viele Lebenszonen, die wir heute kennen, für Jahrhunderte oder Jahrtausende nicht mehr bewohnbar sein werden. 

AA: Es gibt einen radikalen Ansatz, der mir immer sehr abstrakt schien. In der französischen Nachkriegsphilosophie, etwa bei Levinas und Derrida, taucht ein Prinzip einer radikalen Verantwortung auf. Einer Verantwortung, der man nie gerecht werden kann – die nicht gegenüber den Menschen gilt, die man liebhat, der Familie usw. – sondern dem absolut Fremden. Ich habe viel darüber nachgedacht, was es heißt, seinen Kindern gegenüber, auch solchen, die man noch gar nicht hat, Verantwortung zu übernehmen.
Der Sache der radikalen Alterität gegenüber Verantwortung zu zeigen, gerade weil sie einem nichts zurückverspricht, weil es einem nicht zurückgeben kann oder will oder weil es sie möglicherweise nie geben wird. Diese radikale, wenn man so will, tiefenzeitliche Perspektive der Verantwortung ist für mich sehr konkret geworden mit Blick auf die Phänomene, über die wir hier sprechen. 

AA: Also im Dienste der Deutlichkeit und für ein zugespitztes Finale: Diese Begriffe sind Teil einer Denkweise, die uns systematisch den Sinn vernebelt, was der wirkliche Zeithorizont ist. Die Vorstellung, dass die Natur von den bösen Menschen verantwortungsloserweise verändert wurde und wir jetzt wieder dafür sorgen müssen, dass diese arme Natur wieder so wird, wie sie vorher war, damit es uns wieder gut geht, ist aus Sicht von allem, was wir astrobiologisch und physikalisch wissen, völlig falsch gedacht. Es hindert uns auch daran, diese massive evolutionäre Transformation, in der wir uns befinden, voll zu begreifen. 
Ich würde mir wünschen, dass wir beginnen anders zu denken, zu schreiben, zu leben und zu handeln, auch politisch, und zwar im Angesicht dieses spekulativen Horizonts aus der Zukunft. Zurückschrauben geht nicht, so hat das in der Evolution nie funktioniert.

Avanessian, Armen (2024): Verantwortung heißt Spekulation. In: Verantwortungsblog. https://zevedi.de/verantwortung-heisst-spekulation/ [25.10.2024]. https://doi.org/10.60805/zdvq-gt48.