Kategorien
Akzentfarbe: beige Autor: Konstantin Schönfelder Uncategorized Verantwortungsblog

Verwertungsgesellschaften in Zeiten der KI

Verwertungsgesellschaften in Zeiten der KI

Künstliche Intelligenz stellt auch Verwertungsgesellschaften vor neue Herausforderungen. Wie sichern GEMA, VG Wort und VG Bild-Kunst die Rechte von Kreativen im KI-Zeitalter? Antworten aus einer Branche im Umbruch.

Von Konstantin Schönfelder | 10.07.2025

Bild von einem Bot, der Bücher isst
Erstellt mit Adobe Firefly

Verwertungsgesellschaften (VG) stehen in Zeiten künstlich generierter Inhalte – Texte, Bilder, Stimmen, Videos – in grellem Licht. Über diese Gesellschaften wird häufig wenig gesprochen, selbst unter jenen, die sie vertreten und die sie schützen, sind sie oft weniger bekannt als man denken könnte. So manche Autorinnen und Künstler sind nicht vertreten bei ihrer entsprechenden VG – und verpassen damit die Tantieme, die für ihre Inhalte eigentlich vorgesehen sind. Doch sie erfüllen eine essenzielle Bedeutung für Kreative: Sie stellen sicher, dass diejenigen, die Inhalte produzieren, auch an den Profiten beteiligt werden, die mit diesen gemacht werden.

Was passiert aber, wenn die hochpotenten generativen KIs nun mit eben diesen geschützten Werken trainiert werden und so zu Inhalten kommen, die nicht mehr auf diese verweisen? Wer sorgt dafür, dass die (in so einem Falle beträchtliche Menge an) ursprünglichen Urheber:innen auch weiter an jenem Ausschüttungs- und Beteiligungsmodell partizipieren dürfen, wenn ihre Werke dazu eingesetzt werden, generative KIs zu trainieren? Die VG könnten und werden bei dieser Frage ein Wörtchen mitreden.

Gegründet wurden sie nämlich dazu, das geistige Eigentum von Werken der Wissenschaft, Literatur und Kunst zu schützen. Da ein Text oder ein Lied durch viele Hände, Bibliotheken, Radiosendungen, Schulbücher oder Anthologien gehen kann, ist es für einen Urheber fast unmöglich, selbst die eigenen Ansprüche gegenüber der Vervielfältigung der eigenen Leistung einzufordern. Deshalb kann, im Falle eines Textes etwa, die VG Wort diese Vertretung gegenüber den „Rechteverwertern“ wahrnehmen, oder im Falle eines Songs die GEMA. Die VG agieren gewerkschaftsähnlich und treuhänderisch, sie sammeln Geld ein und schütten es anteilig an ihre Mitglieder aus. Im Detail ist das Verfahren durchaus kompliziert, es gibt insgesamt 13 VG in Deutschland, die im Jahr 2023 etwa 2 Milliarden Euro erwirtschafteten. Die größte unter ihnen ist mit einigem Abstand die GEMA.1

Bei der 50-jährigen Feier des Jubiläums der VG Wort im Jahr 2008 wurde die Gefahr des Internets für das bestehende Geschäftsmodell der VG beschworen. Der Publizist Heribert Prantl nannte den damals noch neuen Kommunikationsraum ein „Entblößungsmedium“ und sagte weiter: „Aus Orwell wird Orwellness, aus Datenaskese ist eine Datenekstase geworden“, das Netz werde zur „Selbstverschleuderungsmaschine“, mit der die Nutzer ihre Persönlichkeitsrechte „verschenken“.2 Auch wenn das heute etwas arg dystopisch anmuten mag, verweist der Impuls doch auf einen Strukturwandel für das Modell einer durch VG sichergestellten Kofinanzierung kreativwirtschaftlicher Produkte. Und vor einem solchen stehen die VG jetzt auch.

Deshalb haben wir bei drei der größten Verwertungsgesellschaften nachgefragt und um kurze Statements gebeten: Wie gehen Sie mit dem Aufkommen generativer KI’s um? Einmal bei der GEMA, die die Rechte der Urheber:innen von Musikwerken wahrt, die größte und bekannteste, die eine Musterklage gegen OpenAI bereits im November 2024 angestrengt hat;⁣3 bei der VG Wort, zuständig für Sprachwerke; und bei der VG Bild-Kunst, verantwortlich für visuelle Werke. Alle drei versuchen, mit unterschiedlichen Mitteln ihre Urheber:innen zu schützen und zu unterstützen, sie monieren das komplexe und langwierige Einklagen europäischer Rechtsstandards und fragen sich, was man tun kann, wenn die mächtigen KI-Entwickler nur unter äußerstem Druck urheberrechtliche Verbindlichkeiten berücksichtigen.

GEMA: Die GEMA nimmt die Interessen der Urheberinnen und Urheber sowie der Musikverlage wahr. Im KI-Zeitalter ist es Aufgabe der GEMA eine faire und angemessene Vergütung für die Nutzung der von der GEMA vertretenen Werke sicherzustellen. Hierfür setzen wir uns ein. Denn ohne die von unseren Mitgliedern geschaffenen Inhalt hätten KI-Systeme keinen Erfolg.

VG WORT: Die VG WORT befasst sich seit dem Aufkommen von generativer KI intensiv mit vielen offenen Fragen im Zusammenhang mit dieser neuen Technologie. Dabei geht es mit Blick auf den „Input“, also der Nutzung urheberrechtlich geschützter Werke für KI-Zwecke, vor allem darum, zu klären, inwieweit die VG WORT auf kollektiver Ebene für die von ihr vertretenen Urheber und Verlage tätig werden kann. Bereits im Sommer 2024 wurde der Wahrnehmungsvertrag der VG WORT geändert, um zukünftig Lizenzen für unternehmensinterne KI-Nutzungen anbieten zu können. Da das KI-Produkt, also der „Output“, urheberrechtlich nicht geschützt ist, besteht insoweit kein Anspruch auf Vergütungen der VG WORT. Die VG WORT lässt sich deshalb bei der Meldung versichern, dass es sich bei dem Text um ein urheberrechtlich geschütztes Werk handelt und nicht um ein reines KI-Produkt.

VG Bild-Kunst: Unsere Rolle als Treuhänder für unsere 70.000 Mitglieder hat sich nicht verändert: Wir setzen uns nach wie vor für eine Fortentwicklung des Urheberrechts im Sinne der Urheber:innen ein. Natürlich ist die Bedrohung kreativen menschlichen Schaffens seit dem Aufkommen von KI stark angestiegen. Unser Schwerpunkt liegt darin, eine angemessene Vergütung für die Verwendung geschützter Werke zu Trainingszwecken zu erringen. Hierfür sehen wir allerdings eine Gesetzesfortentwicklung als wichtig an. Der bestehende Gesetzesrahmen stammt noch aus der Zeit vor der massenhaften Verbreitung generativer KI.

GEMA: Der AI-Act fordert einen funktionierenden Lizenzmarkt für die Nutzung von urheberrechtlich geschützten Inhalten. Dies entspricht der Intention der GEMA, für die Nutzung von geschützten Werken Lizenzen zu vergeben. Konkret sieht der AI-Act Transparenzpflichten vor, nach denen die KI-Anbieter offenlegen müssen, welche Inhalte sie für das Training ihrer Systeme genutzt haben.  Die Umsetzung dieser Pflichten liegt beim AI-Office in Brüssel. Leider kommt die Behörde dieser Verpflichtung aktuell nur äußerst unzureichend nach.

VG WORT: Die KI-Verordnung (KI-VO) sieht im Hinblick auf den Schutz des Urheberrechts vor allem folgende Verpflichtungen der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck vor (vgl. Art. 53 Abs. 1 lit. c und d KI-VO):

– sie müssen eine Strategie zur Einhaltung des Urheberrechts der EU zur Ermittlung und Einhaltung eines Rechtevorbehalts vorlegen;

– sie müssen eine hinreichend detaillierte Zusammenfassung der für das Training des KI-Modells verwendeten Inhalte veröffentlichen.

Derzeit wird im Rahmen einer von der EU-Kommission initiierten Arbeitsgruppe ein sogenannter „Code of Practice“ erarbeitet. Ferner werden derzeit Entwürfe auf EU-Ebene diskutiert, die sich auf die erwähnte Zusammenfassung der verwendeten Inhalte beziehen. Wichtig ist, dass es sich bei der KI-VO nicht um – zivilrechtliche – urheberrechtliche Regelungen handelt. Die Frage, inwieweit Vorgaben der KI-VO zivilrechtlich durchgesetzt werden können, wird derzeit fachlich diskutiert.

VG Bild-Kunst: Aus unserer Sicht verfolgt der AI-Act nicht das Ziel, Urheberrechte zu schützen. Die Arbeit des AI-Office in diese Richtung sehen wir realistisch als das, was es ist: ein Feigenblatt. Das eigentliche Ziel der EU und der meisten EU-Staaten besteht darin, in Sachen KI gegenüber USA und China Boden wieder gutzumachen.

GEMA: Die GEMA hat den Opt-Out unmittelbar nach Inkrafttreten des Gesetzes erklärt. Nutzungen von GEMA-Werken verstoßen daher in jedem Fall gegen das Urheberrecht, wenn keine angemessene Vergütung gezahlt wird, bzw. keine Lizenz erworben wird.

VG WORT: Ein Nutzungsvorbehalt nach § 44b Abs. 3 UrhG wirkt ausweislich der Gesetzesbegründung nicht für die Vergangenheit, sondern nur für die Zukunft („ex nunc“). Ansonsten kommt es darauf an, welche Vereinbarungen Urheber und Verlage in Bezug auf KI-Nutzungen abgeschlossen haben. Ob bei Werken, die unter einer CC-BY-Lizenz veröffentlicht werden, ein Opt-Out erklärt werden kann, bedarf noch näherer Prüfung.

VG Bild-Kunst: Aus unserer Sicht ist fraglich, wie ein Opt-Out global funktionieren soll. Mir hat noch niemand bewiesen, dass sich China im Bildsektor an irgendwelche Regeln hält. Trotzdem nutzt mein Sohn Deep Seek hier in Deutschland. Insofern gebe ich die Frage zurück und frage, was Sie unter „juristisch belastbar“ verstehen. Nur die Rechtslage in Deutschland? Damit können unsere Mitglieder wohl nicht viel anfangen, wenn alle großen KI-Anbieter im Ausland sitzen.

GEMA: Die GEMA hat ein Lizenzmodell veröffentlicht, das es KI-Unternehmen ermöglicht, das GEMA-Repertoire für das Training ihrer Systeme zu nutzen. Die Klagen dienen der Durchsetzung des Lizenzmodells. Leider haben wir die Erfahrung gemacht, dass die großen Tech-Unternehmen nur unter juristischem Zwang bereit sind, das Urheberrecht zu achten. Wir sehen letztlich keinen Zielkonflikt mit den Unternehmen. Die GEMA möchte ihr Repertoire zur Verfügung stellen. An der wirtschaftlichen Verwertung müssen dann aber auch diejenigen beteiligt werden, die die genutzten Inhalte geschaffen haben.

VG WORT: Die VG WORT verfolgt die Klagen der GEMA gegen große KI-Entwickler sehr aufmerksam. Es ist zu hoffen, dass hier einige offene Fragen grundsätzlicher Art im Zusammenhang mit der Nutzung geschützter Werke für KI-Zwecke geklärt werden. 

VG Bild-Kunst: Es ist wichtig, dass man die bestehende Rechtslage vor den Gerichten überprüft, um Gesetzeslücken beweisen zu können. Gleichwohl leiden alle Verfahren darunter, dass der Rechtsweg bis zum EuGH locker 10 bis 12 Jahre dauern kann. Es wäre deshalb wünschenswert, wenn die Politik sich des Themas der fairen Vergütung schon vorher annehmen würde. Im Übrigen unterstützt die VG Bild-Kunst den Fotografen Robert Kneschke in seinem Verfahren gegen LAION vor der Berufungsinstanz (Hanseatisches Oberlandesgericht) und das bereits bevor die GEMA ihre Klagen eingereicht hat.4

VG WORT: Die VG WORT hat ihren Wahrnehmungsvertrag im Sommer 2024 geändert und wird demnächst Lizenzen für die unternehmensinterne Nutzung von geschützten Werken für KI-Zwecke anbieten.5 Ausführliche Informationen zu diesem neuen Geschäftsmodell finden sich auf der Homepage der VG WORT.6

VG Bild-Kunst: Die Mitgliederversammlung hat 2024 eine Ergänzung der Wahrnehmungsverträge im Hinblick auf KI-Rechte beschlossen. Wir sind dabei, die individuellen Wahrnehmungsverträge anzupassen. Es wird Sache der Berufsgruppenversammlungen sein zu diskutieren, ob und wenn ja, wann die Bild-Kunst mit Lizenzen an den Markt herantreten soll. Hier spielt auch eine Rolle, inwieweit wir internationales Repertoire vertreten können und/oder ob wir gemeinsam mit unseren ausländischen Schwestergesellschaften eine globale Lizenz anbieten können. Weil solche Abstimmungen Zeit brauchen und für jede Sparte gesondert geführt werden müssen (Bild / Film) sehe ich kurzfristig noch keine solche Lizenz am Start.

Wir danken Robert Staats (VG WORT) und Urban Pappi (VG Bild-Kunst) für ihre Auskünfte.

  1. Deutsches Patent- und Markenamt (2024): Jahresbericht 2024. https://www.dpma.de/digitaler_jahresbericht/2024/assets24/pdf/jahresbericht2024.pdf [12.06.2025]. ↩︎
  2. Heise Online (2008): Die VG Wort im Kampf gegen die Enteignungsmaschinerie Internet. https://www.heise.de/news/Die-VG-Wort-im-Kampf-gegen-die-Enteignungsmaschinerie-Internet-215170.html[12.06.2025]. ↩︎
  3. GEMA (2024): GEMA erhebt Klage gegen OpenAI. https://www.gema.de/de/w/gema-erhebt-klage-gegen-openai[12.06.2025]. ↩︎
  4. Frankfurter Allgemeine Zeitung (2025): Wie ChatGPT und Co. trainiert werden dürfen. Urteil zum umstrittenen Training. https://www.faz.net/aktuell/wirtschaft/wie-chatgpt-und-co-trainiert-werden-duerfen-urteil-zum-umstrittenen-training-110106588.html [12.06.2025]. ↩︎
  5. Börsenblatt (2025): Zweitverwertungsrechte jetzt über Digital Copyright Lizenz. https://www.boersenblatt.net/home/iki-zweitverwertungsrechte-jetzt-der-digital-copyright-lizenz-376309 [12.06.2025]. ↩︎
  6. VG Wort (2025): Fragen und Antworten zur Änderung der Wahrnehmungsbedingungen. https://www.vgwort.de/veroeffentlichungen/aenderung-der-wahrnehmungsbedingungen/fragen-/-antworten-zur-aenderung.html [12.06.2025]. ↩︎

Schönfelder, Konstantin (2025): Verwertungsgesellschaften in Zeiten der KI. In: Verantwortungsblog. https://zevedi.de/verwertungsgesellschaften-in-zeiten-der-ki/ [10.07.2025]. https://doi.org/10.60805/twva-j964.

Kategorien
podcast-de podcast-DG-de Uncategorized

Wissen, Verantwortung, Effizienz: Der Arztberuf unter dem Einfluss „Künstlicher Intelligenz“

Das Coverbild des Digitalgespräch-Podcasts. Folge 65 mit Oswald Hasselmann

Was wir im Alltag allgemein „Künstliche Intelligenz“ nennen, hat viele Funktionsweisen und Anwendungsfelder. Auch in der Medizin kommen schon lange und routiniert unterschiedlichste KI-Systeme zum Einsatz. Sie unterstützen medizinisches Fachpersonal bei der Anamnese und Diagnose oder am OP-Tisch, indem sie der individuellen Kompetenz und Erfahrung menschlicher Expert:innen statistische Auswertungen und – darauf basierend – Handlungsempfehlungen zur Seite stellen. Ärztinnen und Ärzte können diese unterschiedlichen Informationsquellen nutzen, um auf die jeweiligen Bedürfnisse ihrer Patient:innen individuell einzugehen und diese möglichst optimal zu behandeln. Es spielen heute aber nicht nur speziell für den medizinischen Berufsalltag entwickelte KI-Produkte eine Rolle, sondern es stehen auch Patient:innen KI-Systeme zur Verfügung – meist in der Gestalt von Chat-Bots, die menschliche Kommunikation simulieren und damit den Eindruck verstärken, man sehe sich einem im menschlichen Sinne „intelligenten“ System gegenüber, das auch bei medizinischen Problemen ansprechbar ist.. Mit dem Hype um diese Systeme entstand in Bezug auf die medizinische Versorgung eine große Erwartungshaltung: Kann „die KI“, die an so vielen anderen Stellen Personal zu ersetzen beginnt und Effizienzsteigerung verspricht, auch ein Mittel gegen den medizinischen Fachkräftemangel sein?

Dr. Oswald Hasselmann ist Facharzt für Kinder- und Jugendmedizin mit Schwerpunkt auf Neurologie, gehört zum Leitungsteam des Ostschweizer Kinderspitals und ist Präsident der Schweizerischen Gesellschaft für Biomedizinische Ethik. Der Experte für ethische Werte in medizinischen Berufen erklärt im Digitalgespräch, an welchen Stellen populäre Systeme wie ChatGPT im medizinischen Alltag auftauchen, wie medizinische KI-Produkte eingesetzt werden, welche neuen Formen von Wissen dabei entstehen und wie realistisch Erwartungen sind, die Ärzteschaft, Politik und Patient:innen damit verbinden. Mit den Gastgeberinnen Petra Gehring und Marlene Görger diskutiert Hasselmann, welche Folgen die Normalisierung des KI-Einsatzes für die Kompetenz und Verantwortung von Mediziner:innen hat, welche neuen Aspekte darum in die Aus- und Weiterbildung aufgenommen werden sollten – und ob wir uns von der Privatheit unserer Gesundheitsdaten verabschieden müssen, um den Einsatz kommerzieller KI-Produkte in der ärztlichen Versorgung zu unterstützen.

Folge 65: Digitalgespräch mit Oswald Hasselmann von der Schweizerischen Gesellschaft für Biomedizinische Ethik,
3. Juni 2025

Weitere Informationen:


Zur Webseite der Schweizerischen Gesellschaft für Biomedizinische Ethik: https://www.bioethics.ch/sgbe/

Alle Folgen des Digitalgesprächs
Folge 71: Was sind und was leisten KI-Reallabore?

Mit Johannes Buchheim von der Philipps-Universität Marburg | 28. Oktober 2025 | zur Folge

Folge 70: Digitali­siertes Fahrrad: Welche Fort­ent­wick­lung­en gibt es?

Mit Rainer de Mey von Riese & Müller | 7. Oktober 2025 | zur Folge

Folge 69: Lehren und Erfahrungen aus dem Cyber-Angriff auf die Uni Gießen

Mit Matthias Stenke von der Justus-Liebig-Universität Gießen | 16. September 2025 | zur Folge

Folge 68: Digitale Werkzeuge und die Archäologie

Mit Friederike Fless von der Freien Universität Berlin und dem Deutschen Archäologischen Institut (DAI) | 5. August 2025 | zur Folge

Folge 67: Entwicklungs­sprünge, Zeiten­wende und KI: Neues zum Quanten­computing

Mit Frank Wilhelm-Mauch von der Universität des Saarlandes und dem Forschungszentrum Jülich | 15. Juli 2025 | zur Folge

Folge 66: Was weiß man über "Internet-Sucht"?

Mit Anja Bischof von der Klinik für Psychiatrie und Psychotherapie, Universität zu Lübeck | 24. Juni 2025 | zur Folge

Folge 65: Wissen, Verantwortung, Effizienz: Der Arztberuf unter dem Einfluss „Künstlicher Intelligenz“

Mit Oswald Hasselmann von der Schweizerischen Gesellschaft für Biomedizinische Ethik | 3. Juni 2025 | zur Folge

Folge 64: Literatur vereinfachen – mit KI? Digitalität und kulturelle Teilhabe

Mit Thomas Kater von der Universität Münster | 13. Mai 2025 | zur Folge

Folge 63: Das Virtual Operations Support Team des THW: Internet-Einsätze im Zivil- und Katastrophen­schutz

Mit Ralf Daniel vom Virtual Operations Support Team (VOST) des THW | 1. April 2025 | zur Folge

Folge 62: Schutz mittels Digital Services Act: Die Durchsetzung von Kinderrechten in digitalen Diensten

Mit Michael Terhörst von der Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten (KidD) | 11. März 2025 | zur Folge

Folge 61: Digital Streetwork: Sozialarbeit in digitalen Räumen

Mit Christina Dinar von der Katholischen Hochschule für Sozialwesen Berlin | 18. Februar 2025 | zur Folge

Folge 60: Weit mehr als Technik: Suchmaschinen verstehen

Mit Dirk Lewandowski von der Hochschule für Angewandte Wissenschaften Hamburg | 28. Januar 2025 | zur Folge

Folge 59: Was sind Berufsbilder und verändern sie sich durch Digitalität?

Mit Britta Matthes vom Institut für Arbeitsmarkt und Berufsforschung (IAB) der Bundesagentur für Arbeit | 26. November 2024 | zur Folge

Folge 58: Gesetze im „Digitalcheck“ und was daraus folgt: Verwaltung digitaltauglich aufstellen

Mit Stephanie Kaiser von der DigitalService GmbH des Bundes | 5. November 2024 | zur Folge

Folge 57: Dynamische digitale Strategien für den europäischen Sender ARTE

Mit Kemal Görgülü von ARTE GEIE | 15. Oktober 2024 | zur Folge

Folge 56: Tokenisierung von CO2-Zertifikaten: Blockchain für den Klimaschutz?

Mit Dominik Skauradszun von der Hochschule Fulda | 24. September 2024 | zur Folge

Folge 55: IT-Riesen und Softwaremonopole: Das Ringen der Hochschulen um digitale Souveränität

Mit Ramin Yahyapour von der Georg-August-Universität Göttingen und der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen | 3. September 2024 | zur Folge

Folge 54: Infrastrukturen im Weltraum für die Digitalität auf der Erde

Mit Holger Krag vom Europäischen Raumflugkontrollzentrum (ESOC) | 13. August 2024 | zur Folge

Folge 53: Information und Desinformation – wie steht es um die Netzöffentlichkeit?

Mit Christian Stöcker von der HAW Hamburg | 18. Juni 2024 | zur Folge

Folge 52: KI und der Wert menschlicher Autorschaft: Der Kampf ums Urheberrecht

Mit Nina George vom European Writers‘ Council | 28. Mai 2024 | zur Folge

Folge 51: Kreatives Schreiben mit KI

Mit Jenifer Becker von der Universität Hildesheim | 7. Mai 2024 | zur Folge

Folge 50: Ein „Digitaler Zwilling“ aus Körperdaten? Auf dem Weg in die Gesundheitsvorsorge der Zukunft

Mit Malte Gruber von der Justus-Liebig-Universität Gießen | 16. April 2024 | zur Folge

Folge 49: Steuerfahndung mit Künstlicher Intelligenz: Panama, Pandora und mehr

Mit Christian Voß von der Forschungsstelle Künstliche Intelligenz (FSKI) am Finanzamt Kassel | 26. März 2024 | zur Folge

Folge 48: Der AI Act der EU: Wie er zustande kam und wie er KI reguliert

Mit Domenik Wendt von der Frankfurt University of Applied Sciences | 5. März 2024 | zur Folge

Folge 47: KI und Haftung: Wer steht ein für die Fehler Künstlicher Intelligenz?

Mit Carsten Gerner-Beuerle vom University College London | 13. Februar 2024 | zur Folge

Folge 46: Arena of IoT: ein Fußballstadion als digitales Reallabor

Mit Oliver Bäcker von EintrachtTech GmbH | 23. Januar 2024 | zur Folge

Folge 45: Digitale Forensik

Mit Felix Freiling von der Friedrich-Alexander-Universität Erlangen-Nürnberg | 12. Dezember 2023 | zur Folge

Folge 44: Von Grundsatzdebatte bis Wahlkampf: Digital Kommunizieren in politischen Parteien

Mit Isabelle Borucki von der Philipps-Universität Marburg | 21. November 2023 | zur Folge

Folge 43: Digitalität und der demokratische Auftrag des öffentlich-rechtlichen Rundfunks

Mit Florian Hager vom Hessischen Rundfunk | 31. Oktober 2023 | zur Folge

Folge 42: Sensible Daten für die Wissenschaft: Weshalb ein Forschungs­daten­gesetz?

Mit Stefan Bender von der Deutschen Bundesbank | 10. Oktober 2023 | zur Folge

Folge 41: Modellieren, Simulieren, Optimieren – die Digitalisierung des Energienetzes

Mit Alexander Martin von der Technischen Universität Nürnberg | 19. September 2023 | zur Folge

Folge 40: Digitalisierte Landwirtschaft – das Beispiel Obstbau

Mit Christine Rösch vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) | 8. August 2023 | zur Folge

Folge 39: Lehren und Lernen nach der Pandemie: Der schwierige Umbau des digitalen Schulunterrichts

Mit Jan Marco Leimeister von der Universität Kassel | 18. Juli 2023 | zur Folge

Folge 38: Digitale Kunstwerke bewahren: eine Herausforderung für Museen

Mit Margit Rosen vom ZKM | Zentrum für Kunst und Medien Karlsruhe | 27. Juni 2023 | zur Folge

Folge 37: Tageszeitungen: Wie verändern sie sich im digitalen Wandel?

Mit Carsten Knop von der Frankfurter Allgemeinen Zeitung | 6. Juni 2023 | zur Folge

Folge 36: Wie es Computern gelingt, eigenständig mit Sprache umzugehen

Mit Chris Biemann von der Universität Hamburg | 16. Mai 2023 | zur Folge

Folge 35: Daten­vielfalt hand­hab­bar machen – das Beispiel Bio­di­versi­täts­forschung

Mit Barbara Ebert von der Gesellschaft für Biologische Daten e. V. | 4. April 2023 | zur Folge

Folge 34: Maschinelles Lernen im Umweltmonitoring

Mit Hanna Meyer von der Universität Münster | 14. März 2023 | zur Folge

Folge 33: Was können kleine und große Drohnen? Zur Automatisierung von Fluggeräten

Mit Uwe Klingauf von der Technischen Universität Darmstadt | 21. Februar 2023 | zur Folge

Folge 32: Digitales Kreditscoring: Wie Datenanalysen darüber entscheiden, wem man Geld leiht und wem nicht

Mit Katja Langenbucher von der Goethe-Universität Frankfurt am Main | 31. Januar 2023 | zur Folge

Folge 31: Biochemie trifft Informatik: Wie man digitale Daten in DNA speichern kann

Mit Robert Grass von der ETH Zürich | 20. Dezember 2022 | zur Folge

Folge 30: In die eigene finanzielle Zukunft schauen: Digitale Rententransparenz

Mit Andreas Hackethal von der Goethe-Universität Frankfurt a.M. | 29. November 2022 | zur Folge

Folge 29: Gaming-Kultur für alle: Szenen, Debatten und ein Milliardenmarkt

Mit Rae Grimm von Webedia Gaming GmbH | 8. November 2022 | zur Folge

Folge 28: Digitale Spielräume in der Musikproduktion

Mit David Waldecker von der Universität Siegen | 18. Oktober 2022 | zur Folge

Folge 27: Hacker-Attacken und IT-Management: Cyber-Risiken versichern

Mit Florian Salm von der Gothaer Allgemeine Versicherung AG und Ulrich Greveler von der Hochschule Rhein-Waal | 27. September 2022 | zur Folge

Folge 26: Seltene Rohstoffe und Elektroschrott: Über Materialität und Recyclingprobleme des Digitalen

Mit Mathias Schluep vom World Resources Forum | 6. September 2022 | zur Folge

Folge 25: Sterben, Trauern und Vermächtnis: Was ändert sich durch Digitalität?

Mit Stephan Neuser vom Bundesverband Deutscher Bestatter e. V. | 16. August 2022 | zur Folge

Folge 24: Was ist das Darknet und was passiert dort?

Mit Kai Denker von der Technischen Universität Darmstadt | 5. Juli 2022 | zur Folge

Folge 23: Hochleistungsrechnen zu Zukunftsfragen: Das Deutsche Klimarechenzentrum

Mit Thomas Ludwig vom Deutschen Klimarechenzentrum | 14. Juni 2022 | zur Folge

Folge 22: Open Source für die öffentliche Verwaltung: das Beispiel Schleswig-Holstein

Mit Marit Hansen, Landesbeauftragte für Datenschutz Schleswig-Holsteins | 24. Mai 2022 | zur Folge

Folge 21: Von Datenschutz zu Datensouveränität: informationelle Selbstbestimmung in der digitalen Gesellschaft

Mit Steffen Augsberg von der Justus-Liebig-Universität Gießen | 3. Mai 2022 | zur Folge

Folge 20: Von Cartoons zu Instagram: „Perfekte Bilder“ und das Körperverhältnis von Mädchen

Mit Maya Götz vom Internationalen Zentralinstitut für das Jugend- und Bildungsfernsehen (IZI) des Bayerischen Rundfunks | 12. April 2022 | zur Folge

Folge 19: Verträge automatisieren? Was sind und was leisten „Smart Contracts“?

Mit Nikolas Guggenberger von der Yale Law School | 22. März 2022 | zur Folge

Folge 18: KI und Krieg: Verhandeln für eine UN-Konvention gegen tödliche autonome Waffensysteme

Mit Anja Dahlmann vom Institut für Friedensforschung und Sicherheitspolitik an der Universität Hamburg | 1. März 2022 | zur Folge

Folge 17: Was ist Gaia-X?

Mit Boris Otto von der TU Dortmund und dem Fraunhofer ISST | 8. Februar 2022 | zur Folge

Folge 16: Cookies, AirTags, Metadaten: Wohin führt das Tracking?

Mit Matthias Hollick von der Technischen Universität Darmstadt | 25. Januar 2022 | zur Folge

Folge 15: Mit Physik rechnen: Quanten­computer in der Realität

Mit Frank Wilhelm-Mauch von der Universität des Saarlandes | 11. Januar 2022 | zur Folge

Folge 14: Vermitteln, voranbringen, ermöglichen: Wie macht eine Digitalministerin Politik?

Mit Kristina Sinemus, der Hessischen Ministerin für Digitale Strategie und Entwicklung | 14. Dezember 2021 | zur Folge

Folge 13: Likes, Bewertungen und smarte Assistenten – Risiken einer digitalen „Verbraucherdemokratie“

Mit Jörn Lamla von der Universität Kassel | 30. November 2021 | zur Folge

Folge 12: Von der Münze zum Token: Geld, Wert und Währung in der Digitalität

Mit Martin Diehl von der Deutschen Bundesbank | 16. November 2021 | zur Folge

Folge 11: Smarte Stadtentwicklung – was tun kommunale Unternehmen?

Mit Klaus-Michael Ahrend von der HEAG Holding AG | 2. November 2021 | zur Folge

Folge 10: Genetische Information im digitalen Zeitalter: Der Streit um das Nagoya-Protokoll

Mit Anna Deplazes Zemp von der Universität Zürich | 19. Oktober 2021 | zur Folge

Folge 9: Anspruch und Wirklichkeit: Wie steht es um den Datenschutz?

Mit Alexander Roßnagel, dem Hessischen Beauftragten für Datenschutz und Informationsfreiheit | 5. Oktober 2021 | zur Folge

Folge 8: Predictive Policing und die Folgen: Datenanalyse in der Polizeiarbeit

Mit Simon Egbert von der Universität Bielefeld | 21. September 2021 | zur Folge

Folge 7: DE-CIX und die Architektur des Internets

Mit Harald A. Summa von eco – Verband der Internetwirtschaft e. V. | 7. September 2021 | zur Folge

Folge 6: Datenträger, Datendienste, Datenspuren: wissenschaftliche Bibliotheken und Verlage im digitalen Wandel

Mit Katrin Stump von der Universitätsbibliothek Braunschweig | 3. August 2021 | zur Folge

Folge 5: Datenchirurgie? Intelligente Technik im OP

Mit Stefanie Speidel vom Nationalen Centrum für Tumorerkrankungen in Dresden | 20. Juli 2021 | zur Folge

Folge 4: KI in der Finanzwelt

Mit Florian Möslein von der Philipps-Universität Marburg | 6. Juli 2021 | zur Folge

Folge 3: Blockchain nach Bitcoin: Regeln in der Welt der Krypto-Token

Mit Sebastian Omlor von der Philipps-Universität Marburg | 22. Juni 2021 | zur Folge

Folge 2: Emotet & Co: der Kampf gegen Cyberkriminalität

Mit Linda Bertram von der Zentralstelle zur Bekämpfung der Internetkriminalität | 8. Juni 2021 | zur Folge

Folge 1: Überwachung messbar machen

Mit Ralf Poscher vom Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht | 26. Mai 2021 | zur Folge

Folge 0: Digitalgespräch - ab dem 26. Mai 2021

Ein Vorgeschmack auf das Digitalgespräch | 24. Mai 2021 | zur Folge

Alle ZEVEDI-Podcasts

Creative Commons Lizenzvertrag

Kategorien
Autor: Sally Peters eFin-Blog Farbe: hellblau Uncategorized

Finfluencer:innen auf dem Prüfstand: Zwischen Bildung, Beeinflussung und Geschäftsmodell

Finfluencer:innen auf dem Prüfstand: Zwischen Bildung, Beeinflussung und Geschäftsmodell

Ein Beitrag von Sally Peters

28. Mai 2025

Wer heute auf Instagram, TikTok oder YouTube unterwegs ist, begegnet ihnen fast überall: Finfluencer:innen. Sie erklären Aktien, ETFs oder Krypto-Investments mit einfachen Worten und erreichen vor allem junge Zielgruppen. Auf den ersten Blick wirkt das wie ein Glücksfall für die Finanzbildung. Doch bei näherem Hinsehen verschwimmen oft die Grenzen zwischen unabhängiger Information, persönlichem Erfahrungsbericht und bezahlter Werbung. Was bedeutet das für die Qualität der Finanzbildung im digitalen Raum? Wo liegen Chancen – und wo Gefahren?

Das Screen eines Handys. Auf dem Handy eine männliche Person vor Euro- und Dollarzeichen, die auf den Zuschauer zeigt. Daneben ein großes Fragezeichen. Erstellt mit Adobe Firefly.

Werbung, Information oder Finanzbildung?

Finfluencer:innen sind Social-Media-Persönlichkeiten, die Inhalte zu Ansparen, Investieren oder Altersvorsorge erstellen und verbreiten. Ihre Reichweite ist beeindruckend – und ihre Wirkung beträchtlich. Laut einer Erhebung der BaFin (2024)1BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht: Finfluencer – Zwischen Werbung und Beratung, Fachartikel, September 2024, online unter: https://www.bafin.de/SharedDocs/Veroeffentlichungen/DE/Fachartikel/2024/fa_bj_2409_Finfluencer.html (abgerufen am 28.04.2025). folgen junge Anleger:innen aktiv den Empfehlungen von Finfluencer:innen; 57 % investieren sogar direkt über empfohlene Links, die s.g. Affiliate-Links, bei denen die Finfluencer:innen eine Vermittlungsprovision erhalten.

Was auf den ersten Blick wie niedrigschwellige Aufklärung aussieht, entpuppt sich bei genauerer Betrachtung oft als Geschäftsmodell. Kooperationen mit Banken, Trading-Apps oder Versicherungen sind keine Ausnahme, sondern die Regel.

Schnell fällt in diesem Zusammenhang mit Finfluencing der Begriff Bildung. Doch nicht jede Informationsvermittlung stößt Bildungsprozesse an. Bildung setzt voraus, dass Menschen befähigt werden, Wissen einzuordnen, kritisch zu hinterfragen und selbstständig fundierte Entscheidungen zu treffen. Viele Inhalte auf Social Media bleiben aber auf der Ebene der bloßen, womöglich einseitigen Information stehen – und erreichen damit nicht die Tiefe, die Finanzbildung benötigt. Wenn Information, Diskussion und Aufklärung – ob explizit oder implizit – vorrangig werblichen Zielen dienen, verliert ein ernsthaftes Bildungsanliegen erheblich an Glaubwürdigkeit

Qualitätscheck: Wie gut sind Finfluencer:innen-Empfehlungen?

Die Rolle von Finfluencer:innen ist ambivalent. Auf der einen Seite stehen Akteure mit viel Expertise, die Finanzbildung fördern möchten – oft durch eigene Bücher, Kurse oder Plattformen. Auf der anderen Seite operieren solche, die sich im Graubereich zwischen Unterhaltung, Eigenwerbung und versteckter Einflussnahme bewegen. Ein besonders eindrückliches Beispiel für Letztere ist der Fußballer Lukas Podolski, der 2024 auf seinen Social-Media-Kanälen Werbung für Memecoins machte. Obwohl kein Finanzexperte, wirkten seine Posts auf Fans wie Anlageempfehlungen – mit teils erheblichen Risiken.2Siehe dazu auch Schmidt (2023), online unter https://zevedi.de/efinblog-das-gefahrliche-geschaft-mit-dem-kurs/ (abgerufen am 21.05.2025).

Dass Reichweite nicht gleich Kompetenz bedeutet, zeigen wissenschaftliche Studien deutlich:

  • Kakhbod et al. (2023): 56 % der Finfluencer:innen gelten als „antiskilled“, ihre Empfehlungen führen systematisch zu schlechteren Anlageergebnissen. Die Renditen von Finfluencer:innen-Empfehlungen liegen langfristig unter dem Marktdurchschnitt.3Ali Kakhbod, Seyed Mohammad Kazempour, Dmitry Livdan und Norman Schuerhoff: Finfluencers, Swiss Finance Institute Research Paper No. 23-30, 5. Juli 2023, online verfügbar unter: https://ssrn.com/abstract=4428232 (abgerufen am 28.04.2025).​
  • BaFin-Erhebung (2024): Junge Anleger:innen vertrauen Finfluencer:innen stark, oft ohne die Qualität der Empfehlungen kritisch zu hinterfragen.4BaFin – Bundesanstalt für Finanzdienstleistungsaufsicht: Finfluencer – Zwischen Werbung und Beratung, Fachartikel, September 2024, online unter: https://www.bafin.de/SharedDocs/Veroeffentlichungen/DE/Fachartikel/2024/fa_bj_2409_Finfluencer.html (abgerufen am 28.04.2025).

Besonders alarmierend und paradox: Gerade Finfluencer:innen mit schlechteren Empfehlungen haben häufig die größte Reichweite. Das unterstreicht, wie wichtig kritische digitale Finanzbildung und klare Regulierung sind.

Konkrete Maßnahmen und bleibende Herausforderungen

Verbraucherschützer:innen und Regulierungsbehörden schlagen daher klare Maßnahmen vor:

  • Transparenzpflichten: Jede bezahlte Kooperation mit Finanzanbietern muss eindeutig und leicht erkennbar gekennzeichnet werden.
  • Qualitätssicherung: Finfluencer:innen müssen ausreichende Finanzkompetenzen vorweisen können.

Die Retail Investment Strategy (RIS) – oder auf Deutsch Kleinanlegerstrategie – der EU setzt erste Impulse, doch eine konsequente Umsetzung steht noch aus. Die zentrale Herausforderung aber bleibt: Wie können wir das enorme Potenzial von Finfluencer:innen für niedrigschwellige Finanzbildung nutzen, ohne die Verbraucher:innen der teils offenen, teils versteckten Einflussnahme auszusetzen? Klar ist: Ohne kritische Medienkompetenz und digitale Finanzbildung laufen insbesondere junge Menschen Gefahr, Fehlinformationen aufzusitzen. Unrealistische Renditeversprechen, verharmloste Risiken oder übertriebene Vereinfachungen können langfristige finanzielle Schäden verursachen. Regulatorische Maßnahmen allein werden allerdings nicht ausreichen, um falsche finanzielle Entscheidungen von Verbraucher:innen zu verhindern. Hinzukommen muss eine ausreichende digitale und finanzielle Bildung.

Fazit: Zwischen Chancen und Risiken

Finfluencer:innen sind gekommen, um zu bleiben. Sie adressieren Zielgruppen, die klassische Bildungsangebote oft nicht mehr erreichen und machen komplexe Themen zugänglich. Doch ihr Einfluss ist nicht nur positiv: Studien zeigen teils dramatische Qualitätsdefizite, Interessenkonflikte und fehlende Transparenz.

Regulierung, Aufklärung und kritische Finanzbildung sind deshalb essenziell. Die EU geht erste Schritte – ob sie ausreichen werden, um unabhängige Information von (versteckter) Werbung wirksam zu trennen, bleibt abzuwarten.

Eines aber ist klar: Wer Finanzbildung im digitalen Raum fördern will, muss den Blick für die feinen Unterschiede zwischen Aufklärung und Beeinflussung schärfen.

RSS-Feed RSS-Feed zum eFin-Blog abonnieren

Zurück zur Startseite des Blogs

Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors

Kategorien
Autor: Thomas Weck eFin-Blog EU-Politik Farbe: gelb Uncategorized

It’s the data, stupid: Europas digitale Abhängigkeit bei Finanzdiensten

It’s the data, stupid: Europas digitale Abhängigkeit bei Finanzdiensten

Ein Beitrag von Thomas Weck

15. Mai 2025

Die europäische Finanzwirtschaft ist stark von außereuropäischen Plattformen abhängig – ein wachsendes strategisches Problem. Deren datenbasierte Geschäftsmodelle erschweren in vielen Bereichen den Aufbau europäischer Konkurrenz. Speziell im Finanzbereich bringen regulierte Anbieter jedoch eigene Risikoexpertise mit, die das Know-how der Plattformunternehmen ergänzt. Deshalb kommt es hier eher zu Partnerschaften. Der Vorschlag der EU-Kommission zum Financial Data Access (FiDA) könnte die Optionen für plattformunabhängige Angebote zusätzlich erweitern.

Erstellt mit Adobe Firefly. Ein USB-Stick im EU-Design vor USB-Ports, über denen eine amerikanische und chinesische Flagge prangt.

Abhängigkeit Europas von außereuropäischen Finanzmarktinfrastrukturen und Plattformen

Die Neuausrichtung der U.S.-Politik führt derzeit zu einem strategischen Umdenken, was bestehende Abhängigkeiten von U.S.-Unternehmen bei der Abwicklung von Finanzdienstleistungen betrifft. Die EZB-Präsidentin Christine Lagarde hat in diesem Zusammenhang darauf verwiesen, dass Zahlungen im europäischen Online-Handel in der Regel über die Infrastrukturen der U.S.-Finanzfirmen Mastercard, Visa und Paypal laufen.

Hinzu kommen die Aktivitäten großer Plattformunternehmen aus den USA und China, deren Geschäftsschwerpunkt herkömmlich außerhalb des Finanzbereichs liegt. Diese Unternehmen dringen ebenfalls seit einiger Zeit in den Bereich der Zahlungsabwicklung ein. Sie ergänzen ihr Diensteportfolio im E-Commerce um Kredit- und Versicherungsangebote. Dabei gehören die Unternehmen Apple, Amazon, Meta (Facebook), Alphabet (Google), Microsoft, Tencent und Alibaba zu den bekanntesten und einflussreichsten Unternehmen der Welt. Für Deutschland hat das Bundeskartellamt die überragende marktübergreifende Bedeutung mehrerer dieser Unternehmen festgestellt.

Die europäische Wirtschaft ist insbesondere bei Zahlungsdiensten somit in zweierlei Hinsicht von nicht-europäischen Anbietern abhängig: Bei Zahlungsinfrastrukturen und bei datenbasierten Diensten. Die Abhängigkeit von nicht-europäischen Infrastrukturen kann durch Förderung europäischer Alternativen wie etwa das Bezahlsystem „Wero“ vermindert werden. Eine hier relevante Option könnte – je nach Ausgestaltung – auch der digitale Euro sein. Die Abhängigkeit von den datenbasierten Dienstleistungen nicht-europäischer Anbieter hingegen ist schwieriger zu reduzieren. Denn die oben genannten Plattformunternehmen haben über die Jahre eine besondere, kaum anderweitig ersetzbare Expertise entwickelt.

Daten und Netzwerkeffekte als Ursachen für Abhängigkeiten von Plattformunternehmen

Der Kern des Geschäftsmodells der genannten Plattformunternehmen besteht in der Analyse von Daten über Verbraucherpräferenzen. Diese Datenanalyse wird dazu genutzt, die erbrachten Online-Dienste zu verbessern und über Werbung die Dienste zu monetarisieren. Es kommt dabei zu sogenannten „datengetriebenen Netzwerkeffekten“. Denn mehr Daten ermöglichen eine Verbesserung der erbrachten Dienste (einschließlich Werbedienste). Diese Verbesserung mündet in Rückkopplungsschleifen, denn bessere Dienste ziehen mehr Nutzer an, von denen weitere Daten gesammelt werden können.

Die datengetriebenen Netzwerkeffekte können dazu beitragen, dass Märkte permanent zugunsten eines einzigen Plattformbetreibers kippen. Denn erstens können Daten aus mehreren Anfragen derselben Nutzerin oder desselben Nutzers – entweder über die Zeit hinweg oder in Bezug auf andere Nutzergruppen (Händler, Kontakte im sozialen Netzwerk usw.) – verknüpft werden, um individuellen Nutzern auf ihre Anfragen hin ein personalisiertes Angebot zu machen. Dadurch werden diese Nutzer an die Plattform gebunden (Lock-in). Zweitens können die Plattformbetreiber die Daten diverser Nutzeranfragen einsetzen, um ihre Plattform auch für andere Nutzer zu verbessern. Das macht die Plattform attraktiver. Beides zusammen führt aber dazu, dass es zusehends schwieriger wird, einem Plattformbetreiber seine Wettbewerbsposition streitig zu machen.

Die Plattformunternehmen haben zudem erkannt, dass sie aufgrund der Daten über Verbraucherpräferenzen nicht nur ihre bestehenden zentralen Plattformdienste verbessern können. Sie können ihr Angebot vielmehr auch um solche Dienste ausweiten, die zu den bestehenden Diensten kompatibel und damit komplementär sind. Beispielsweise liegt es nahe, den Nutzenden einer Suchmaschine auch Preisvergleichs- oder Kartensuchdienste anzubieten. Wenn Verbraucherinnen und Verbraucher vom festen PC zu Mobilgeräten wechseln, dann liegt es nahe, App Stores und Mobilbetriebssystemen ins bestehende digitale Ökosystem einzubinden und ihnen so zu folgen.

Plattformen dringen über Kooperationen in den Finanzsektor vor

Dennoch fiel über längere Zeit auf, dass die Plattformunternehmen nur in relativ geringem Umfang mit Verbraucherdiensten in den Finanzbereich expandierten. Ein Grund dafür mag sein, dass Finanzdienste häufig über die Herstellung einer schlichten Kontaktmöglichkeit zwischen verschiedenen Marktseiten hinausgehen. Stattdessen werden den Verbraucherinnen und Verbrauchern ganze Leistungsbündel bereitgestellt (z.B. Kontoangebote mit Zahlungskarten, Anlagemöglichkeiten usw.) oder die Leistungen führen zu längeren Vertragsbindungen und gehen mit spezifischen Risiken einher (z.B. Kreditrisiken). Ein anderer möglicher Grund ist, dass Finanzdienste aufgrund ihrer spezifischen Risiken und der Relevanz solcher Risiken für das Finanzsystem besonders reguliert sind.

Mit der Zeit haben mehrere Plattformbetreiber (Apple, Google, Amazon, Meta, Microsoft) jedoch erkannt, dass sich Schnittstellen zwischen den etablierten Finanzmarktteilnehmern, insbesondere Banken, und der Verbraucherseite durchaus besetzen lassen. Denn viele Banken hatten Schwierigkeiten mit der Modernisierung ihrer IT-Infrastruktur. Plattformunternehmen konnten ihnen im Back-End Cloud-Dienste und technische Lösungen für das Risikomanagement, die Kernbankensysteme, die Datenanalyse und KI-Assistenten anbieten. Für die Plattformbetreiber ließen sich zudem technische Lösungen für Zahlungsdienste, spezialisierte Kredit- und Versicherungsangebote mit relativ geringem Aufwand in ihr Diensteportfolio integrieren. Hierbei handelt es sich um Kundendienste, die auch in das Leistungsangebot der Banken eingebettet werden können. Im Finanzbereich ist die Expansion der Plattformbetreiber deshalb bislang eher auf Kooperation als Verdrängung ausgerichtet.

Die weitere Entwicklung ist offen. Die Entstehung sogenannter Super-Apps wie in China ist in Europa auf absehbare Zeit aufgrund der engmaschigen Regulierung (Datenschutz-/Finanzregulierung) nicht zu erwarten. Wahrscheinlicher ist, dass die Partnerschaften mit Playern aus der europäischen Finanzindustrie ausgebaut werden. Denn diese bringen Expertise in Regulierungsfragen mit und ermöglichen es den Plattformbetreibern, sich auf ihr Kerngeschäft – die Entwicklung technischer Lösungen – zu konzentrieren.

Markt- und Systemrisiken – bisher unzureichende regulatorische Antwort

Dass die großen Plattformunternehmen auf partnerschaftlicher Basis in den Finanzbereich expandieren, ändert nichts daran, dass sie auch in diesem Bereich in großem Umfang Daten ansammeln, die zu Abhängigkeiten führen können. Zugleich bedeutet ihre Einbindung in die Finanzwirtschaft, dass ihr Verhalten auch für die Stabilität des Finanzsystems relevant werden kann. Die mögliche Systemrelevanz der Finanzdienste von „Big Tech“ ist Gegenstand einer kritischen aktuellen Studie von Finanzwende Recherche.

Die Studie hat unter anderem ermittelt, dass die geringe Verzahnung der Aufsicht über die Finanzmärkte einerseits und der Aufsicht über marktmächtige Unternehmen andererseits einen blinden Fleck in der Regulierung darstellt. Der herkömmliche Ansatz, einzelne Regulierungsziele zu definieren und die Regulierung für diese Ziele jeweils isoliert auszugestalten, trägt der marktübergreifenden Tätigkeit der Plattformunternehmen zu wenig Rechnung. In Deutschland haben Anfang 2024 sechs Bundesbehörden (Bundeskartellamt, Bundesnetzagentur, BaFin, BSI, BfJ und BfDI) das Digital Cluster Bonn für eine verstärkte Zusammenarbeit gegründet. Das ist sinnvoll, kann aber eine gesetzliche Verzahnung von Zuständigkeiten und Verfahren nicht ersetzen.

Eine größere Herausforderung wird es auf Dauer sein, die vorhandenen Abhängigkeiten von den großen Plattformunternehmen zu vermindern. Bestehende Regelwerke wie insbesondere der Digital Markets Act (DMA) und der Digital Services Act (DSA) ändern daran nichts, weil sie den Plattformbetreibern die von ihnen gesammelten Daten und damit ihre wichtigsten Exklusivitätsvorteile belassen. Daneben bleiben zwar auch die Regeln zum Wettbewerbsschutz (Art. 101 f. AEUV) anwendbar, ein potenziell scharfes Schwert: Wie die Studie von Finanzwende Recherche herausgearbeitet hat, könnten danach Maßnahmen bis hin zur Entflechtung der betroffenen Unternehmen angeordnet werden. Das setzt allerdings den Nachweis von Wettbewerbsverstößen voraus, und es drohen Rechtsmittel, über die in langwierigen Verfahren zu entscheiden ist. Die Relevanz der Unternehmen für das Finanzsystem lässt sich mit solchen Maßnahmen ohnehin nicht adressieren.

FiDA – ein neuer Regulierungsansatz zur Verminderung von Abhängigkeiten

Eine Alternativlösung kann hier – wie bei den eingangs angesprochenen Infrastrukturen – möglicherweise über den Markt gefunden werden. Wie das gehen könnte, zeigt der Kommissionsvorschlag über den Zugang zu Finanzdaten (FiDA): Danach sollten Finanzinstitute gezwungen werden, den Verbraucherinnen und Verbrauchern die Kontrolle über die sie betreffenden Kundendaten zu geben.

Was bedeutet das und warum könnte FiDA zur Reduzierung von Abhängigkeiten beitragen? FiDA würde Banken, Fondsverwalter, Versicherungsunternehmen, Zahlungsdienstleister (auch z.B. die Tochterdienstleister Apple Pay, Google Pay etc.) u.a. verpflichten, auf Veranlassung der Kunden hin einander Zugang zu Informationen über Kredite, Ersparnisse, Ruhegehaltsansprüche, Versicherungsprodukte aus anderen Bereichen als der Lebensversicherung und zu Daten zu gewähren, die die Beurteilung der Kreditwürdigkeit gestatten. Wenn die Kunden dies wünschen, würde FiDA also einen Datenaustausch zwischen Dienstleistern unabhängig davon ermöglichen, ob die Dienstleister selbst den Kunden Kooperationsangebote machen wollen. Dies würde den Markteintritt neuer Anbieter und damit neuartige Angebote ermöglichen. Das würde auch komplexere und regulierte Angebote umfassen, bei denen eine Verdrängung bestehender Finanzdienstleister durch die mächtigen Plattformunternehmen unwahrscheinlich ist. Die europäische Finanzindustrie würde aber – auf Veranlassung der Kunden – dazu gezwungen, Daten viel stärker als bisher als wettbewerbliche Ressource zu begreifen und einzusetzen.

Allerdings ist derzeit unklar, ob zu FiDA überhaupt ein Gesetzgebungsverfahren stattfinden wird. Denn Teile der bestehenden Finanzindustrie lobbyieren vehement gegen diesen Rechtsakt. Wenn sie damit Erfolg hat, FiDA zu begraben, könnte damit allerdings auch ein Instrument beerdigt werden, das von seinem Regelungsansatz her – zumindest auf längere Sicht – geeignet sein könnte, die bestehenden Strukturen und Abhängigkeiten von den großen nicht-europäischen Plattformunternehmen zu lockern.

Dieser Beitrag kam auf Einladung des Diskursprojektes eFin & Demokratie bei ZEVEDI nach einer Diskussionsveranstaltung am 25. März 2025 zustande, auf der die Studie „Die Finanzdienste von Apple, Google und Co.: Ein gefährlich guter Deal“ von Finanzwende Recherche vorgestellt wurde.

RSS-Feed RSS-Feed zum eFin-Blog abonnieren

Zurück zur Startseite des Blogs

Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors

Kategorien
Akzentfarbe: Hellblau Autor: Geert Lovink Uncategorized Verantwortungsblog

„Wir brauchen ein, zwei, viele Tausende Mastodons“

„Wir brauchen ein, zwei, viele Tausende Mastodons“

„Extinction Internet“ hat der Netztheoretiker und -aktivist Geert Lovink seine Antrittsvorlesung betitelt. Droht dem Internet also die Auslöschung? Und was ist das überhaupt, das Internet – in Zeiten der großen Plattformen und großer nationaler Firewalls? Ist das Ende des Internets noch eher vorstellbar als dessen grundlegende Veränderung?

Von Geert Lovink | 09.05.2025

Figuren, die an einem Netz herumbasteln
Figuren, die an einem Netz herumbasteln. Erstellt mit Adobe Firefly.

Geert Lovink: Der Vergleich zum Artensterben ist jedenfalls nicht angesagt. Wenn wir über Extinction Internet reden, dann reden wir über das Internet als etwas, das mehr und mehr im Hintergrund verschwindet. Um eine Auslöschung des Internets geht es insofern, dass wir nicht mehr in der Lage sind, das Internet als eigenständiges Objekt zu sehen. Es wird nicht mehr darüber geredet, dass das Internet sich in diese oder jene Richtung entwickeln soll. Und da liegt das Problem, das ich versucht habe, zu thematisieren und zu theoretisieren.

Man kann sagen, das Internet war immer abstrakt, war immer nur eine ganz bestimmte und begrenzte Sammlung von Protokollen. Das ist eine Lesart. Für Firmen und Benutzer war es immer etwas anderes. Es ist eine Oberfläche, eine Webseite, eine Sammlung von Apps, etwas, was man auf dem Smartphone installiert und benutzt und so weiter. Wahrscheinlich ist das Internet für die fünf Milliarden Menschen, die es derzeit benutzen, vor allem das, eine Sammlung von Apps auf ihrem Handy.

GL: Ja, die Auslöschung betrifft die Protokollseite, also die Ebene, auf der das Internet als Ganzes noch Gegenstand von Diskussionen um Entwicklungsrichtungen ist. Da passiert immer weniger. Vielleicht passiert sehr viel, aber wir kriegen es nicht mehr mit, es ist nicht mehr Teil der öffentlichen Aushandlung. Und das hat auch damit zu tun, dass das Internet immer stärker plattformisiert wurde. Die großen Player dieser Plattformisierung haben wichtige Positionen in den entscheidenden Internetgremien eingenommen. Google ist da der wichtigste Player. Google hat vor 20 Jahren damit angefangen, systematisch sehr wichtige Positionen einzunehmen, in der Internet Society (ISOC), in der Internet Corporation for Assigned Names and Numbers (ICANN), in der Internet Engineering Task Force (IETF) und so weiter. Die Anzahl dieser Gremien, die bestimmen, wie das Internet sich weiterentwickelt, ist ja begrenzt. Und es gab eine Phase, in der die Zivilgesellschaft und NGOs versucht haben, da mitzuspielen. Diese Versuche wurden aufgegeben.

Gleichzeitig gibt es Länder wie Russland, China und andere, die dafür sorgen, dass das globale Internet nicht mehr so global ist. Das ist die Geopolitik des Internets und die ist ziemlich festgefahren. Auch da hat Stagnation eingesetzt. Wer ist zum Beispiel in der Lage, China zu irgendwas zu bewegen? Dazu ist das Land zu groß und zu mächtig. China hat eine große Firewall errichtet und verkauft diese Technologie weltweit. Damit ist die Abschottung zu einem Produkt geworden, das China in Afrika und in anderen Teilen der Welt verkauft.

GL: Ja. Aber was dabei wichtig ist, ist, dass die Diskussion über die Visionen für das Internet lahmgelegt ist. Vorher ging es noch darum, wie kann es sich weiterentwickeln? Mit Extinction Internet meine ich die Implosion dieses Möglichkeitsraums.

GL: Ja, die Diskussionen berühren nicht mehr den visionären Bereich.

GL: Ja, und wir wissen alle, dass die Apps nicht mehr offen sind, die kann man nicht verändern. Man kann sie nur benutzen. Douglas Rushkoff hat mal gesagt, „program or be programmed“. Wenn wir nicht mehr in der Lage sind, diese Umgebungen selbst zu programmieren, werden wir programmiert. Und da sind wir angelangt.

Es kann sein, dass ich eine idealistische Sozialisierung erfahren habe, vor allem in den 1990er Jahren. Und da ist auch ein Stück weit eine Enttäuschung dieser Generation im Spiel, der ich angehöre. Extinction Internet ist sozusagen auch meine eigene Extinction, also die Auslöschung eines Diskurszusammenhangs, einer Art, über das Internet zu diskutieren. Was auch ausgelöscht zu werden droht, ist die Annahme, dass es dabei um Demokratie geht, um eine participatory culture, in der man sich nicht als Konsument betrachtet, sondern als aktiver Teilnehmer. Es dominiert längst etwas anderes. Man kann nur noch Liken, Swipen und vielleicht einen Kommentar hinterlassen.

GL: Die Plattform-Logik ist aus der Vernetzung entstanden. Was das bedeutet, müssen wir erstmal festhalten. Es gab soziale Netze, soziale Vernetzung und den Begriff der Netzgesellschaft. Diese Vernetzung hat man sich als horizontale gedacht, als eine Vernetzung von Netzen. Es gab zwar auch damals größere Knoten und kleinere, aber die Idee war, dass ein loser Zusammenhang von größeren und kleineren Netzen sich ergeben hat und sich dynamisch weiterentwickelt.

Die Plattform-Logik ist damit unvereinbar, sie ist viel stärker zentralisiert und im hegelschen Sinne eine Totalität, die auch so erfahren wird. Innerhalb einer Plattform gibt es eigentlich alle und alles. Alle sind da und alles, was gemacht werden kann, verhandelt werden kann, gesagt werden kann, produziert werden kann, findet innerhalb dieser zentralisierten Plattform statt. Das ist die Totalität der Plattformen. Die Plattform kann eigentlich im Grunde alles, was wir wünschen. Alles, was wir suchen, ist auf der Plattform und wenn es nicht da ist, wird es morgen entwickelt und angeboten, alles spielt sich innerhalb der Grenzen der Plattform ab. Das heißt, es soll keinen Anlass geben, von den Plattformen wegzugehen. Die Idee der Verbindung hat darin keinen Platz. Die Idee, dass man einen Link nach außen setzt, damit ich von System A zu System B komme, wird aktiv bekämpft. Ziel ist, die Menschen auf der Plattform zu halten.

Man kann sagen, gut, es gibt aber noch verschiedene Plattformen und das stimmt. Aber das hat damit zu tun, dass die Plattformen bestimmte Segmente des Internets geradezu monopolisiert und unter sich aufgeteilt haben. Amazon als größte Plattform bietet vor allem Produkte und Services an, Meta dominiert den Bereich des sozialen Austauschs und Google den der Wissens- und Informationsbeschaffung. Ich skizziere das jetzt nur sehr grob. Diese großen Plattformen stehen miteinander nicht im Wettbewerb. Zwischen ihnen gibt es keine Konkurrenz mehr. Konkurrenz findet innerhalb der Plattformen statt. Wenn ich auf Amazon gehe, um ein Buch zu kaufen, dann kann ich ein Buch von Suhrkamp kaufen oder eins, das im Fischer Verlag erschienen ist. Da gibt es die Konkurrenz Suhrkamp gegen Fischer, aber die findet auf Amazon statt.

GL: Ja, stimmt.

GL: Ja, denn beides hängt zusammen. Was Mark Fisher als kapitalistischen Realismus beschrieben hat, hat auch mit der Implosion des Vorstellbaren zu tun. Fisher beschreibt ein geschlossenes Universum, aus dem es keine Ausstiegsperspektive mehr gibt. Es gibt keine Perspektive für eine grundlegende Veränderung mehr. Und das hat mentale, gesundheitliche Auswirkungen, die sich bei jungen Menschen immer mehr zeigen. Seit „Sad by Design“, das Buch ist 2019 erschienen, dreht sich meine Arbeit sehr darum, diese mentalen Implosionseffekte des „platform realism“ zu beschreiben. In der Tat in Annäherung an Mark Fishers Buch, der darin den mentalen Kollaps sehr gut beschrieben hat, der eintritt, wenn eine Alternative nicht mehr vorstellbar ist.

GL: Ja, es ist leichter. Und vielleicht kommt Extinction Internet auch da her. Wenn es keine Möglichkeiten mehr gibt, sich andere Modelle vorzustellen, stürzt das ganze Gebäude ein. Und solche Ideen sind nicht in Sicht. Ich glaube an die kollektive Vorstellungskraft und wenn die nicht mehr vorhanden ist oder nicht mehr in der Lage ist, sich zu organisieren, zu äußern und Alternativen aufzubauen, kommen wir in eine Phase der Stagnation und Regressionen. Dann läuft sich alles fest.

Es gibt zwei Möglichkeiten, sich das Ende des Internets vorzustellen: Einerseits als schnellen Absturz, als einen Prozess, der sehr schnell verläuft. Das ist die Vorstellung vor allem der jungen Generation. Das zweite Szenario ist, dass dieser Absturz ein ganz, ganz langsamer und schmerzhafter Prozess ist. Und die Aufgabe meiner Generation ist, zu zeigen, dass die Stagnation jahrzehntelang dauern wird.

GL: Beide Werke sind nach wie vor wichtig. Ich habe es immer als meine Aufgabe angesehen, diese Analysen für die digitale Welt nutzbar zu machen, denn für Canetti und für Theweleit war die Medienfrage noch die klassische Frage von Massenmedien und von Repräsentation. Aber mit den sozialen Medien ist die Medienfrage eine sehr, sehr intime Frage geworden. Es reicht nicht mehr, Massenmedien wie Zeitungen zu analysieren und beispielsweise aufzuzeigen, welche Deutungen die Springerpresse verbreitet. Mit den sozialen Medien geht es nicht nur um Öffentlichkeit, sondern um den alltäglichen und intimen Austausch der Menschen, um ihr direktes soziales Umfeld, um Freunde und Familie. Da wird es sehr persönlich und das Medium wird buchstäblich auf der Haut getragen, wenn wir an das Smartphone in der Tasche denken. Und das ist ein Aspekt, den ich in eine Theorie des späten 20. Jahrhunderts einbauen möchte, um Theorien wie die von Canetti und Theweleit zu aktualisieren.

Vor allem bei Theweleit sieht man, dass er unter dem Einfluss der französischen Philosophie und Psychoanalyse die Verführungsprozesse der Macht als etwas versteht, was innerhalb des Körpers, in seinem Fall des männlichen Körpers, vor sich geht. Und das ist auch heute der Fall. Seit 2016, diesem wichtigen Umschlagpunkt mit dem Brexit, mit Trump und mit dem Erstarken des Rechtspopulismus, sieht man, dass wir eine neue Fassung der Männerphantasien brauchen, in der zum Beispiel Jordan Peterson, Nick Land und viele andere im rechten Spektrum eine wichtige Rolle als Ideengeber für junge Männer spielen.

GL: Das sind sie schon. Und dazu werden sie mehr und mehr. Da nehmen ganz regressive Tendenzen zu. Das liegt daran, dass diese Männer mittlerweile das Geld haben, die sozialen Netzwerke so zu gestalten. Denn aufgrund der Plattformlogik konnten sie die dazu nötige Macht und das Kapital anhäufen. Und jetzt fangen sie an, diese Ressourcen strategisch für ihre Zwecke einzusetzen.

GL: Mein Sohn wird bald 23 Jahre alt. Ich habe seine Generation aufwachsen sehen und bemerkt, wie offen, im naiven Sinne offen sie Verschwörungstheorien gegenübersteht. Diese Generation ist nicht rassistisch oder sexistisch, das glaube ich nicht, aber sie ist sehr offen für Verschwörungserzählungen. Und sie erfahren, dass sie in diesem Plattformknast sitzen und keine richtige Wahl haben, weil sie abhängig davon geworden sind. Sie sind nicht im medizinischen Sinne süchtig, aber sie sind mental und sozial davon abhängig. Mit negativen Folgen. Deswegen ist „brain rot“ auch das Wort des Jahres 2024 geworden. Diese mentalen Abhängigkeitsprozesse führen dazu, dass es vor allem für diese Generation nicht so einfach ist, auszusteigen. Und die Frage ist, was passiert mit der Kritik, der Erschöpfung und mit der Wut, wenn es keine Möglichkeit für eine grundlegende Veränderung gibt? Das ist ein Problem.

Ich sage nicht, dass die Beschreibung dieser Prozesse dazu führt, dass wir eine Alternative entwickeln können. Leider ist das nicht so. Das habe ich feststellen müssen und es war schmerzhaft, die Gewissheit aufzugeben, dass mit der richtigen Theorie schon der Schlüssel gefunden oder erfunden ist, um zu Veränderungen zu kommen. Meine Forschung in diesem dunklen Raum führt eigentlich zu nichts. Und das ist das eigentliche Ergebnis: die Stagnation. Sie ist das Problem. Aber es ist nicht so, dass uns die richtige Analyse aus der Stagnation herausführen wird. Und es fühlt sich manchmal ein bisschen schizophren an, dass ich mich immer noch der Analyse und der theoretischen Durchdringung der Netzkulturen widme. Aber die Hälfte meiner Zeit verwende ich für den Aufbau von Alternativen.

GL: Ja, und das ist die positive Nachricht: Es gibt sehr viele Alternativen. Es gibt sehr viele Versuche, sich anders zu organisieren. Zum Teil sind das Projekte, die vor 20, 30 Jahren begonnen wurden und mittlerweile in Vergessenheit geraten sind. Es gibt alternative Projekte, an denen Leute Jahrzehnte gearbeitet haben und die jetzt so weit sind, dass sie von vielen Menschen benutzt werden könnten.

Es gibt auch ganz neue Ansätze und darunter zähle ich den ganzen Krypto-Bereich, der in dieser Form vor 30 oder 40 Jahren nicht vorhanden war. Die Idee alternativer Wirtschaftsformen gab es schon, aber die Idee alternativer Währungen oder das Nachdenken über neue Geldformen halte ich nach wie vor für revolutionär und neu.

GL: Ja, es gibt unendlich viele größere und kleinere Beispiele. Mastodon ist nur eines, aber Mastodon ist eigentlich selbst ein Netz von Netzen, ein Protokoll. Viele begrüßen die Interoperabilität, ich auch. Denn Interoperabilität bedeutet, dass man die virtuellen Mauern der Plattformen einreißt.

Wichtig ist jetzt aber vor allem, dass solche Alternativen gelebt und belebt werden. Wir haben genug Entwürfe, die sind nicht das Problem.

GL: Die Möglichkeit gibt es durchaus. Aber man sollte zuerst darüber diskutieren, ob diese Systeme mit oder ohne Algorithmen funktionieren sollten oder funktionieren können. Kann man sich Alternativen vorstellen, die nicht mehr von Algorithmen bestimmt werden? Oder gibt es alternative Algorithmen? Darüber erfahren wir nicht viel. Kann man in dieser enormen Informationswüste, die wir jeden Tag erzeugen, überhaupt noch ohne Algorithmen navigieren? Ich möchte, dass wir diese Diskussion beginnen. Die Beantwortung dieser Frage ist nicht einfach.

Deswegen brauchen wir viele neue Experimente. Wir brauchen ein, zwei, viele Tausende Mastodons. Es geht nicht darum, dass die Leute von Facebook zu Mastodon wechseln. Es geht darum, dass wir viele Experimente starten, damit wir beobachten können, wie die Beantwortung dieser Algorithmen-Frage aussehen kann. Natürlich gibt es einen Wunsch aus den Erfahrungen der jüngsten Vergangenheit, ganz ohne Algorithmen auszukommen. Aber was heißt das? Zum Beispiel, wenn es um Suchmaschinen geht – geht das überhaupt? Ich denke eher nicht. Möchten wir im Netz personalisierte Umgebung haben? Oder wollen wir personalisierte Umgebungen bekämpfen?

GL: Das alles liegt noch vor uns. Aber man kann sich fragen, warum die Implementierung aufgegeben worden ist. Warum gibt es keine Experimente in diese Richtung? Das wundert mich. Im realexistierenden Kapitalismus kommen manche Innovationen nur sehr schleppend voran. Wir verbinden Innovation mit Geschwindigkeit, aber die ist in diesem Bereich nicht bemerkbar. Es wurde sehr viel entwickelt, aber nichts implementiert.

Was da aufgebaut wird, ist eigentlich eine Parallelwelt. Auch da ist der Glaube stark, dass das alte System einfach nicht von innen innoviert und erneuert werden kann, sondern zuvor einstürzen muss. Der Krypto-Sektor wird als Parallel-Wirtschaft für den Fall aufgebaut, dass das globale Wirtschafts- und Finanzsystem einstürzt. Das ist eigentlich das Szenario. Aber die Idee, dass neue Ansätze ganz langsam über eine experimentelle Implementierungsphase zum Mainstream werden, sehe ich nicht. Das habe ich so nicht erwartet. Ich habe mit einer anderen Dynamik gerechnet.

GL: Der Plattform-Kapitalismus läuft auf Free and Open-Source Software. Dass muss sich diese Szene erstmal eingestehen. Das ist aber tabu. Es gibt da wenige, die sich eingestehen, dass alle, Google, Microsoft, Amazon, nur wegen Free and Open-Source Software groß werden konnten. Und das heißt, dass die FOSS-Bewegung mitverantwortlich ist für die Lage, in der wir uns befinden. Sie hat die Zentralisierung und die Monopole aktiv mitaufgebaut.

Natürlich gibt es auch viele Leute, die sich dagegen gewehrt haben. Ich sage nicht, dass alle moralisch bankrott sind. Aber die öffentliche Diskussion über diese Verstrickung hat noch nicht stattgefunden. Solange das der Fall ist, glaubt man einfach, dass die kleinen, netten Initiativen irgendwann doch die Überhand bekommen. Aber das ist in den letzten 20, 25 Jahren nicht passiert. Das Gegenteil ist passiert. Und das müssen wir diskutieren und reflektieren, bevor wir weiterkommen. Man kann das nicht einfach ignorieren und weiterhin auf Free and Open-Source Software setzen. Man muss reflektieren und neue Ansätze finden, denn im Moment ist die FOSS-Bewegung moralisch bankrott. Die Prinzipien vielleicht nicht, aber es geht nicht um Prinzipien. Es geht um die schmutzige Wirklichkeit.

GL: Ja, ich bleibe da optimistisch, weil ich hier am Institut erlebe, was es heißt, wenn man über 20 Jahre die Zeit hat, sowas richtig aufzubauen. Und die vielen Leute, die direkt oder indirekt mit unserem Institute for Network Culture daran arbeiten, die erfahren das auch so.

Hannah Arendt hat betont, dass es immer die Möglichkeit gibt, neu anzufangen. Sie beschreibt sehr schön die Kraft neu anzufangen und ich denke, dass vor allem viele junge Leute das so erfahren werden. Wenn man, so wie ältere Menschen und Influencer, sehr lange daran gearbeitet hat, seine Reputation auf den existierenden Plattformen aufzubauen, dann fällt es einem schwer, sich radikal davon zu verabschieden. Für junge Leute gilt das aber nicht so. Und deswegen glaube ich, dass wir vor allem auf diese Generation achten und beobachten sollten, wie sie damit umgehen. Sie werden zwar von den mentalen Abhängigkeiten und Problemen belastet, aber ich glaube, die jungen Menschen haben die Möglichkeit, das zu überwinden.

Und das kann nur gemeinsam gelingen, als eine kollektive Anstrengung. Ich glaube nicht, dass es individuell geht. Dafür sind die zentripetalen Kräfte, um auf diesen Plattformen zu bleiben, viel zu groß.

Das Gespräch wurde am 10.01.2025 geführt.

Lovink, Geert (2025): „Wir brauchen ein, zwei, viele Tausende Mastodons“. In: Verantwortungsblog. https://zevedi.de/wir-brauchen-ein-zwei-viele-tausende-mastodons/ [09.05.2025]. https://doi.org/10.60805/dmqt-cw72.

Kategorien
Akzentfarbe: Hellblau Autor: Ralf Otte Uncategorized Verantwortungsblog

„KI wird zu massiver Überwachung führen“

„KI wird zu massiver Überwachung führen“

Steht die so genannte „Singularität“ kurz bevor? Wird die KI also die menschliche Intelligenz überflügeln – mit segensreichen oder apokalyptischen Folgen für die Menschheit? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Und welcher KI überhaupt? Im zweiten Teil der kurzen Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Rolf Otte über den KI-Hype, die Grenzen der KI sowie darüber gesprochen, was auf die Software-KI folgen könnte.

Interview mit Ralf Otte | 28.03.2025

Schematische Illustration; Blau- und Grautöne
Bild mit Adobe Firefly erstellt. Prompt: Deep Learning Code as illustration; style: cubism; colors: blue and grey tones.

Ralf Otte: In den letzten Jahren hat die KI eine exponentielle Entwicklung genommen. In immer kürzeren Abständen gab es immer mehr Fortschritt. Das hat zu großen Erwartungen und zum KI-Hype geführt. Ähnliches haben wir schon in den KI-Anfangsjahren erlebt. In den 1960er Jahren wurde vieles versprochen: dass man das Denken nachbilden kann, dass man Expertensysteme damit bauen kann. Dazu kam es seinerzeit nicht. Aber die Technik hat sich stetig weiterentwickelt. Denkprozesse wurden tatsächlich mathematisiert und überall sieht man Expertensysteme. 2022 sind wir nun in einen neuen Hype geraten, und das hat mit den Sprachmodellen zu tun.
Seit ChatGPT ist KI in der Gesellschaft angekommen: Es gibt diese KI und sie kann ganz unglaubliche Dinge. Aber gewisse Dinge kann sie nicht. Und das muss man erklären. Denn immer mehr Politiker und Vorstände glauben, mit KI können sie vieles lösen – ohne dass es so ist. Zur Zeit eines Lokführerstreiks äußerte ein Ministerpräsident beispielsweise: Wenn die Lokführer streiken, können wir doch KI die Züge fahren lassen. Es gab Autokonzerne, die versprachen, bis 2030 fahren unsere Autos vollautonom. Aber vollautonome Autos, die weltweit fahren können, werden niemals kommen. Wir werden auch keine vollautonomen Haushaltsroboter kaufen können. Das sind Dinge, die wir Ingenieure schlicht nicht bauen können.
Es gibt Grenzen der KI. Wenn man das verstanden hat, dann verliert man auch wieder die Angst vor der KI, die angeblich alles kann. Ja, die Sprachmodelle sind gut. Aber sie machen zurzeit bis zu 20 Prozent Fehler in ihren Aussagen und diese Fehlerquote wird man noch auf 10 oder 5 Prozent senken können.

RO: Die Sprachmodelle werden nie die Sprachqualitäten eines Menschen erreichen. Das ist eine prinzipielle Sache. Wenn besser kommuniziert würde, wie wir KI bauen und wie das menschliche Gehirn funktioniert, dann wäre klar, warum die KI nie an das Gehirn heranreichen wird: Im menschlichen Gehirn gibt es neuronale Netze. Wir haben ungefähr 80 Milliarden Neuronen in unserem Gehirn. Ein Neuron kann mit tausenden anderen Neuronen verbunden sein. So kommen wir auf Billionen von Synapsen, also Verbindungen zwischen den Neuronen. Und wenn man lernt, etwas begreift, dann verändern sich die synaptischen Werte. Lernen verändert also das neuronale Netz im Gehirn physisch.
Man spricht im Zusammenhang mit der aktuellen KI zwar auch von neuronalen Netzen im Computer. Aber das ist nur eine Metapher, denn es gibt keine neuronalen Mechanismen im Computer, das sind nur mathematische Gleichungen. Würde man einen Computer aufbohren, dann würde man feststellen, die KI auf einem Computer ist nur Mathematik. Nirgends findet man auch nur ein einziges Neuron.

RO: Im Gehirn laufen keine mathematischen Verfahren. Deswegen bereitet es solche Mühe, einem Menschen ein mathematisches Verfahren beizubringen. Sie brauchen zehn bis zwölf Jahre in der Schule, um die Gehirnprozesse, also physikalische und chemische Prozesse, so zu modulieren, dass sie mathematischen Operationen entsprechen. Das neuronale Netz im Gehirn bringt das nicht mit. Sie können es aber so modulieren, dass Sie nach Ende des ersten Schuljahres Zahlen addieren können. Das braucht sehr, sehr lange und das klingt nach einem Nachteil. Aber der Vorteil ist, dass das menschliche Gehirn mathematische Operationen zwar abbilden kann, aber nicht muss.
Die KI im Computer ist jedoch reine Mathematik. Wer KI programmiert, programmiert mathematische Formeln. Das hat die letztendliche Konsequenz, dass die Grenzen der Mathematik die Grenzen der KI sind. Aber die Grenzen der Mathematik sind nicht die Grenzen eines Menschen. Die Intelligenz des Menschen ist physikalisch, chemisch wie auch sozial fundiert.

RO: Ich habe dazu im Dezember letzten Jahres ein kleines Büchlein geschrieben, mit dem Titel Künstliche Intelligenz – Illusion und Wirklichkeit. Darin erläutere ich „Warum autonomes Fahren weltweit niemals Wirklichkeit wird“, so der Untertitel des Buches.
Ein Grund ist das Problem des Extrapolationsraums. Eine KI können Sie heute gut trainieren und in diesem Datenraum können Sie sie sicher anwenden. Aber wenn Sie KI-Systeme wie ChatGPT über Dinge befragen, die es nicht gelernt hat, fängt die KI oft an zu halluzinieren. In diesem Extrapolationsraum können Sie die KI nicht sicher anwenden. Und zwar prinzipiell nicht. Das Problem lässt sich auch mit einem Supercomputer nicht überwinden, weil es ein mathematisches Problem ist und kein technisches.
Ein anderes Problem ist energetisch: Ein Mensch hat 20 bis 30 Watt Leistungsaufnahme im Gehirn. NVIDIA-Chips in einem Level-3-Auto haben 4000 bis 5000 Watt Leistungsaufnahme. Die KI verbraucht über das Hundertfache an Energie. Und dann kommen noch die Aufwände der Infrastruktur hinzu. Das ist Wahnsinn. Und damit fährt das Auto nur Level 3, bei Mercedes oder BMW bedeutet das bis 60 (bald 90) km/h auf der Autobahn und bei guten Witterungsbedingungen darf man mal den Blick auch von der Fahrbahn nehmen. Allein aus energetischer Sicht lässt sich vollautonomes Fahren nicht darstellen. Wir bräuchten 100 neue Atomkraftwerke allein in Europa, wenn wir eine gewisse Anzahl von Autos mit Level 5 auf die Straße bringen würden. Teilautonomes Fahren, Level 3, ist heute schon möglich. BMW fährt Level 3, Tesla, Mercedes und Honda auch. Und Level 4 bedeutet Höchstautomatisierung. Der Mensch kann dann in 80 bis 90 Prozent der Fälle die KI fahren lassen.
Der Punkt ist: Das ist in allen Bereichen so. Die KI können Sie in 80 bis 90, teilweise 99 Prozent aller Fälle arbeiten lassen – ob in der Fabrik, im Auto, im Kraftwerk oder im Flugzeug. Aber was ist mit dem Rest? Den Rest wird die KI nicht lösen. Insofern wird eine KI niemals vollautomatisch ein Flugzeug steuern, weil die ein bis zwanzig Prozent der Problemfälle natürlich wichtig sind. Niemand würde ein Flugzeug von einer KI fliegen lassen, ohne einen Piloten an Bord zu haben. Den Autopiloten kennen wir schon lange, aber für Starts und Landungen sowie für schwierige Flugbedingungen braucht es Menschen. Und das ist ein mathematisches Erfordernis, kein technisches. Alles andere können wir gerne automatisieren, aber wir sollten nicht Milliarden rauswerfen für Automatisierungsprojekte, von denen man eigentlich schon weiß, dass sie nicht möglich sind.

RO: Wir reden von den Grenzen der mathematischen KI. Aber die KI wird weiterentwickelt, beispielsweise in eine physikalische KI, die auf neuromorphen und Quantencomputern läuft. Daran arbeite ich selbst. Ich entwickle neuronale Netze auf Quantencomputern. Auch an einer chemischen KI wird gearbeitet. Man kann Proteine nutzen, indem man deren Faltungsprozesse trainiert und zur Lösung von Aufgaben einsetzt. Es gibt auch biologische KI. Man kann Pilze zum Rechnen nutzen und in der Schweiz arbeitet beispielsweise ein Start-up mit menschlichen Nervenzellen, die an Elektroden angeschlossen werden und die man dazu bringt, Pingpong zu spielen.
In diese Richtungen geht es. Aus der mathematischen KI wird eine physikalische, chemische und biologische KI. Und diese Formen von Künstlicher Intelligenz können viel, viel mehr – beängstigend viel mehr. Das müssen wir regulieren. Dieses Forschungsfeld nicht zu regulieren ist so, als würden Sie in der Genforschung alles erlauben, jede genetische Manipulation am Menschen. Da hat aber der Gesetzgeber eine rote Linie gezogen. Und das brauchen wir auch für die KI. Ich warne nicht vor der physikalischen oder der chemischen KI, aber ich warne vor der biologischen KI, also davor, dass Pilze, Ratten oder menschliche Nervenzellen in zahlreichen Anwendungen benutzt werden.

RO: In meinem Buch Maschinenbewusstsein geht es um die Frage, wie kann Bewusstsein auf Maschinen entstehen? Und mit Bewusstsein meine ich Wahrnehmung. Die heutige KI kann nicht wahrnehmen und ich forsche an einer physikalischen KI, die ein rudimentäres Bewusstsein auf ihren maschinellen Bauelementen entwickeln kann. Man kann mathematisch zeigen, dass gewisse Bausteine, z.B. Quantencomputer, eventuell in der Lage sind, rudimentäres technisches Bewusstsein auszuprägen. Aber das ist immer noch ganz weit weg von den Wahrnehmungsfähigkeiten von Ratten oder Fliegen.

RO: Ich gebe Ihnen ein Beispiel: Sie gehen auf eine Party und Sie nehmen wahr, was dort passiert. Sie qualifizieren die Wahrnehmung in dem Sinne, dass Sie sagen, es gefällt mir hier nicht. Diese qualifizierten Wahrnehmungen nennt man bei Menschen „Gefühle“. Es gefällt Ihnen nicht und Sie gehen. Das heißt, es gibt Systeme, Menschen, Ratten und Hunde zum Beispiel, die haben nicht nur Wahrnehmungen, sondern können sie qualifizieren, sie als angenehm oder unangenehm bewerten. Die Systeme, die das können, sind alle biologische Systeme. Denn diese lebenden Systeme müssen ihre Wahrnehmung qualifizieren. Ein Kind greift einmal an die heiße Herdplatte und hat diese Wahrnehmung als äußerst unangenehm qualifiziert. Es wird sich davor hüten, diese Wahrnehmung erneut zu machen. Das heißt, die Qualifikation der Wahrnehmung sorgt dafür, dass biologische Systeme in einer komplizierten und gefahrvollen Umwelt überleben können.
Technische Systeme hingegen müssen nicht überleben, denn sie leben schließlich gar nicht – der Quantencomputer nicht, der neuromorphe Computer und der Laptop auch nicht. Das sind mineralische Systeme. Diese Systeme können wahrscheinlich zwar Bewusstsein entwickeln, insofern sie wahrnehmen können, aber sie können die Wahrnehmung nicht qualifizieren. Sie können also keine Gefühle entwickeln und auch keine Willensprozesse. Deswegen darf ich damit forschen und experimentieren.

RO: Eine KI, die intelligenter als der Mensch ist und die Menschheit auslöschen will, ist reine Science-Fiction. Eine Maschine auf mineralischer Basis wird nie etwas fühlen und damit auch nie etwas wollen. Denn „Wollen“ bedeutet, ich will meine Umgebung so verändern, dass ich angenehme Gefühle habe.
Auch hier kommen wir allerdings wieder zu den Problemen der biologischen KI. Wenn Sie menschliche Zellen oder Zellen aus dem Rattengehirn nehmen, dann bauen Sie ein biologisches System, das hat mit Sicherheit Wahrnehmungen und kann diese qualifizieren. Es kann zum Beispiel Angst haben. Ich stelle mir vor, dass die menschlichen Nervenzellen in der Petrischale Angstzustände bekommen, wenn wir sie mit elektrischen Schlägen traktieren. Denn darin besteht unter anderem das Training: Wenn sie falsche Antworten geben, dann versetzt man ihnen elektrische Schläge, bis sie richtige Antworten geben. Wir wissen nicht, ob sie Angst empfinden, aber das liegt nahe, denn es ist lebende Materie. Ein biologisches System solchen Zuständen auszusetzen, ist eventuell Quälerei. Das ist ein No-Go. Das passiert zwar auch in der Schweinezucht, aber deswegen gibt es den Tierschutz.
Es darf keine biologische KI geben, die mit elektrischen Schlägen zum Lernen gezwungen wird. Ich kann mir aber vorstellen, dass das in zehn Jahren Standard sein wird – ob mit Pilzen oder mit menschlichen Nervenzellen. Eine solche KI wäre erheblich intelligenter als alle physikalischen Systeme, weil sie Bewusstseinsprozesse und sogar Gefühle hätte. Die Lernprozesse dieser KI würden tausendmal schneller und energieeffizienter ablaufen. Wir würden aber nicht wissen, was diese biologische KI fühlt.

RO: Das ist nahezu selbsterklärend: Letztlich geht es in der Wirtschaft um Geld. Ich berate viele Unternehmen und überall, wo ich hinkomme, werden Copilot, ChatGPT oder andere Systeme eingesetzt. Das heißt, Big Tech schafft es, mit KI in die Unternehmen zu diffundieren. Sie werden sich unersetzbar machen, so wie vor 50, 60 Jahren Computer eingeführt und unersetzbar wurden. Es entstand ein Riesenmarkt. Und die KI müssen Sie mit dem Computer gleichsetzen. Jedes Unternehmen, jedes Büro soll KI-Verfahren einsetzen – das ist das Ziel eines KI-Herstellers. Und das ist auch legitim.
Das Problem ist eben, dass den Entscheidern dieser Welt vorgegaukelt wird, mit KI könnten sie nahezu alle Probleme lösen. Ich habe mit Ministern auf Landesebene zu tun und da stellen sich Minister vor, dass man die ganze Verwaltung durch KI automatisieren kann. Warum? Weil vorher Big Tech-Leute da waren und wunderbare Use Cases gezeigt haben, was mit KI alles möglich sei. Vom E-Mail-Schreiben bis zur Wohngeldvergabe würde sich alles automatisieren lassen. Und das glauben die. Die Konsequenz ist, dass KI überall reingedrückt wird, auch in Bereiche, wo wir als Ingenieure sagen, das kann nicht gut gehen.

RO: Man versucht beispielsweise, die KI in die Rechtsprozesse, in den Gerichtssaal zu bringen. Dafür sind diese Prozesse aber zu komplex, das habe ich im erwähnten Buch KI – Illusion und Wirklichkeit ausführlich gezeigt. Es lässt sich mathematisch beweisen, dass die Rechtsprozesse eine solche Komplexitätsstufe erreichen, dass die KI dort nicht einsetzbar ist. Ich habe dieses Jahr vielen Juristen die KI und deren Risiken erklärt und ihnen das mitgeteilt. Aber auf Entscheider-Ebene ist das nicht vorgedrungen. Deswegen gibt es immer noch die Vorstellung, dass Gerichtsentscheide automatisierbar seien.
Die Grenzen der KI sind den Fachleuten bekannt. Aber Big Tech hat ein Interesse am KI-Hype, weil sie Produkte und Lizenzen verkaufen wollen. Der Schaden, der dadurch entstehen wird, ist enorm. Denn in zehn Jahren wird vieles wieder rückabgewickelt werden müssen. Die vollautomatisierten Büros und Verwaltungen beispielsweise: Ich prognostiziere, sie werden nicht richtig arbeiten.

RO: Das Europäische Parlament diskutiert seit 2017, ob den smartesten Systemen Persönlichkeitsrechte eingeräumt werden sollen. Wenn autonom fahrenden Fahrzeugen oder mobilen Robotern, das sind ja die smartesten Systeme, Persönlichkeitsrechte eingeräumt werden, würde das Big Tech freuen, denn dann können sie ihre Haftung reduzieren. Denn, wenn die KI einen Unfall verursacht, vielleicht mit Todesfolge, dann haftet nicht der Hersteller, sondern die KI-Persönlichkeit. Völliger Schwachsinn, aber die Politiker diskutieren das. Und wir Fachleute müssen warnen und sagen, nein, eine KI darf niemals Persönlichkeitsrechte bekommen, denn das sind mathematische Verfahren. Wieso sollte die Mathematik haften? Der Hersteller soll haften, der das Fahrzeug oder den Roboter in den Verkehr gebracht hat.
So etwas passiert bereits. Anfang letzten Jahres gab es den Fall, dass ein Chatbot von Air Canada einem Kunden falsche Auskunft über einen Flugtarif erteilt hat. Da Air Canada ihm diesen nicht gewähren wollte, hat er dagegen geklagt. Air Canada hat versucht zu argumentieren, der Chatbot sei mit einem menschlichen Mitarbeiter zu vergleichen und das Unternehmen sei an die Auskunft nicht gebunden. Das eingeschaltete Schiedsgericht hat das nicht überzeugt und dem Kunden recht gegeben. Der europäische AI Act sieht ebenfalls eine Herstellerhaftung vor.

RO: Der AI Act hat den Begriff der Betroffenenrechte eingeführt. Das schützt Betroffene wie Sie und mich vor den Auswüchsen der KI. Und das ist gut so. Ich möchte als Betroffener nicht, dass Gesichts- und Emotionserkennung um sich greifen. Davor schützt uns der AI Act. Das begrüße ich sehr.
Das ist aber nur die eine Seite. Und die andere ist: Der AI Act greift zu massiv in die technologische Entwicklung in den Unternehmen ein. Ich gebe nur ein Beispiel: Der AI Act unterscheidet zwischen Anbietern und Betreibern. Und wenn Sie durch einen blöden Zufall vom Betreiber zum Anbieter werden, ohne dass Sie es wissen, müssen Sie über 50 Dokumente ausfüllen, statt 20. Wenn Sie in einen „Risikobereich“ kommen, weil Sie KI vielleicht in der Personalabteilung einsetzen, dann müssen Sie diese 50 Dokumente ausfüllen – daran ersticken Unternehmen. Die Konsequenz wird sein, dass viele Unternehmen KI nicht dort einsetzen, wo sie eigentlich sinnvoll eingesetzt werden könnte, denn die möglichen ökonomischen Folgen sind zu groß. Wir reden nicht über Strafzahlungen von einem oder zwei Prozent des weltweiten Umsatzes, sondern von bis zu sieben Prozent. Dazu kommt die vorgesehene Beweislastumkehr im Risikobereich. Sie müssen dann beweisen, dass Sie mit der KI Menschen nicht diskriminiert haben. Da haben Sie viel zu tun. Das ist ein überbordender Eingriff in die Entwicklung und den Einsatz der KI in den Unternehmen.

RO: Ein großes Problem, ja. Ich meine, ich will auch geschützt werden vor der Datenkrake KI, die mich sonst auf Schritt und Tritt verfolgt. Social Scoring ist ja verboten. Das ist auch gut so. Für diesen Schutz kann man die EU loben. Aber die Probleme gehen weit darüber hinaus. Es ist alles geregelt bis zum letzten Bit und Byte. Sie möchten mal eine kleine KI-Auswertung im Sales-Bereich machen, dann müssen Sie für das damit betraute Personal KI-Kompetenzen nachweisen.

RO: Als ich das 2021 geschrieben habe, habe ich an eine Aufholjagd insbesondere von afrikanischen Nationen gedacht. Denn Sie brauchen heute nur einen Computer und nicht diese große Infrastruktur, die wir in Westeuropa und mittlerweile auch in China haben. Sie brauchen nur einen klugen Geist. Und den gibt es überall auf der Welt. Kluge Geister, billige Arbeitskräfte – die gibt es in Afrika. Die Zukunft sind Digitalisierung, KI und die Auswertung von Daten mit KI. Und in diesen Bereichen können Sie große Sprünge machen, ohne zuvor eine Stahlindustrie oder eine Autoindustrie aufgebaut zu haben.
Aber das, was Leute wie Altman versprechen, dass der Welthunger besiegt wird, das kann man vergessen. Der Welthunger könnte heute schon beseitigt werden. Das ist ein politisches Problem, kein technisches. Wir können das jetzt machen, wenn wir es wollten.
Was die KI aber in westlichen Gesellschaften bringen wird, das ist mehr Überwachung. Den Nobelpreis für Physik haben letztes Jahr John Hopfield und Geoffrey Hinton erhalten, zwei KI-Leute. Und Hinton hat vor der Entwicklung der KI gewarnt. Dazu habe ich in einem Beitrag für das Physik Journal Stellung bezogen. Diese Warnungen sind gerechtfertigt, aber nicht in dem Sinne, dass die KI klüger wird als wir. Das wird nicht passieren. Aber die KI wird zu massiver Überwachung führen. Bisher haben wir technische Prozesse mit KI überwacht. Ich habe 1994 mein erstes KI-Projekt durchgeführt. Wir haben die Fabrik eines Autozulieferers mit KI automatisiert. Das heißt, Industrieprozesse überwachen wir schon lange vollständig. Und die Gefahr ist nun, dass diese KI-Überwachung auf soziale Prozesse angewendet wird. Teilweise aus vermeintlich guten Gründen, um die Menschen zu schützen, um ihnen mehr Sicherheit zu geben. Aber so landen wir schnell bei chinesischen Verhältnissen. Wollen wir das? Will ich um der Sicherheit willen diese totale Überwachung? Oder will ich weniger Überwachung und nehme dafür mehr Unsicherheit in Kauf? Nun, ich glaube, ein Land wie Deutschland tendiert zu Sicherheit.
Aber lasst uns gerne die kaufmännischen Prozesse und die technischen Prozesse mit KI überwachen, aber doch nicht die gesellschaftlichen Prozesse! Aber genau das wird passieren. Beziehungsweise, es passiert schon: Wenn ich höre, dass KI Facebook oder andere soziale Netzwerke durchforstet – das ist Überwachung gesellschaftlicher Prozesse. Diese Überwachungsmittel gehören da aber nicht hin.

RO: In Deutschland und Europa findet sehr gute Forschung statt. Wir können neuronale Netze auf Quantencomputern bauen. In der Forschung dazu sind wir Weltspitze. Da muss man sich nur ansehen, was an den Fraunhofer-Instituten gemacht wird. Wir sind auch Weltspitze, wenn es darum geht, die KI in der Industrie einzusetzen. Wenn Delegationen aus China kommen, dann wollen sie sich nicht die neuronalen Netze ansehen, sondern sehen, wie wir KI in der Industrie anwenden. Da müssen wir uns nicht verstecken.
Sobald es in den kommerziellen Bereich geht, werden die Technologien allerdings garantiert wieder in den USA weiterentwickelt und dort zuerst auf den Markt gebracht. Viele Dinge werden in Europa entwickelt, aber sie werden hier nicht zur kommerziellen Reife geführt. Denn, wenn Sie in Europa 10 Millionen für Ihr Projekt bekommen wollen, dann müssen Sie sich sehr anstrengen. Mit derselben Anstrengung bekommen Sie in den USA Milliardenbeträge. Aleph Alpha in Heidelberg ist dafür ein Beispiel. Eine tolle Firma, die sich mit Sprachmaschinen beschäftigt. Dafür haben sie für europäische Verhältnisse große Mittel erhalten. Aber global betrachtet ist das lächerlich. OpenAI bekommt enorme Summen und macht Verluste ohne Ende. Die großen Gelder für die Entwicklung und Forschung werden in den USA aufgebracht, weil man die marktbeherrschende Stellung halten will. Und das gelingt. Noch. Aber China wird aufholen, was man bei den Sprachmaschinen bereits erahnen kann. Und das große Geschäft mit KI auf neuromorphen Computern wird wohl wieder in den USA gemacht. Vielleicht müssen wir damit leben.

Das Interview wurde am 09.01.2024 geführt.

Otte, Ralf (2025): „KI wird zu massiver Überwachung führen“. In: Verantwortungsblog. https://zevedi.de/ki-wird-zu-massiver-ueberwachung-fuehren/ [28.03.2025].
https://doi.org/10.60805/d4de-2y02.

Kategorien
Uncategorized

Luca Neuperti

Mercator-Journalist in Residence im April 2025

Luca Neuperti ist Science Slammer und Wissenschaftskommunikator.

Er beschäftigt sich mit Themen aus den Bereichen Soziologie, Politikwissenschaften und Informatik. Luca Neupertis Fokus liegt darauf, gesellschaftlich relevante Schnittmengen zwischen Technologie und Gesellschaft verständlich aufzubereiten, ohne dabei technische oder soziale Aspekte zu vernachlässigen. Mit über 70 Auftritten deutschlandweit und als Finalist der Science-Slam-Deutschlandmeisterschaft 2024 vermittelt er wissenschaftliche Inhalte einem breiten Publikum. Ende 2025 beginnt er ein Studium der Digitalen Soziologie in Großbritannien.

Vorhaben

Luca Neupertis Fokus bei ZEVEDI liegt auf dem Digitalen Euro. Sein Ziel ist es, nicht nur dessen technische Funktionsweise zu erklären, sondern insbesondere die verschiedenen sozialen Vorstellungen eines Digitalen Euro untersuchen. Woher kommen Verschwörungserzählungen? Wie lassen sich unterschiedliche Verständnisse des Digitalen Euro einordnen?
Um diese Fragen einer breiteren Öffentlichkeit zugänglich zu machen, plant Luca, Vorträge im Stil eines Science Slams durchzuführen. Dabei setzt er auf eine unterhaltsame, aber wissenschaftlich fundierte Vermittlung, um Menschen an das Thema heranzuführen und ein grundlegendes Verständnis für den Digitalen Euro zu schaffen.

Der Aufenthalt bei ZEVEDI – Impulse und Effekte

„Bar und mit Karte, bitte!“ Der Digitale Euro unter der soziologischen Lupe, Science Snack, Science Slam Dortmund, 27.04.2025.

Kategorien
Uncategorized

Dr. Martin Hock

Mercator-Journalist in Residence im März 2025

Portraitfoto Martin Hock

Dr. Martin Hock ist Finanzredakteur der Frankfurter Allgemeinen Zeitung.

Er schreibt über eine Vielzahl von Themen des Finanzmarkts und der persönlichen Finanzen, vor allem zu Fragen des Vermögensaufbaus und -verwaltung. Zu den Spezialthemen des promovierten Volkswirts gehört auch das disruptive Potenzial der Blockchain-Technik und der sogenannten Kryptowährungen für das Geld- und Finanzwesen.

Er ist Leiter des PRO-Finanzen-Briefings der F.A.Z. und Herausgeber des F.A.Z.-Börsenlexikons und Mitglied der Jury des European Small and Midcap Award der Europäischen Kommission

Vorhaben

Bei ZEVEDI beschäftigt sich Martin Hock mit der Frage von Macht im Web3 und DeFi. Im Web3 sollen Nutzer die Kontrolle über ihre Daten und Leistungen wiedererlangen. Das Leitbild ist ein Netzwerk Selbständiger, deren Leistungen unmittelbar (kryptomonetär) und durch Kontrollbefugnisse im Netzwerk vergütet werden. Die Frage ist, ob dieses kooperative Element nicht durch interne und externe Vermachtung bedroht ist. Die Handelbarkeit von Token ermöglicht Kontrollübernahmen, praktische Entwicklungen stützen die These. Da Web3 nicht im Fokus der Wettbewerbsbehörden steht, unterliegen auch Fusionen und Übernahmen keiner Kontrolle.

Der Aufenthalt bei ZEVEDI – Impulse und Effekte

■ Artikel Kann Krypto das Bankensystem ablösen, 2. September 2025, FAZ PRO Finanzen
(🔒 Der Newsletter ist zahlungspflichtig).

■ Podcast Wie Stablecoins die Welt verändern, 15. Juli 2025, FAZ Finanzen Podcast
(🔒 Der Podcast ist mit FAZplus-Abo verfügbar).

■ Wissenschaftlicher Workshop „Web 3“? Tokenökonomie & Demokratisierung, 20. März 2025, TU Darmstadt.


Kategorien
Akzentfarbe: Violett (Erdogan-Beitrag) Autorin: Julia Gül Erdogan Uncategorized Verantwortungsblog

Von Helden zu Schurken? Zur Entwicklung des Hackerbegriffs

Von Helden zu Schurken?
Zur Entwicklung des Hackerbegriffs

„Hacker-Großangriff auf E-Mail-Konten“, „Die Welt im Visier: So effektiv arbeiten Nordkoreas Hacker“, „Cybermafia von Putins Gnaden?“ – das sind drei von vielen Schlagzeilen, in denen Hacker als Truppen in Diensten autoritärer Staaten erscheinen. Fasst vergessen scheinen die Zeiten, als Hacker noch vornehmliche als renitente Nerds erschienen, die staatliche Geheimnisse aufdeckten und Übergriffe bekämpften. Ein Blick in die Geschichte des Begriffs zeigt: Der Hackerbegriff ist schon lange umkämpft.

Von Julia Gül Erdogan | 31.01.2025

Gemälde im Stil des Kubismus: Zu sehen ist eine Figur mit Hit und ein Desktop-PC.
Gemälde im Stil des Kubismus: Zu sehen ist eine Figur mit Hut und ein Desktop-PC. Erstellt mit Adobe Firefly.

Hacken sei der intellektuelle Anreiz, eine Lösung für ein Problem zu finden und „zwar unter vollkommener Ignoranz vorgegebener Wege“. So beschrieb der ehemalige Sprecher des Chaos Computer Clubs (CCC), Andy Müller-Maguhn, in einer Dokumentation von 3Sat aus dem Jahr 2010 das Hacken (Glasstetter/Meyer 2010). Diese Beschreibung trifft besonders auf die Anfänge des Hackens zu, sie verweist auf den unorthodoxen Umgang der Hacker mit Computern. Ursprünglich stand „Hacken“ für ein spielerisches Erkunden und Lösen technischer Probleme innerhalb kleiner Gemeinschaften. Der Begriff beschrieb eine Praxis, die stark von Neugier, Kreativität und Ingenieurskunst geprägt war. In Verbindung mit aktivistischen Aktionen gegen den Missbrauch personenbezogener Daten galten Hacker lange Zeit als eine Art Bürgerrechtsbewegung der digitalisierten Welt. Sie wurden bewundert. Doch diese Auffassung scheint zunehmend in den Hintergrund zu treten und wird nur noch in kleinen Kreisen geteilt. In der medialen Öffentlichkeit dominiert stattdessen das Bild des Hackens als eine kriminelle Handlung. Zudem werden Hackeraktivitäten heute häufig mit staatlicher Sabotage in Verbindung gebracht, was den ursprünglich antiautoritären und anarchistischen Werten des Hackens diametral entgegensteht.

Wie kam es zu diesem Wandel? Haben Hacker trotz zahlreicher Bemühungen die Deutungshoheit über den Begriff verloren? Haben die Medien das Hacken zu einem Symbol ständiger Bedrohung stilisiert, getrieben von Sensationslust? Oder zielte der Hackerbegriff im Grunde immer schon nur auf eine technische Ebene ab und klammerte moralische Fragen aus?

Um diese Fragen zu beantworten, werfen wir einen kursorischen Blick auf die Entwicklung des Hackens seit den 1950er Jahren, als die ersten Hacker in Erscheinung traten. Dabei werde ich Periodisierungen vornehmen, die gesellschaftliche, internationale politische und technische Bedingungen sowie ihre Wechselwirkungen mit der Entwicklung des Hackerbegriffs beleuchten. Allerdings sollten diese Periodisierungen nicht als starre Epochenabschnitte verstanden werden, sondern lediglich vorherrschende Tendenzen markieren.

Der Begriff „Hacker“ entstand in den 1950er Jahren am Massachusetts Institute of Technology (MIT). Dort bezeichnete ein „Hack“ einerseits Streiche, die sich Studenten gegenseitig spielten. Andererseits beschrieb der Begriff im Tech Model Railroad Club (TMRC), dem Modelleisenbahnclub des MIT, eine clevere Lösung für ein Problem. Ein „Hack“ war somit eine kreative oder besonders geschickte, oft spielerische technische Lösung (Levy 2010: 10). Die Bezeichnung hatte eine positive Konnotation und hob Neugier sowie Innovation durch Neuarrangements hervor.

Mit der Einführung der ersten Großrechner an Universitäten wandten sich technikbegeisterte Tüftler wie die Mitglieder des TMRC den neuen Maschinen zu. Diese frühen Hacker experimentierten mit Computern, um deren Möglichkeiten und Grenzen auszuloten. Sie teilten die wissenschaftlichen Werte ihres Umfelds, wie den offenen Informationsfluss und die Freude an der Erforschung von Systemen. Da deren Bedienung und Nutzung stark reglementiert war, verschafften sich diese ersten Hacker allerdings auch schon unautorisierten Zugang zu den Lochkartenrechnern. Dabei handelte es sich um raumfüllende, teure elektromechanische Computer, die Daten und Anweisungen in Form von perforierten Karten lesen und verarbeiten, um Berechnungen oder andere automatisierte Aufgaben durchzuführen.

Hacker galten zunächst noch als „exzessive“ Programmierer und Tüftler, die beinahe suchtartig mit Computern arbeiteten, um Programme zu entwickeln und neue Einsatzmöglichkeiten zu entdecken (Weizenbaum 1978, 164). In den 1970er Jahren ermöglichte die Verkleinerung von Computern durch die Chiptechnologie deren erste private Nutzung. In der San Francisco Bay Area entstanden dann in dieser Zeit Hobby- und Aktivistengruppen, die die gesellschaftliche und politische Entwicklung von Computern mitgestalten wollten und dadurch den Hackerbegriff um eine aktivistische Komponente erweiterten. Der Anti-Kriegs-Aktivismus und das Free Speech Movement verbanden sich mit den Interessen der „Nerds“. Ein Beispiel hierfür ist das Projekt Community Memory, das ab 1973 computergestützte Kommunikationsnetzwerke für soziale Bewegungen aufbaute. Aber auch die Free- und Open-Source-Software-Bewegung ist Ausdruck gegenkultureller Werte der Hackerkulturen (Imhorst 2004).

Mit der On-Line-Vernetzung während der Heimcomputer-Ära der 1980er Jahre begannen viele Jugendliche, unerlaubten Zugang zu geschlossenen Accounts und Servern zu suchen. 1981 hatten sich Hacker über das ARPANET1 in das Überwachungssystem sowjetischer Atombombenversuche gehackt und eine Gruppe Jugendlicher (The 414s) waren 1983 in Computer des Los Alamos National Laboratory eingedrungen, das Atom- und Wasserstoffbomben entwickelte. 1984 wurde der Film WarGames ein Kinohit, dessen Handlung sich an diese Aktionen anlehnte und in dem sich ein Jugendlicher aus Versehen in das Kontrollsystem für den Abschuss von Atombomben hackt.

Während diese Aktivitäten von aktivistischen Hackern selbst noch häufig als intellektuelle Herausforderungen gesehen wurden, distanzierten sie sich von jenen, die aus finanziellem Eigeninteresse in Systeme eindrangen oder explizit Schäden verursachten. Steven Levys Buch Hackers: Heroes of the Computer Revolution (1984) kann als Reaktion auf diese Entwicklungen gesehen werden. Es versuchte, die Deutungshoheit über den Hackerbegriff zu bewahren, auch indem er die sogenannte „Hacker-Ethik“ verfasste, die Dezentralisierung, flache Hierarchien, Kreativität und Informationsfreiheit propagierte. Der Medienwissenschaftler Claus Pias sieht darin den Versuch des Hackers eine Grenze zu ziehen, „die durch ihn selbst hindurchgeht“ und den „bösen“ Teil abtrennt: „Der gute Hacker war fortan Sozialutopist mit medientechnischem Apriori.“ (Pias 2002, 268)

In Deutschland etablierte der CCC durch humorvoll inszenierte Hacks ein weitgehend positives Bild von Hackern. 1984 hackte der CCC das Online-System Bildschirmtext (Btx), um auf Sicherheitslücken aufmerksam zu machen. Mit einer inszenierten Abbuchung von 135.000 DM demonstrierten sie die Schwächen des Systems und zugleich das Idealbild des guten Hackers, der nicht zur eigenen Bereicherung, sondern zu Aufklärungszwecken hackt.

Im Umbruch zu den 1990er Jahren entstand im deutschen Kontext auch ein weiterer Begriff der Hackerkultur: die „Haecksen“. Damit machte eine Handvoll Frauen auf die Unterrepräsentation weiblicher Akteure in der Hackerszene aufmerksam. Ziel war es, Frauen entsprechend den Hackerwerten aus einer stark gegenderten, passiven Nutzerrolle zu emanzipieren und den Spaß an Computern zu vermitteln (Erdogan 2020).

Aber auch das weitgehend positive Bild des Hackens, das der Club in der Bundesrepublik gezeichnet hatte, geriet am Ende der 1980er Jahre ins Wanken. Ursache dafür waren insbesondere zwei Hacks im Umfeld des CCC: Zum einen waren Hacker in Systeme der NASA eingedrungen und stießen dort unter anderem auf Baupläne von Atomkraftwerken. Zum anderen hatte der sogenannte KGB-Hack – bei dem unter anderem der Hacker Karl Koch Informationen an den sowjetischen Geheimdienst verkauft hatte – erhebliche mediale Aufmerksamkeit erregt. Obwohl beide Vorfälle weniger schwerwiegend waren als zunächst dargestellt, dominierte das Bild der Hacker als Bedrohung einer zunehmend auf Computertechnik gestützten Welt immer stärker die öffentliche Wahrnehmung.

Die zunehmende digitale Vernetzung durch das World Wide Web machte Hacking zu einem globalen Thema. Begriffe wie „White Hat“ (ethische Hacker), „Black Hat“ (kriminelle Hacker) und „Grey Hat“ (Hacking mit ambivalenten Motiven) entstanden, um unterschiedliche Aktivitäten zu kategorisieren.

Mitte der 1990er Jahre tauchte dann erstmals der Begriff „Hacktivism“ auf. Der Schriftsteller Jason Sack verwendete ihn 1995 in der Beschreibung des Films Fresh Kill von Shu Lea Cheang. Häufig wird die Begriffsprägung jedoch Omega, einem Mitglied der Hackergruppe Cult of the Dead Cow (cDc), zugeschrieben. Was genau unter Hacktivismus verstanden wird, ist bis heute nicht einheitlich und variiert ebenso stark wie der Begriff des Hackens selbst. Hacktivismus kann sowohl negativ im Kontext von Cyberterrorismus angesiedelt werden als auch positiv betrachtet werden, als eine Form des Hackens, die mit einer konstruktiven Stoßrichtung technische, soziale oder gesellschaftliche Veränderungen bewirken will. Im Gegensatz zum Hacken ist Hacktivismus jedenfalls durch eine explizite politische Dimension gekennzeichnet. Während Hacken weiterhin auf rein technischer Ebene stattfinden kann, ohne gesellschaftliche oder politische Zielsetzungen, zielt Hacktivismus darauf ab, gesellschaftliche Veränderungen herbeizuführen.

Einige Aktionen von Hacktivisten, wie Denial-of-Service-Angriffe (DDoS), können darauf abzielen, den Zugang zu Informationen gezielt zu verhindern. Dieses Vorgehen steht jedoch im Widerspruch zum ursprünglichen radikalen Freiheitsanspruch der Hacker und ihrer Forderung des uneingeschränkten Zugangs zu Informationen. Außerdem benötigen solche Angriffe oft kein tiefes technisches Verständnis, da hierfür fertige Tools genutzt werden können.

Mit der zunehmenden Vernetzung von Computern und der Diffusion digitaler Technik in den Alltag vieler Menschen und Staaten, differenzierte sich nicht nur die Nutzung von Computern weiter aus, sondern auch die Möglichkeiten, diese Systeme zu stören oder zur eigenen Bereicherung zu nutzen. Dies gilt auch für Staaten. Da sowohl Infrastruktur als auch Kommunikation seit der Jahrtausendwende weitgehend durch Digitaltechnologie verwaltet und organisiert wird, kann das Hacken hier nicht nur zu Spionagezwecken genutzt werden, sondern auch explizit als Kriegshandlung. Besonders in Verbindung mit Cyberangriffen auf kritische Infrastrukturen verfestigte sich somit das Bild des Hackens als Bedrohung. Aber diese Ebene der Bedrohung betrifft nicht nur zwischenstaatliche Aktionen, sondern wiederum Aktivist:innen, zu deren Daten sich Regierungen etwa durch Trojaner unautorisiert Zugang verschaffen (White 2020, 24).

Während „Hacken“ im Bereich der IT-Sicherheit und in sozialen Bewegungen noch immer positiv als Ausdruck von Neugier, Erfindungsreichtum und Datenschutzaktivismus gewertet wird, löst der Begriff heute zugleich auch negative Assoziationen aus. Diese Gegensätzlichkeit verdeutlicht die Vielfalt der Hackerkulturen, die Spannungen zwischen unterschiedlichen Motiven und Praktiken, aber auch die Zunahme von Hacks in einer vernetzten Welt. Die Entwicklung des Begriffs „Hacker“ spiegelt den Wandel der technischen Möglichkeiten, die Integration der Computertechnik in den Alltag und die damit verbundenen kulturellen Praktiken wider.

Ursprünglich jedoch bezeichnete der Begriff eine Problemlösung, die oft mit der Zweckentfremdung von technischen Geräten einherging. Da sich der Begriff anfangs auf die Verschiebung technischer Grenzen konzentrierte, war er weder moralisch noch politisch definiert. Aufgrund dieser Neutralität konnten ihn Gruppen an ihre Zwecke anpassen, aber die Öffentlichkeit und die Medien konnten ihn auch nutzen, um das Eindringen in Computersysteme allgemein als „Hacken“ zu klassifizieren. Der „Hacktivismus“ verwandelt die Bezeichnung einer Praktik dann in ein (wiederum vieldeutiges) Programmwort. Insbesondere Presse und Film nutzten die Offenheit des Begriffs und das Geheimnisvolle der Hacker-Figur, um Hacken als Bedrohung oder Sensation darzustellen, was den Wandel in der öffentlichen Wahrnehmung des Begriffs beschleunigte. Mit der Lust am Basteln und vor allem mit dem Anspruch, Computer zum Erschaffen, statt zum Zerstören zu nutzen, die weiterhin Konstanten der Hackerkulturen darstellen, hat dieses Bild jedoch immer weniger gemein.

  1. Das Advanced Research Projects Agency Network oder ARPANET war ein dezentrales Computernetzwerk, das durch die Advanced Research Projects Agency des US-Verteidigungsministeriums eingerichtet wurde, um ab 1969 verschiedene US-Universitäten miteinander zu verbinden, die für das Verteidigungsministerium forschten. ↩︎

Erdogan, Julia Gül (2020): „Computer Wizards“ und Haecksen. Geschlechtsspezifische Rollenzuschreibungen in der privaten und subkulturellen Computernutzung in den USA und der Bundesrepublik. In: Technikgeschichte Bd. 87 H. 2, S. 101-132.

White, Geoff (2020): Crime Dot Com: From Viruses to Vote Rigging, How Hacking Went Global, London: Reaktion Books.

Gabi Glasstetter & Uta Meyer (2010): Die Akte CCC – Die Geschichte des Chaos Computer Clubs. ZDF.

Levy, Steven: Hackers. Heroes of the Computer Revolution, 25th Anniversary Edition, Sebastopol u.a.: O’Reilly Media 2010.

Imhorst, Christian (2004): Die Anarchie der Hacker. Richard Stallman und die Freie-Software-Bewegung, Marburg: Tectum.

Pias, Claus (2002): Der Hacker in: Eva Horn, Stefan Kaufmann & Ulrich Bröckling (Hg.): Grenzverletzer. Von Schmugglern, Spionen und anderen subversiven Gestalten, Berlin: Kadmos, S. 248-270.

Weizenbaum, Joseph (1978): Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt a. M.: Suhrkamp.

Erdogan, Julia Gül (2025): Von Helden zu Schurken? Zur Entwicklung des Hackerbegriffs. In: Verantwortungsblog. https://zevedi.de/von-helden-zu-schurken-zur-entwicklung-des-hackerbegriffs/ [31.01.2025]. https://doi.org/10.60805/z8tj-k684.

Kategorien
Akzentfarbe: blau Autor: Friederike Rohde Uncategorized Verantwortungsblog

Daten- und ressourcenhungrig: Gibt es eine nachhaltige KI?

Daten- und ressourcenhungrig:
Gibt es eine nachhaltige KI?

Mittlerweile gibt es kaum einen Bereich, in dem nicht davon gesprochen wird, dass durch die Nutzung von KI Effizienzsteigerung oder Optimierung möglich sei: im Finanzsektor, im Onlinehandel, in der Industrie, in der Medizin oder im Bildungsbereich. Die Nutzung von Diensten, die auf großen Sprachmodellen (Large Language Models oder kurz LLMs) beruhen, ist rasant angestiegen und viele Millionen Menschen nutzen täglich ChatGPT oder andere KI-Technologien. Gleichzeitig wird immer deutlicher, dass diese Systeme wahrscheinlich nicht nur zur Bewältigung einiger komplexer Probleme beitragen werden, sondern auch eine ganze Reihe neuer Probleme schaffen, die es zu bewältigen gilt.

Von Friederike Rohde | 17.01.2025

Bild eines digitalen Fußabdrucks aus digitalen Symbolen
Erstellt mit Adobe Firefly: Prompt: „create a cubistic image from a vague digital footprint out of digital symbols“

Zu diesen Problemen gehört die Diskriminierung durch Voreingenommenheit und Stereotypen, die Konzentration von Marktmacht und die Herausbildung von Infrastrukturmonopolen, vor allem aber auch die Auswirkungen der Systeme auf die Umwelt, wie erhebliche CO2-Emissionen und der hohe Wasserverbrauch der digitalen Infrastruktur, die für den Betrieb der Systeme erforderlich ist. Die Nachhaltigkeitsfolgen von KI rücken immer mehr in den Blick und nimmt man die Forderungen nach einer umfassenden Nachhaltigkeitsperspektive (Rohde et al. 2024) ernst, dann zeigt sich, dass wir von einer „nachhaltigen KI“ noch weit entfernt sind.

Fortschritt wird derzeit an der Entwicklung von immer größeren Modellen festgemacht. Die ersten „Durchbrüche“ für die umfassende Nutzung von künstlichen neuronalen Netzen wurden durch die sogenannten Transformer-Modelle erzielt. Das sind Modelle, die einen Aufmerksamkeitsmechanismus beinhalten, der die menschliche Aufmerksamkeit nachahmen soll, und Text in numerische Darstellungen, sogenannte Token, und anschließend in Vektoren umwandeln. Wird dieses Transformer-Modell mit einer großen Menge von Daten trainiert, kann es beispielsweise für Übersetzungen eingesetzt werden. Mittlerweile werden immer mehr sogenannte Diffusions-Modelle entwickelt, die Daten generieren können, die denen ähneln, mit denen sie trainiert wurden. Diese Systeme werden umgangssprachlich auch als „generative KI“ bezeichnet. 

Die Größe dieser Modelle ist rasant angestiegen. Während erste Transformer-Modelle um die 340 Millionen Parameter (dies sind die Werte oder Variablen des Modells) beinhalten, kommen aktuelle LLMs wie PaLM (Google) auf 540 Milliarden Parameter. Mit der Größe der Modelle steigt auch die erforderliche Rechenkapazität, die wiederum jedoch mit vielfältigen Auswirkungen für Menschen und Umwelt verbunden ist. Aktuelle Studien zeigen, dass der Carbon Footprint des Trainings großer Modelle wie GPT3, bei 552 Tonnen CO2-Äquivalenten liegt (Luccioni et al. 2023). 

Die Nachhaltigkeitsbilanz von KI wird auch getrübt durch den Abbau von Rohstoffen für die Hardware, also die GPUs (Graphic Processing Units), die mit diesem Abbau oft einhergehenden Menschenrechtsverletzungen oder die Konflikte um die Wassernutzung durch die Rechenzentren, die in Regionen mit Wasserknappheit wie Chile oder Uruguay zunehmend auftreten. Ein Forschungsteam hat den Wasserfußabdruck beim Betrieb von Rechenzentren, die für das Training großer Sprachmodelle genutzt werden, auf 700.000 Liter Trinkwasser beziffert (Li et al. 2023). Jüngst haben diese Forscher darauf hingewiesen, dass der Verbrauch sogar noch viermal höher ist als in der Studie errechnet (Sellman 2024). 

Die Frage, ob die enorme Größe der Sprachmodelle im Verhältnis zum daraus hervorgehenden Nutzen überhaupt notwendig ist, spielt meist nicht wirklich eine Rolle. Die vorherrschende Erzählung, KI sei neutral, autonom oder Werkzeug zur Demokratisierung, muss hinterfragt werden (Rehak 2023). Auch die Vision, über die Möglichkeiten des Technologieeinsatzes einen Beitrag zur Reduktion des Umweltverbrauches oder der Klimakrise zu leisten, gehört auf den Prüfstand. Erstens handelt es sich oftmals um Effizienzsteigerungen, die schnell durch höhere Produktivität aufgefressen werden. Denn die Rechnung wird meist ohne das Wirtschaftswachstum gemacht. So kommt beispielsweise eine aktuelle Studie von PwC und Microsoft zu dem Schluss, dass mittels KI-Technologien zwischen 1,5 und 4 % CO2 eingespart werden können, gleichzeitig wird aber ein Wirtschaftswachstum von 4 % durch den Einsatz von KI prognostiziert (Joppa/Herwejer 2024). Die relative Einsparung wird also durch das größere Wirtschaftsvolumen eingeholt, so dass eine absolute Reduktion der Emissionen fraglich ist. Zweitens zielt die KI häufig darauf ab, eine bestehende Vorgehensweise zu optimieren. Beispielsweise wird in der Landwirtschaft KI eingesetzt, um den Pestizideinsatz zu reduzieren. Aber die grundsätzliche Frage, wie wir zu einer alternativen und ökologisch verträglichen Form der Landwirtschaft kommen, die gar keinen Pestizideinsatz mehr notwendig macht, kann uns diese Technologie nicht beantworten. 

Fortschritt im Bereich der KI könnte prinzipiell auch etwas anderes bedeuten – zum Beispiel, dass spezialisierte Modelle für Einsatzzwecke entwickelt werden, für die sie einen wichtigen Mehrwert bieten. Ihre Komplexität wäre dann tendenziell begrenzter, beziehungsweise würde ihre Größe ins Verhältnis zu anderen Zielen gesetzt werden.

Neben der Nachhaltigkeitsfrage stellt sich auch immer vernehmbarer die Gerechtigkeitsfrage: Vom Abbau der Rohstoffe, über den Energie- und Wasserhunger der Datenzentren bis zur Deponierung des Elektroschrottes – die materiellen Voraussetzungen und Auswirkungen, für die mit vielen Versprechungen verbundene KI-Technologie, sind global ungleich verteilt. Während die Profiteure der Technologie vor allem Unternehmen oder Gemeinschaften im globalen Norden sind, treffen viele der ökologischen und sozialen Folgen vor allem den globalen Süden. In Indien ringen beispielsweise lokale NGOs mit Datencenterbetreibern um die Nutzung von Trinkwasser und gleichzeitig werden die Daten für das Training der LLMs in Kenia und Nigeria gelabelt, weshalb beispielsweise das Wort „delve“ viel häufiger in KI-generierten Texten vorkommt als im angloamerikanischen Sprachgebrauch üblich. Globale Gerechtigkeitsfragen spielen also zunehmend eine Rolle und werden noch sehr viel gravierender werden, je stärker der Einsatz dieser Technologie zunimmt. 

Darüber hinaus gibt es eine ganze Reihe von Zielkonflikten, die aus einer umfassenden Perspektive zutage treten. Beispielsweise ist eine Verlagerung von lokalen Rechenzentren hin zu Cloud-Anbietern aus einer ökologischen Perspektive sinnvoll, um Ressourcen zu bündeln. Sie fördert aber gleichzeitig eine Konzentration im Cloud-Markt und ist daher ökonomisch weniger nachhaltig. Auch ist zu beobachten, dass Rechenzentrumsbetreiber aus Energieeffizienzgründen auf die weniger energieintensive Wasserkühlung, statt auf Luftkühlung setzen, was aber wiederum den Wasserverbrauch erhöht. Wenn wir auf ökonomischer Ebene eine größere Marktvielfalt möchten und den Zugang zu Modellen, beispielsweise durch Open Source, für kleinere Unternehmen und Akteure ermöglichen wollen, fördert diese größere Zugänglichkeit wiederum die Nutzungsintensität, was die negativen ökologischen Folgen verstärkt. Und schließlich ist ein sehr realistisches Szenario auch, dass wir KI-Modelle mit einem geringen ökologischen Fußabdruck entwickeln, die aber für Zwecke eingesetzt werden, die Nachhaltigkeitszielen entgegenstehen, beispielsweise die Erschließung neuer Ölfelder oder personalisierte Werbung, die den Konsum ankurbelt. 

Wenn komplexe und immer größere KI-Systeme in immer mehr Bereichen eingesetzt werden, ist es wichtig, die Nachhaltigkeitswirkungen entlang des gesamten Lebenszyklus zu betrachten. Das bedeutet sowohl die Bereitstellung und Aufbereitung der Daten, die Modellentwicklung, das Training, die Modellimplementierung, die Modellnutzung und Entscheidungsfindung zu berücksichtigen. Darüber hinaus ist die organisatorische Einbettung von großer Bedeutung, wenn es darum geht, KI-Systeme mit Verantwortung für die Menschen und den Planeten zu gestalten. Wenn wir wirklich eine umfassende Nachhaltigkeitsbetrachtung vornehmen wollen (Rohde et al. 2024), geht es darum, Auswirkungen auf sozialer Ebene, wie Diskriminierung, Verletzung von Persönlichkeitsrechten oder kulturelle Dominanz zu reduzieren, also auch darum, Marktmacht und Monopole zu hinterfragen und die ökologischen Auswirkungen zu betrachten. Wir müssen uns damit befassen, wo die Ressourcen herkommen und in welchen Regionen die Rechenzentren stehen sollen, ohne die die Modelle und Anwendungen nicht funktionieren. Es geht also auch darum, wie wir digitale Infrastrukturen gestalten und wie wir sie in Anspruch nehmen (Robbins & van Wynsberghe 2022).

Denn zur Beantwortung der Frage, ob KI-Systeme positive oder negative Wirkungen im Hinblick auf die Ziele für nachhaltige Entwicklung entfalten, kann nicht allein darauf geschaut werden, in welchem Sektor KI-Systeme eingesetzt werden und ob sich daraus möglicherweise positive Beiträge für einzelne Aspekte nachhaltiger Entwicklung (z.B. Klimaschutz oder Armutsbekämpfung) ableiten lassen. Diese verengte Perspektive greift zu kurz. Dies kann nur durch eine umfassende Perspektive auf KI erreicht werden, welche die sozialen, ökologischen und ökonomischen Auswirkungen entlang des Lebenszyklus‘ aller KI-Systeme adressiert. Hinter dem Anspruch eine nachhaltige Technologie zu entwickeln, welche die vielfältigen Wechselwirkungen zwischen sozialen, ökologischen und ökonomischen Auswirkungen berücksichtigt, steht in Anbetracht der derzeitigen Entwicklungen daher ein großes Fragezeichen.

Joppa, Lucas & Herwejer, Celine: (2024): How AI can enable a Sustainable Future, https://www.pwc.de/de/nachhaltigkeit/how-ai-can-enable-a-sustainable-future.pdf [14.11.2024].

Li, Pengfei, Yang, Jianyi, Islam, Mohammad A. & Ren, Shaolei: (2023): Li, P., Yang, J., Islam, M. A., & Ren, S. (2023): Making AI Less „Thirsty“: Uncovering and Addressing the Secret Water Footprint of AI Models. In:https://doi.org/10.48550/arXiv.2304.03271 [21.11.2024].

Luccioni, Alexandra Sascha, Viguier, Silvain & Ligozat, Anne-Laure  (2023). Estimating the carbon footprint of bloom, a 176b parameter language model. Journal of Machine Learning Research24(253), 1-15.

Rehak, Rainer (2023): Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative. In: Soziopolis: Gesellschaft beobachtenhttps://www.soziopolis.de/zwischen-macht-und-mythos.html[14.11.2024].

Luccioni, Alexandra Sascha , Jernite, Yacine & Strubell, Emma (2024): Power Hungry Processing: Watts Driving the Cost of AI Deployment? In: Association for Computing Machinery (Hg.): FAccT ‘24: Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery: New York, S. 85-99.

Mark Sellman (2024): ‚Thirsty‘ ChatGPT uses four times more water than previously thought. In: https://www.thetimes.com/uk/technology-uk/article/thirsty-chatgpt-uses-four-times-more-water-than-previously-thought-bc0pqswdr [21.11.2024].

Robbins, Scott & van Wynsberghe, Aimee (2022): Our new artificial intelligence infrastructure: becoming locked into an unsustainable future. In: Sustainability 14,/Nr. 8 (2022), 4829.

Rohde, Friederike et al. (2024): Broadening the perspective for sustainable artificial intelligence: sustainability criteria and indicators for Artificial Intelligence systems. In: Current Opinion in Environmental Sustainability 66, 101411.

Rohde, Friederike (2025): Daten- und ressourcenhungrig: Gibt es eine nachhaltige KI? In: Verantwortungsblog. https://zevedi.de/daten-und-ressourcenhungrig-gibt-es-eine-nachhaltige-ki/ [16.01.2025].
https://doi.org/10.60805/143q-ga43