Verantwortungsbewusst forschen in geopolitisch und digitalpolitisch unübersichtlicher Lage? Das Beispiel der Zivilklausel der TU Darmstadt
Muss sich das Wissenschaftssystem in der aktuellen geopolitischen Lage anders aufstellen als bisher? Verbesserter Schutz wissenschaftlicher Infrastrukturen, Abwehr von Cyberangriffen, Desinformation und Spionage sowie das Retten von Daten vor staatlichem Zugriff sind dringliche Themen. Aber auch die sogenannten Zivilklauseln sind in die Diskussion geraten. Soll man sie kritisch hinterfragen? Denn eine technisch und strategisch wirksame Verteidigung braucht ja womöglich Know How aus der Forschung. Wie der nachfolgende Beitrag zeigt, steigt der außenpolitisch bedingte Verantwortungsdruck jedoch sogar, der auf der Forschung liegt. Gute Zivilklauseln passen somit sehr gut in die heutige Zeit.
Von Petra Gehring | 21.10.2025
Drohne und Friedenstaube. Erstellt mit Adobe Firefly.
Seit der durch den Überfall Russlands auf die Ukraine besiegelten Zeitenwende ist die Wissenschaft widerstreitenden Botschaften ausgesetzt. Einerseits wird beklagt, an deutschen Wissenschaftseinrichtungen und namentlich Universitäten finde keine auf militärische Nutzung ausgerichtete Forschung statt. Zivilklauseln seien daher abzuschaffen, „militärisch“ und „zivil“ solle man besser nicht trennen. Andererseits fordert die Wissenschaftspolitik von den Forschenden, sich dringend mehr als bisher um die „Sicherheitsrelevanz“ ihrer Arbeitsergebnisse zu kümmern. Es gelte Kooperationsbeziehungen zu überprüfen, Projekte mit internationalen (und hier dann vor allem militärischen) Bezügen neu zu beleuchten und Wissen nicht naiv weiterzugeben. Die Verantwortung der Wissenschaftlerinnen und Wissenschaftler – wie auch ihrer Einrichtungen – steige in diesem Punkt. Bedenken absenken wie zugleich intensivieren, Forschungsprojekte nicht länger hinsichtlich militärischer Relevanz und Dual Use prüfen, sie aber doch mit Blick auf geopolitische Konflikte verstärkt hinterfragen, so das paradoxe Doppelsignal.
Hinzu kommt ein Weiteres: die Einsicht, dass fortgeschrittene Digitalisierung die Aufgabe verschärft. Durch digitale Vernetzung und intensiven Datenaustausch wird die Kontrolle über die weltweite Verwendung eigener Forschungsergebnisse stark erschwert. Zudem hat man die Wissenschaft seit Jahren auf eine „Offenheit“ der Datenweitergabe verpflichtet: Open Access, Open Data, Open Science. Diese Verpflichtungen bestehen fort. Dennoch liegt auf der Hand, dass geopolitisch verantwortungsbewusste Forschung gerade im Bereich digitaler Prozesse noch kaum Orientierungskriterien besitzt. Wie abgestuft „offen“ sollen also die Daten, sollen die Forschungsprozesse heute sein? Wie bewertet man überhaupt die Sicherheitsrelevanz digitaler Forschung?
Aber auch generell hat die Forschung, will sie die Botschaften aus der Politik ernst nehmen, ein Konkretisierungsproblem. Wie prüfe ich als verantwortungsbewusste Wissenschaftlerin mein geplantes Projekt, wenn inzwischen neben der Russischen Föderation auch China und die USA als potentiell schwierige Partner gelten müssen? Diese Frage führt zum Thema Zivilklausel zurück.
1.
Die Zivilklauseln deutscher Hochschulen sind ganz unterschiedlich formuliert und entstammen verschiedenen Phasen der friedens- und konfliktpolitischen Diskussion. So legt die früheste, die aus den 1980er Jahren stammende Zivilklausel der Universität Bremen die Forschung ihrer Angehörigen in umfassender Weise auf „zivile Forschung“ und das Verfolgen „nur zivile(r)“ Zwecke fest (vgl. Initiative Hochschulen für den Frieden o.J.). Dies entspricht einer der Zeit des Kalten Krieges entstammenden Sichtweise: Abrüstung bringt Frieden. Militärisch nutzbare Forschung („Rüstungsforschung“) sollte demzufolge ausschließlich in der Industrie erfolgen oder aber gar nicht.
Für die Zivilklauseln der 2010er Jahre treten die Illegitimität von Angriffskriegen, das Problem der Kriegführung durch nichtstaatliche Akteure sowie die Verteidigung und Friedenssicherung als Zielstellung demokratisch legitimierter militärischer Aktivitäten nach vorn. Ein Beispiel für eine Antwort auf die in Sachen Frieden komplexer gewordene Situation ist die Zivilklausel der TU Darmstadt. Diese wurde 2012 einstimmig in der Grundordnung der Universität verankert und 2014 ebenfalls einstimmig durch ein Umsetzungsverfahren ergänzt. Namentlich das – bundesweit nach wie vor einzigartige – Umsetzungsverfahren ist von hoher Bedeutung. Man wollte kein Symbol, sondern etwas, das pragmatisch handhabbar ist, und gerade dadurch realitätsnah wirksam. Die Darmstädter Zivilklausel fordert von daher im Kern: eine praxisnahe, an den Parametern des Grundgesetzes orientierte und vor allem konkrete Reflexion auf den Kontext des eigenen Forschungsvorhabens und dessen Vereinbarkeit mit dem Ziel einer „friedlichen“ (nicht zwingend aber „zivilen“) Nutzbarkeit von Forschung. Dual Use wurde im Zuge der Diskussionen über die Zivilklausel als echtes und schwieriges Problem erkannt, das alle Disziplinen betrifft und in der Universität eine kontinuierliche, von Vertrauen geprägte Diskussion verdient. Wissenschaftlerinnen und Wissenschaftler können seit 2014 das Zivilklauselverfahren aus freien Stücken nutzen und gewinnen so eine Entscheidungssicherheit, welche forschungspolitische Appelle an eine letztlich unbestimmte Individualverantwortung der Forschenden nicht bieten.
2.
Wie sieht nun die Zivilklausel der TU Darmstadt aus? Entscheidend ist die Trennung dreier Ebenen: „Ziele“, „Zwecke“ und typische „Verwendungsweisen“. Diese sind in gesonderten Schritten prüfbar. Den Ebenen entsprechen drei Verpflichtungsgrade („verpflichtet“, „sollen“, sich „ausrichten … auf“). Ergebnisse der Betrachtung eines Vorhabens im Abgleich der drei Ebenen werden letztlich summarisch betrachtet. Der Wortlaut der Zivilklausel ist der folgende:
„Forschung, Lehre und Studium an der TU Darmstadt sind ausschließlich friedlichen Zielen verpflichtet und sollen zivile Zwecke erfüllen; die Forschung, insbesondere die Entwicklung und Optimierung technischer Systeme, sowie Studium und Lehre sind auf eine zivile Verwendung ausgerichtet.“ (TU Darmstadt 2025)
Mit dieser Staffelung sind zunächst die friedlichen (nämlich: nicht im zwischenstaatlichen, terroristischen o.ä. Sinne aggressiven) „Ziele“ im Sinne eines K.-o.-Kriteriums entscheidend. Die Universität untersagt Forschungen für Aggressoren, Forschungsergebnisse dürfen, soweit das irgend absehbar ist, nicht in die Hände unfriedlicher Nutzer kommen. Reine Verteidigung wäre demgemäß aber ein friedliches Ziel.
Die zweite Frage der militärischen oder aber zivilen „Zwecke“ der Nutzung stellt ein Soll-Kriterium dar, das Forschung zu militärischen Zwecken – bei erwiesen friedlichen Zielen – zulässt. Zugleich lässt es aber auch Forschung für „Ziviles“ nur dann zu, wenn dies nicht im Rahmen aggressiver, kriegerischer Ziele zum Tragen kommt. Anders gesagt: Es kann „unfriedliche“ zivile wie auch „friedliche“ militärische Zwecke der Forschung geben.
Auf der dritten Ebene der Ausrichtung einer späteren Verwendung des Forschungsergebnisses geht es um das Problem des Missbrauchs. Hinsichtlich einer nicht zielgemäßen (nämlich von friedlichen Zielen abweichenden), späteren außerwissenschaftlichen Verwendung von Forschungsergebnissen ist noch einmal die Leitdifferenz militärisch/zivil von Interesse. Hier besagt die Zivilklausel, dass man nach Möglichkeit Forschungsergebnisse auf eine zivile Verwendung hin optimieren sollte. Hinter dieser Maxime steht die Annahme, dass eine Optimierung von Dual Use-Forschungsergebnissen hin auf eine spätere zivile Verwendung deren ungewollte unfriedliche Nutzung unwahrscheinlicher macht. Also mindestens vorbeugen helfen kann. Soll ein Forschungsergebnis militärische Zwecke erfüllen können und nicht in dieser Weise optimierbar sein, ist es umso wichtiger, dass die spätere Verwendung absehbar nur friedlichen Zielen dient.
Die Kriterienpaare lassen sich – um den Preis von ein wenig Vereinfachung – kreuztabellarisch aufeinander beziehen (s. Bild). Sie bilden ein Gitter, das unfriedliche Zielstellungen ächtet, Zwecke auf die Ziele beziehbar macht sowie darüber hinaus anregt, über Optimierungsmöglichkeiten nachzudenken.
Eine Zivilklausel des beschriebenen Typs hat einerseits einen normierenden, andererseits einen prozeduralen Sinn. Sie ist nicht nur in einer realistischen Weise auf Frieden ausgerichtet, sondern tatsächlich umsetzungsgeeignet. Die Klausel mag komplex scheinen. Sie befähigt die Universitätsmitglieder aber dazu, die Frage einer möglichen Kritikalität von Forschungsvorhaben herunterzubrechen und zu bewerten.
An der TU Darmstadt wird eine solche Bewertung seit nunmehr 15 Jahren einvernehmlich praktiziert. Jedes Jahr beantwortet die Ethikkommission Anfragen durch ausführliche Rückmeldungen. Im Ergebnis zeigt sich, dass einerseits nicht wenige Forschungsvorhaben trotz militärischer Zwecke als mit der Zivilklausel vereinbar betrachtet werden konnten. Andererseits waren Forschungspläne – etwa mit Forschungsgruppen, an denen Wissenschaftler autokratischer, die Wissenschaftsfreiheit also nicht achtender, aggressiv kriegführender Staaten beteiligt waren, oder mit Industriepartnern, die unfriedliche Regime mit Waffen beliefern – nicht mit der Zivilklausel vereinbar. Gemäß der Darmstädter Zivilklausel ist auch ein einem Verteidigungsressort zugeordneter, aber vielfach Grundlagenforschung unterstützender Förderer (wie die deutsche Bundesregierung, aber auch die US-amerikanische DARPA) nicht per se ein Problem. Sondern es kommt eben auf den konkreten Forschungsgegenstand an und die konkreten Partner.
Die Darmstädter Zivilklausel eignet sich außerdem dafür, über digitale Lösungen zu diskutieren, einschließlich „Big Data“, Infrastrukturfragen und „KI“. Digitale Artefakte dienen oft sehr variablen Zwecken und sind in ihren Anwendungen kaum begrenzt. Forschung folgt hier typischerweise „zivilen“ Zwecken. Entstehende Produkte sind aber eben doch oft fast standardmäßig auch in Szenarien aggressiven Staatshandelns verwickelt. Die Bewertung eines „Digital Dual Use“ ist schwierig. Wo beginnt der zivile, aber unfriedliche Bereich? Immerhin wird durch die Zivilklausel ein Augenmerk auf die hier existierende Problemstellung möglich.
3.
Wie schon angedeutet, würde eine Abschaffung von Zivilklauseln (wie auch eine Beseitigung der Trennung der Differenz von „militärisch“ und „zivil“ im Blick auf Forschung) nicht nur eine Kultur der differenzierten Betrachtung des möglicherweise ungewollten Impacts von Forschung konterkarieren, sondern auch das durch die Politik heute neu geforderte Mehr an geopolitischer Verantwortung. Zumal dies ja in jedem konkreten Forschungsprojekt zum Tragen kommen soll. Die DFG fordert sogar, Projekte während ihrer Durchführung einem Monitoring zu unterziehen. Die Bewertung sei „eine kontinuierliche Aufgabe in der Leitung von Forschungsprojekten […], nicht zuletzt, weil sich die politischen Rahmenbedingungen in Partnerländern über die Zeit verändern und eine Neubewertung erforderlich sein kann.“ (DFG 2023: 4). Bislang sind Wissenschaftlerinnen und Wissenschaftler gleichwohl auf sich allein gestellt, was die Auseinandersetzung mit der Sicherheitsrelevanz der eigenen Forschung angeht. Denn die Hinweise, auch der DFG, bleiben vage. Sie rät Wissenschaftlerinnen und Wissenschaftlern „Prüf- und Reflexionsschritte“ vor allem für den Umgang mit internationalen Kontakten und Kooperationen an. Dies zielt auf „Risiken“ ab, die in Kontaktbeziehungen und Partnerschaften liegen. In der Forschung selbst gelegene Problemstellungen werden kaum betrachtet. Auch die besonderen Herausforderungen datenintensiver digitaler Projekte, Fragen der Nutzung digitaler Infrastrukturen und die unklare Zukunft von Open Science haben die DFG und andere Forschungsorganisationen bislang nicht wirklich adressiert (vgl. Gehring/Lambach 2024).
Die DFG kündigt gleichwohl an, auch im Rahmen von DFG-Förderanträgen sei künftig im Antragstext unter dem Punkt „… zu möglichen sicherheitsrelevanten Aspekten“ die Vertretbarkeit eines Forschungsprojektes „schon beim Anschein des Vorliegens eines Risikos“ (DFG 2023: 3) obligatorisch zu erläutern. Ebenso müssten Gutachtende sowie die DFG-Fachkollegien „von der Vertretbarkeit der Durchführung des Projektes überzeugt sein“, sonst sei es nicht zu bewilligen; und „in der Gesamtbetrachtung“ sei die Reflexion auch danach nicht abgeschlossen.
Das an der TU Darmstadt praktizierte Ziviklausel-Umsetzungsverfahren stellt in dieser Lage einen Ankerpunkt dar, der es Wissenschaftlerinnen und Wissenschaftlern erlaubt, eine Verantwortung wahrzunehmen, die ihnen grundsätzlich obliegt – heute aber sogar mehr als früher. Zivilklauseln sind keine Patentlösung für alles. Das bestätigen alle, die sich mit der Materie hinreichend praxisnah befassen. Immerhin sind sie aber angesichts der gegebenen geopolitischen Relevanz der Frage, was mit Forschungsergebnissen passieren sollte und was nicht, deutlich praktikabler als der pauschale Verweis auf „Risiken“ oder auf „Ethik“.
Wer vorschlägt, Zivilklauseln zu streichen, so lautet daher mein Fazit, wird nicht herumkommen um die rasche Einführung einer äquivalenten (und hinreichend griffigen) Verfahrenslösung, die es Wissenschaftlerinnen und Wissenschaftlern erlaubt, in der Frage sicherheitsrelevanter Forschung in einer geopolitisch unübersichtlichen Zeit diejenige Verantwortung zu übernehmen, die man von ihnen fordert. ■
Gehring, Petra/Lambach, Daniel (2024): Offene Wissenschaft versus Zeitenwende: Neue Dilemmata in Sachen (Forschungs-)Datenzugang. In: Steffen Augsberg und Marcus Düwell (Hrsg.), Datenzugangsregeln zwischen Freigabe und Kontrolle. Frankfurt am Main, New York (Campus) 2024. S. 381-396.
Gehring, Petra (2025): Wie verantwortungsbewusst forschen in geopolitisch und digitalpolitisch unübersichtlicher Lage? Das Beispiel der Zivilklausel der TU Darmstadt. In: Verantwortungsblog. https://zevedi.de/die-zivilklausel-der-tu-darmstadt/ [21.10.2025]. https://doi.org/10.60805/hb31-jw33.
Alle können den Quellcode anschauen – Sie, ich, meine Oma und mein Friseur
Open Source-Software gewährt den Nutzenden umfangreiche Freiheiten, Kontroll- und Gestaltungsmöglichkeiten, so Miriam Seyffarth. Doch wie wird im Open Source-Bereich gemeinsam an der Software gearbeitet? Wie wird sie geteilt und wie werden Konflikte ausgetragen? Welche Rolle kann Open Source-Software für die Realisierung digitaler Souveränität spielen und warum sollte eine nachhaltige Digitalisierung nur mit ihr möglich sein? Bei dem Interview handelt es sich um Teil 3 unserer Reihe zu Open Source-Software.
Interview mit Miriam Seyffarth | 16.10.2025
Software-Code unter einer Lupe. Erstellt mit Adobe Firefly.
Verantwortungsblog: In Ihrer Selbstbeschreibung auf der Webseite Ihres Verbandes, der Open Source Business Alliance, schreiben Sie, dass Sie privat fast ausschließlich Open Source-Software nutzen. Wie sind Sie mit Open Source-Software in Berührung gekommen und was sind Beispiele für solche Software?
Miriam Seyffarth: Ich bin zum Studium in Berlin in eine Wohngemeinschaft gezogen und hatte da Mitbewohner, die Open Source-begeistert waren, und das hat mich angesteckt. Ich habe mir Open Source-Software dann angeschaut und ausprobiert und war schnell von den Vorzügen überzeugt: Es ist demokratisch, jeder kann mitgestalten, es ist offen und transparent.
Dann habe ich immer mehr Open Source-Software genutzt. Angefangen hat es damit, dass ich auf meinem Laptop das Open Source-Betriebssystem Ubuntu installiert habe. Vorher hatte ich Windows von Microsoft genutzt. Dann habe ich meine Hausarbeiten und meine Abschlussarbeit für das Studium mit LaTeX geschrieben, nicht mehr mit Microsoft Word. Und nach und nach habe ich in jedem Bereich die proprietären Lösungen durch Open Source-Software ersetzt: Als Browser Firefox, als E-Mail-Programm Thunderbird, beide von Mozilla. Mittlerweile habe ich eine Open Source-Podcast-App auf meinem Smartphone, AntennaPod. Auf meinem Smartphone läuft auch ein Open Source-Betriebssystem. Dass es nicht von Google ist, gibt mir das gute Gefühl, dass Google nicht weiß, wo ich gerade bin und mit wem ich telefoniere.
V-Blog: Auf der re:publica 25 waren sie Teil des Panels „Good Tech vs. Big Tech“. Im Ankündigungstext ist davon die Rede, dass wenige große Tech-Konzerne unser digitales Leben bestimmen: von Social Media über Office-Software bis zu Cloud-Services. Was ist das Problem an dieser Dominanz und inwiefern stellen Open Source-Optionen eine Alternative dazu dar?
MS: Das Problem mit den Big Tech-Unternehmen ist nicht nur, dass sie so große Monopolstellungen auf dem Markt haben und ihr Segment total dominieren. Das Problem ist auch, dass es sich dabei um proprietäre Software handelt und nicht um Open Source-Software. Proprietäre Software bedeutet, dass keine unabhängige Überprüfung der Software möglich ist. Also wenn ein Softwarehersteller, zum Beispiel Microsoft, Amazon oder Google, mir sagt: „Die Daten, die Du in diese Software eingibst, sind sicher und niemand anderes kriegt die zu sehen“, dann muss ich dieser Behauptung Glauben schenken, denn ich kann das nicht überprüfen. Dass Open Source-Software in dieser Hinsicht sicher ist, muss ich nicht glauben, denn man hat immer die Möglichkeit, den Quellcode zu überprüfen: Was passiert mit den Daten? Wo werden sie gespeichert? Gibt es Sicherheitslücken und Hintertüren? Fließen die Daten irgendwo ab, greift jemand anders darauf zu? Man kann die Software auch gestalten, anpassen und mit anderen teilen. Die großen Tech-Unternehmen gewähren diese Möglichkeit der Überprüfung der Software nicht. Verbunden mit der Monopolstellung der großen Tech-Unternehmen ist das ein Problem. Sehr viele Menschen nutzen Software und Anwendungen von Microsoft, Apple, Amazon und Google, und die können im Prinzip mit den Daten treiben, was sie wollen, denn wir können es nicht überprüfen.
Ich merke mittlerweile, dass immer mehr Menschen ein Unbehagen haben, weil sie eben nicht genau wissen, was mit ihren Daten auf diesen großen Plattformen passiert. Man weiß ja, dass sie ihre Geschäftsmodelle darauf aufbauen, personalisierte Werbung und so weiter anzuzeigen. Aber das Hauptproblem sind die fehlende Kontrolle und die fehlende Gestaltungsmöglichkeit der Software. Und Open Source-Software ist die Alternative und die Lösung für dieses Problem.
V-Blog: Inwiefern ist Open Source-Software demokratisch?
MS: Open Source-Software ist Software, die eine Lizenz hat, die sehr viel Transparenz, Kontrolle und Gestaltungsmöglichkeit erlaubt. Zum Beispiel kann sich jeder den vollständigen Quellcode anschauen: Sie, ich, meine Oma und mein Friseur. Alle können den Quellcode anschauen! Alle können diesen Quellcode auch anpassen, Änderungen vornehmen und sagen: „Der Knopf ist rot, aber ich hätte ihn gerne in grün.“ Und man kann die Software auch in dieser veränderten Version mit anderen teilen. Dass zum einen alle überprüfen und kontrollieren können, was mit der Software los ist, zum Beispiel wo die Daten hingehen, und zum anderen, dass alle die Software mitgestalten und ihren Bedürfnissen anpassen können, das ist ein sehr demokratischer Aspekt. Denn dann liegt die Macht über die Daten, die verarbeitet werden, und über die Software, die genutzt wird, nicht in der Hand eines einzelnen Konzerns, der damit irgendwas treibt, und wir wissen nicht genau, was es ist. Sondern die Macht über die Gestaltung der Software und darüber, wie und wo die Daten verarbeitet werden, die liegt in der Hand von uns allen. Das ist der demokratische Aspekt von Open Source-Software. Durch diese gemeinschaftlich hergestellte Transparenz und die Kontroll- und Gestaltungsmöglichkeiten der Software verteilt sich die Macht auf alle. Es kann nicht einer allein oder ein einzelner Konzern entscheiden, was mit der Software passiert, sondern die Beteiligten kontrollieren sich auch gegenseitig. Wenn jemand was an der Software macht, was allen anderen nicht passt, dann können alle anderen widersprechen und diesen Schritt nicht mitgehen.
V-Blog: Wie findet dieses gemeinsame Gestalten und Weiterentwickeln konkret statt?
MS: Das hängt davon ab, um welche Software es sich handelt, wer da die Hauptverantwortung hat, wer sich um die Software oder um das Projekt kümmert. Es gibt Software, um die sich ganz viele Unternehmen, Communities und Freiwillige gemeinschaftlich kümmern. Der Linux-Kernel ist zum Beispiel so ein ganz zentrales Open Source-Projekt, an dem tausende Menschen gemeinsam arbeiten. Die schreiben gemeinsam auf einer Mailing-Liste und es gibt ein Software-Repository, wo der Quellcode liegt und über das man Vorschläge für Veränderungen machen kann. Das ist sozusagen eine riesige Schwarmintelligenz, die am Projekt arbeitet. Bei vielen anderen Open Source-Lösungen funktioniert das ähnlich: Der Quellcode ist öffentlich einsehbar und in einer öffentlichen Datenbank, in einem Software-Repository abgelegt. Häufig ist das GitHub, aber es gibt auch andere Software-Repositories, über die Leute gemeinsam Quellcode anschauen, teilen und gemeinsam weiterentwickeln. Es gibt zum Beispiel auch GitLab und die deutsche Verwaltung nutzt openCode, ein eigenes Open Source-Software-Repository.
Ein Repository muss man sich wie ein Forum oder eine Plattform vorstellen. Da können alle Vorschläge machen. Man kann sagen: „Ich habe an der Software herumprobiert, der Knopf war rot, aber ich hätte gerne einen grünen Knopf.“ Und wenn die Community sich darauf einigt, dann liegen im Repository die dreieinhalb Zeilen Softwarecode, die man einbauen müsste. Diesen Code können sich alle anschauen und gemeinsam entscheiden, ob sie ihn einbauen wollen oder nicht.
V-Blog: Alle entscheiden für sich?
MS: Es kommt auf die Struktur des Projekts an, wie das entschieden wird. Manchmal gibt es eine Kerngruppe von Menschen, die sich darum kümmert, welche Änderungsvorschläge in die Open Source-Software eingepflegt werden. Diese Menschen nennt man Core-Maintainer. Das sind Personen, die besonders viel Zeit in die Projekte stecken und Verantwortung dafür übernehmen, dass alles in Ordnung ist und die Vorschläge gesichtet, sortiert, geprüft und gegebenenfalls eingearbeitet werden. Es kann auch sein, dass z. B. ein Unternehmen sich um die Pflege einer Software kümmert. Dann entscheiden die das. Auch da können alle jederzeit Vorschläge machen, aber das Unternehmen entscheidet am Ende. Manchmal sind es auch Stiftungen, die sich um Open Source-Projekte kümmern.
Der entscheidende Punkt ist: Wenn es Uneinigkeit darüber gibt, ob eine Änderung angenommen werden soll oder nicht, dann kann es zu einem Fork der Software kommen. Es gibt eine Gabelung und die Community teilt sich und kümmert sich um die Version der Software, die sie unterstützt. Die, die wollen, dass der Knopf grün ist, nehmen den Quellcode und bauen ihre Variante der Software mit dem grünen Knopf. Es gibt dann zwei Varianten der Software. Das ist ganz anders als bei proprietärer Software und das kommt immer wieder vor. Das ist eine der ganz zentralen Freiheiten von Open Source-Software, dass man nicht darauf angewiesen ist, dass eine kleine Gruppe von Leuten bestimmt, ob eine Änderung vorgenommen wird. Wenn man das nicht will, kann man sagen: „Okay, dann schreibe ich mir meine eigene Variante der Software.“
V-Blog: Warum besteht im Open Source-Bereich weniger Anreiz, Daten fließen zu lassen?
MS: Es ist nicht unbedingt so, dass im Open Source-Bereich keine Bereitschaft besteht, Daten fließen zu lassen. Aber es gibt größere Transparenz darüber, was mit den Daten passiert. Diese Transparenz, gibt es bei proprietärer Software nicht. Viele Menschen nutzen zum Beispiel Office-Produkte von Microsoft, und wir wissen ja, dass es immer wieder Vorfälle gegeben hat, dass im Hintergrund Daten abgeflossen sind, über die Nutzung der Software zum Beispiel, wann, wie und von wem sie genutzt wurde. Das sind Funktionen, die im Hintergrund dieser Software laufen, die die Nutzer:innen nicht überprüfen können. Wenn ich ein Dokument von Microsoft Office öffne, weiß ich nicht, ob die Sachen, die ich da eingebe, oder wann ich daran gearbeitet habe, irgendwo anders gespeichert werden, ob jemand anderes darauf Zugriff hat, ob beispielsweise die US-Regierung morgen Microsoft sagt, dass ich aus meinem Account ausgesperrt werden soll, und so weiter. Und bei Open Source-Software kann das nicht passieren, weil die Nutzer:innen überprüfen können oder überprüfen lassen können, ob es im Hintergrund Datenabflüsse gibt. In der Summe habe ich ein größeres Vertrauen in eine Open Source-Lösung als in eine proprietäre Lösung, auch wenn ich persönlich den Quellcode nicht prüfen kann, denn ich habe keinen IT-Hintergrund.
V-Blog: In einem Kommentar Ihres Verbandes zur Open Source-Week der UN hieß es, jede Regierung beschäftige sich damit, wie digitale Souveränität erreicht werden könne, und Open Source-Software sei dafür ein wichtiger Faktor. Geht es bei Open Source-Software also nicht mehr darum, mit welcher Software ich meine Abschlussarbeit schreibe, sondern um digitale Souveränität?
MS: Wenn ich Software nutze und damit Daten verarbeite oder speichere, geht es am Ende ja immer darum, ob ich die Kontrolle darüber habe, was mit meinen Daten passiert. Sind die Daten geschützt und kann ich die Software so gestalten, wie es für mich passt? Für diese Fragen macht es einen großen Unterschied, was für Software man nutzt. Und diese Fragen stellen sich für Einzelpersonen aus der Zivilgesellschaft, wie mich, genauso wie für große Unternehmen. Die wollen auch die Kontrolle über ihre Daten behalten und die Gestaltungshoheit über die Software, die sie nutzen. Und für die Wissenschaft, für die öffentliche Verwaltung und den Staat als Ganzes stellen sich diese Fragen auch.
Und es geht ja nicht nur um digitale Souveränität, sondern auch um Datensouveränität. Da geht es um die Fragen: Wer hat Zugriff auf meine Daten? Sind meine Daten sicher gespeichert? Gibt es im Hintergrund unbekannte Datenabflüsse oder Zugriffe? Diese Fragen beschäftigen nicht nur Menschen wie mich, sondern auch die Staaten. Die haben ja ein Interesse daran, dass die persönlichen, sensiblen Daten ihrer Bürgerinnen und Bürger sicher sind und dass nicht Unbefugte darauf zugreifen können. Unsere Regierung hat auch ein Interesse daran, dass die Daten der Wirtschaft und der Industrie sicher sind, Stichwort: Industriespionage.
V-Blog: Hat diese Bedeutungsachse an Gewicht zugenommen?
MS: Die Fragen von geopolitischen Spannungen und Krisen treten immer mehr in den Vordergrund und die haben auch starken Einfluss auf den Diskurs um digitale Souveränität und um die Nutzung von Open Source-Software durch den Staat und die Wirtschaft. Wir als Open Source Business Alliance beschäftigen uns schon lange mit Open Source-Software und wir treten dafür ein, dass diese Software die bessere Lösung ist. Und wir merken, dass auch in der Politik und in der Verwaltung immer stärker ein Bewusstsein dafür entsteht, wie wichtig digitale Souveränität ist, und welche Rolle Open Source-Software dafür spielen kann. Das ist vergleichbar mit Überwachungs- oder Abhörskandalen: Solange man nicht weiß, was im Hintergrund passiert, oder die Bedrohung nicht so real ist, kann man sie gut ignorieren. Aber die Trump-Regierung liefert immer mehr Beispiele dafür, dass eine Regierung, die nur ihre eigenen Interessen im Sinne hat, kein verlässlicher Partner ist. Und die Hyperscaler Amazon, Microsoft, Google usw. unterliegen dem US-Recht und nach US-Recht spielt die Datenschutzgrundverordnung der EU keine große Rolle. Die US-Regierung kann diese Unternehmen anweisen, Daten herauszugeben oder Zugriff auf die Software zu geben. Dagegen können wir in Deutschland nichts machen.
Und es gab schon eine Reihe von Beispielen, welche Konsequenzen das haben kann: Schon in der ersten Trump-Regierung gab es eine diplomatische Krise zwischen den USA und Venezuela und Trump hatte das Unternehmen Adobe angewiesen, die Zugriffe auf die Creative Cloud für alle Nutzerinnen und Nutzer in Venezuela abzuschalten – egal, ob es private Nutzer:innen waren oder die venezolanische Regierung. Das ist am Ende nicht passiert, aber das ist eine Karte, die in geopolitischen Krisen oder Spannungen ausgespielt werden kann. Diese digitale Abhängigkeit macht uns verwundbar, sie kann gegen uns verwendet werden. Und je stärker die Krisen und Spannungen auf der geopolitischen Ebene werden, desto stärker wird uns diese Abhängigkeit bewusst.
MS: Open Source-Software als digitalen Kommunismus zu bezeichnen, ist eine interessante und starke These. Es gibt einiges, was dafür, aber auch einiges, was dagegen spricht. Dafür spricht, dass Open Source-Software frei verfügbar ist und von allen jederzeit genutzt werden kann. Frei bedeutet hier meistens auch, dass man dafür kein Geld bezahlen muss. Die Software liegt in einem Repository, ich kann sie mir herunterladen und ohne Einschränkungen nutzen. Ich kann verstehen, dass Menschen das mit der Idee des Kommunismus verbinden: Die Software gehört allen und alle arbeiten gemeinsam daran. Es gibt niemanden, dem die Software ausschließlich gehört.
Aber der Begriff „digitaler Kommunismus“ ruft auch Assoziationen wach, die nicht zu allen Aspekten von Open Source-Software passen. Wir sind der Verband der deutschen Open Source-Branche. Wir vertreten über 240 Unternehmen, die in Deutschland Open Source-Software herstellen und deren Geschäftsmodelle darauf aufbauen, dass sie Open Source-Software entwickeln, pflegen und für andere betreiben. Damit machen diese Unternehmen zum Teil erhebliche Umsätze und sind sehr erfolgreich am Markt. Das hat gar nicht mehr so viel mit Kommunismus zu tun, weil alle diese Unternehmen ihr Geschäftsmodell und ihre ökonomischen Interessen verfolgen.
Das Interessante bei Open Source-Unternehmen ist aber, dass sie zwar ihre Geschäftsmodelle haben und Umsatz erzielen, dass in diesem Bereich aber das Thema Gemeinwohl, in Form von Software, die wir alle frei zusammen nutzen können, eine sehr große Rolle spielt. Man könnte sagen, dass digitales Gemeinwohl und digitale Geschäftsinteressen im Open Source-Bereich gut zusammenpassen.
V-Blog: Handelt es sich bei Open Source-Unternehmen also um eine andere Form von digitalem Kapitalismus? Wie unterscheidet sich dieser von jenem der Big Tech-Konzerne?
MS: Open Source-Software zahlt nicht nur deswegen auf das Gemeinwohl ein, weil die Software von allen jederzeit frei genutzt werden kann. Sie hat auch entscheidende Effekte für die Wirtschaft. Open Source-Software ist ein Innovationsbooster und hat viele vorteilhafte Effekte für den Wettbewerb. Wenn ich zum Beispiel ein Startup gründe und ein neues Geschäftsmodell entwickeln möchte, dann ist es meistens so, dass ich erst viel Entwicklungsarbeit, zum Beispiel in Software, stecken muss, bevor ich ein Produkt habe, das ich verkaufen kann. Wenn ich für die Entwicklung meines Geschäftsmodells aber auf vielen Basisbausteinen aufbauen kann, die es schon gibt und die ich frei nutzen kann, ohne, dass ich dafür bezahlen muss, also wenn ich Open Source-Basismodule nutzen kann, dann bin ich viel schneller, dann ist mein Produkt schneller fertig und ich kann am Markt schneller unternehmerisch tätig werden. Und diese positiven Effekte, die Open Source-Software für Wirtschaft, für Innovation und den Wettbewerb hat, sind auch in wissenschaftlichen Studien nachgewiesen worden. Forschende der Harvard Business School haben zum Beispiel herausgefunden, dass der Einsatz von Open Source-Software in mehreren Ländern zu mehr Unternehmensgründungen geführt hat. Unternehmen profitieren massiv davon, dass sie nicht alles selbst entwickeln müssen, sondern die Entwicklungsarbeit teilen und auf Open Source-Lösungen zurückgreifen können. Sie müssen nicht bei null anfangen. Und dieser positive Effekt gilt auch für die öffentliche Verwaltung. Da kennen wir das als das „Einer-für-alle-Prinzip“: Nicht jede Kommune muss eine eigene Softwarelösung von Null entwickeln, weil so immer wieder viel Geld für die gleiche Lösung ausgegeben würde. Stattdessen teilt man die Entwicklungsarbeit und kommt gemeinsam schneller voran.
V-Blog: Könnte man sagen, dass Open Source-Lizenzen anti-monopolistisch wirken?
MS: Ob Open Source-Lizenzen alle Monopole auf der Welt verhindern, da bin ich skeptisch. Denn es gibt ja auch ein gewisses Spektrum von Open Source-Lizenzen. Es gibt eine Gruppe solcher Lizenzen, die zum Ziel haben, die Freiheiten, die Transparenz und die demokratische Kontrolle der Software zu erhalten. Das sind die Lizenzen mit Copy-Left-Effekt. Das bedeutet, dass die Lizenzen allen, die die Software weiterentwickeln und weiterverbreiten, die Pflicht auferlegen, die gleichen Freiheiten, die sie hatten, allen anderen weiterzugeben.
Es gibt aber auch die sogenannten „permissiven Lizenzen“. Die permissiven Open Source-Lizenzen gewähren auch viele Freiheiten: Man kann sich den Quellcode anschauen und die Software anpassen, sie erlauben es aber auch, die Software in proprietäre Produkte einzubauen. Und das Aufkommen solcher Lizenzen hat den Effekt, dass heute viele proprietäre Softwarelösungen, die wir kennen, ob zum Beispiel von Microsoft oder von Google, viel Open Source-Software enthalten. Dadurch ist es mittlerweile schwierig, klar zwischen proprietärer Software und Open Source-Software zu unterscheiden, weil im Grunde in so gut wie jeder Software auch Open Source-Komponenten stecken. Man muss sich immer anschauen, unter welcher Lizenz die einzelnen Module stehen, weil Software ja immer aus vielen Bausteinen besteht.
Man kann also sagen, dass es Open Source-Lizenzen gibt, die gegen Monopole wirken und die dafür sorgen, dass die Software und das vorhandene Wissen Gemeingüter bleiben, die sich nicht ein einzelnes Unternehmen unter den Nagel reißen kann. Aber es gibt auch Open Source-Lizenzen, die es ermöglichen, dass Open Source-Software auch in proprietäre Geschäftsmodelle eingebaut werden kann.
V-Blog: 2001 hatte der damalige Microsoft-Chef Steve Ballmer Open Source-Software sinngemäß als Krebsgeschwür bezeichnet. Sie haben eben angedeutet, dass das Verhältnis von Open Source und Big Tech mittlerweile weit weniger feindlich ist. Was hat zu dieser Annäherung geführt?
MS: Big Tech-Unternehmen wie Amazon, Google, Microsoft und so weiter, nutzen heute in ganz großem Stil Open Source-Software – und zwar aus den gleichen Gründen, aus denen wir Open Source-Software gut finden: Auch diese Unternehmen wollen die Kontrolle über die Software-Komponenten haben, die sie nutzen. Und Microsoft würde niemals eine Software-Komponente von Amazon bei sich einbauen, weil die sich nicht darauf verlassen wollen, dass der Wettbewerber nicht irgendwo eine Hintertür eingebaut hat. Die nutzen Open Source, weil sie die Software kontrollieren können. Deswegen ist Open Source-Software ein ganz relevanter Bestandteil der Kernkomponenten der Systeme der großen Tech-Unternehmen.
Es ist aber immer noch so, dass das, was diese Unternehmen heute vertreiben, am Ende nicht unbedingt open source ist, weil diese Software oft nicht für alle frei verfügbar ist. Es können sich nicht alle den Quellcode anschauen. Wenn ich Software von Microsoft nutze, muss ich dem Unternehmen immer noch glauben, wenn es mir sagt: „Der Quellcode ist sicher, es fließen im Hintergrund keine Daten ab.“ Ich kann die Software nicht überprüfen, weil sie als proprietäre Software lizenziert ist, nur gegen Gebühr genutzt und nicht frei geteilt werden darf und so weiter. Daher sind die Big Tech-Unternehmen keine Open Source-Unternehmen, obwohl sie viel Open Source-Software nutzen.
Diese großen Tech-Unternehmen haben auch mitbekommen, dass es immer mehr Unbehagen mit ihren Produkten gibt und das Bedürfnis nach digitaler Souveränität wächst. Deswegen können wir so etwas wie Souveränitätswashing beobachten: Seit einigen Jahren versuchen diese Unternehmen, ihre Lösungen, vor allem ihre Cloud-Lösungen, als souverän anzupreisen. Aber wenn man sagt, souverän ist die selbstbestimmte Nutzung, dass man den Quellcode überprüfen, dass man die Software selbst betreiben, anpassen und gestalten kann, dann ist das nicht souverän.
V-Blog: Im Strategie-Papier „EuroStack – A European Alternative for Digital Sovereignty“ (2025) warnen Francesca Bria und ihre Mitautoren davor, dass Big Tech-Unternehmen die Arbeit von Open Source-Communities zu ihrem Vorteil nutzen würden. Wie schätzen Sie diese Gefahr ein?
MS: Am Ende des Tages ist Open Source-Software Software wie jede andere auch. Sie ist nur anders lizenziert und gewährt mehr Freiheiten. Natürlich gibt es auch in der Open Source-Community Konflikte und Akteure, die unterschiedliche Ziele verfolgen. Und es gibt unterschiedliche Meinungen, wie mit einer bestimmten Software umgegangen werden soll. Und eine Frage ist auch, ob diejenigen, die besonders von der freien Verfügbarkeit der Software profitieren, die großen Nutzen daraus ziehen, die freie Software in ihre proprietären Produkte einbauen und viel Geld damit machen, etwas zurückgeben. Engagieren sich diese Unternehmen in der Pflege der Software? Kümmern sie sich darum, dass die Open Source-Software, die sie nutzen, sicher ist? Und das ist tatsächlich nicht immer der Fall. Einige der großen Tech-Unternehmen engagieren sich tatsächlich in großem Umfang im Open Source-Bereich, Google zum Beispiel. Die nutzen viel Open Source-Software, die investieren aber auch viel in die Sicherheit von einzelnen Komponenten. Das ist aber nicht bei allen Unternehmen der Fall. Das ist ein Grundkonflikt in der Open Source-Community, über den viel diskutiert wird.
Ich glaube, eine große Änderung wird mit dem Cyber Resilience Act kommen, der von allen Unternehmen, die Open Source-Software nutzen, verlangt, dass sie sich darum kümmern, dass die Open Source-Komponenten, die sie einbauen, sicher sind. Das heißt, alle Unternehmen werden dazu gezwungen, mehr Verantwortung für die Sicherheit der Software zu übernehmen.
V-Blog: Der bereits erwähnte Journalist Stefan Mey weist am Beispiel des Linux-basierten Smartphone-Betriebssystems Android darauf hin, dass es Google gelungen sei, mit Hilfe von Open Source-Software eine Datenschleuder und eine Stütze seiner digitalen Macht aufzubauen. Ist es nicht ein Problem, dass Open Source-Software in dieser Weise durch ein Big Tech-Unternehmen vereinnahmt werden kann?
MS: Der Grundgedanke von Open Source-Software ist ja die maximale Freiheit und die maximale Transparenz und dass alle damit machen können, was sie wollen. Und das beinhaltet auch Sachen, die nicht unbedingt positive Effekte haben. Die maximale Freiheit bedeutet eben auch, dass jemand die Software nehmen und daraus eine Datenschleuder, wie Sie sagen, bauen kann. Das ist ein negativer Aspekt dieser maximalen Freiheit und das ist ein weiterer Grundkonflikt in der Open Source-Community.
Gerade das Beispiel Android ist aber auch eine ambivalente Geschichte: Ja, das ist ein Google-Produkt, und ich persönlich möchte Android nicht auf meinem Smartphone nutzen, weil ich nicht möchte, dass Google weiß, wann ich mit wem telefoniert habe, an welcher Straßenecke ich gestanden habe, welche Internetseite ich aufgerufen habe, welche App ich wann genutzt habe und so weiter. Aber es gibt Open Source-Alternativen, die auf Android-Komponenten aufbauen. Ich nutze zum Beispiel LineageOS, ein Open Source-Betriebssystem. Das sieht genauso aus wie Android. Es funktioniert im Prinzip auch genauso, nur funktioniert es komplett ohne Google. Und das wäre nicht möglich, wenn Android nicht diese vielen Open Source-Komponenten enthalten würde.
MS: In der Open Source-Community wird schon seit vielen Jahren diskutiert, ob man Open Source-Lizenzen nicht doch an irgendeiner Stelle für den guten Zweck einschränken soll, zum Beispiel damit Open Source-Software nicht in Waffensystemen verwendet werden kann oder von monopolartigen Big Tech-Unternehmen genutzt werden kann, um ihre Marktmacht weiter auszubauen. Es ist aber immer noch vorherrschender Konsens in der Bewegung, dass die Definition für Open Source-Software gilt, die von der Open Source Initiative aufgestellt wurde. Und diese Definition beinhaltet die vier Freiheiten: Man kann alles damit machen, alle können die Software zu jedem Zweck nutzen, verändern und weiterverbreiten. Deswegen sind Lizenzen, die irgendwelche Einschränkungen machen, am Ende des Tages keine echten oder puren Open Source-Lizenzen. Aber es gibt auch solche Lizenzen.
V-Blog: Ihr Verband, die OSBA, meint, eine ressourcenschonende, nachhaltige Digitalisierung sei nur mit Open Source-Software möglich. Warum soll das der Fall sein?
MS: Es gibt verschiedene Gründe, warum Open Source-Software für Nachhaltigkeit und für ressourcenschonende Digitalisierung zentral ist. Ein Punkt ist, dass proprietäre Softwarelösungen, wenn wir zum Beispiel an Microsoft Office denken, häufig mit Funktionen überfrachtet sind. Ich starte eine Anwendung und im Hintergrund wird ganz viel Rechenpower und Energie verbraucht, obwohl ich am Ende nur zweieinhalb Seiten Text schreibe und viele der Funktionen, die im Hintergrund laufen, nicht brauche. Solche Softwareangebote verbrauchen also mehr Energie als nötig. Dagegen wird Open Source-Software modular entwickelt und es sind oft viel schlankere Anwendungen, die nicht so viel Energie verbrauchen. Und wenn nicht, habe ich immer die Möglichkeit, die Software anzupassen und schlanker zu machen, damit sie weniger Energie verbraucht. Diese Möglichkeit habe ich bei proprietärer Software nicht.
Ein weiterer Grund ist, dass man nicht das Problem hat, dass auf einer bestimmten Hardware eine bestimmte Software nur so lange genutzt werden kann, wie sie vom Unternehmen unterstützt wird. Microsoft beendet ja jetzt im Oktober 2025 den offiziellen Support für Windows 10 und viele Menschen stellen fest, dass ihre ansonsten funktionierende Hardware von einem Tag auf den anderen zu Elektroschrott wird, weil Windows 11 darauf nicht läuft. Das ist absurd. Open Source-Software verbraucht nicht nur oft viel weniger Energie, sondern kann häufig auch auf ganz alter Hardware genutzt werden. So wird viel Elektroschrott vermieden.
Es gibt auch den Aspekt der ökonomischen Nachhaltigkeit: Wenn zum Beispiel der Staat, eine Behörde oder ein Unternehmen Software nicht immer wieder von Grund auf entwickeln muss, sondern auf vorhandene Open Source-Software aufbauen kann, dann werden viel Zeit, Geld und Energie gespart, weil man diese Entwicklungsarbeit teilt.
V-Blog: Frau Seyffarth, vielen Dank für das Gespräch. ■
„Open Source und digitale Infrastrukturen sind politisch“
Das Erbe der Netz- und der Open Source-Bewegung bedarf einer genauen Durchsicht, meint Jürgen Geuter, im Netz auch als tante bekannt. Es ist mit cyberlibertärem Gedankengut durchsetzt, das teilweise mit demokratischen Werten nicht vereinbar ist. Die Netzbewegung und die Open Source-Welt sollten dieses Erbe ablehnen, um davon befreit debattieren zu können, wie unsere demokratischen Werte in der digitalen Welt umgesetzt werden können. Bei diesem Interview handelt es sich um Teil 2 unserer Reihe zu Open Source-Software.
Jürgen Geuter / tante: Es geht um ein ideologisches Erbe, das der Digital- oder Internetdiskurs und die Bewegung, die sich mit dem Internet beschäftigt, mitschleppt. Das Erbe stammt von den Leuten, die die Digitaltechnologien geformt haben, die also entschieden haben, wie diese Technologien funktionieren: Diese Leute haben auch die theoretischen Vorarbeiten geleistet und uns Begriffe vererbt, wie „digitale Rechte“ oder „digitale Grundrechte“. Und die Begriffe und Gedanken, die aus dieser Zeit stammen, beeinflussen auch heute das Nachdenken über das Internet und die Ausgestaltung der digitalen Welt, auch wenn sich in den letzten 30 Jahren viel verändert hat und viele sich nicht mehr direkt darauf beziehen. Über die Konsequenzen dieses ideologischen Erbes wird zu wenig nachgedacht. Es passt teilweise auch zu Werten nicht, die uns heute wichtig sind. Das führt manchmal dazu, dass wir versuchen, widersprüchliche Glaubenssätze miteinander zu verbinden.
Ich glaube auch, dass dieses Erbe aus einer politischen Richtung kommt, die nicht dem entspricht, wie wir moderne Demokratien verstehen. Und deswegen sollten wir dieses Erbe ausschlagen.
V-Blog: Wer ist dieses „Wir“, was ist das für eine Bewegung?
JG: Wie das Straßennetz ist das Internet ein notwendiger Teil unserer Realität geworden, wir haben alle damit zu tun. Viele nutzen das Internet so, wie sie die Straßen nutzen – über das Verkehrssystem oder über Verkehrsplanung denkt man nicht unbedingt nach. Und es gibt Leute, die diese Infrastruktur nicht nur nutzen wollen, sondern die das System grundlegend verstehen und mitgestalten wollen. Das sind Menschen, die sich mit digitalen Technologien beschäftigen, auf Konferenzen wie die re:publica gehen und sich in einschlägigen Vereinen engagieren. Diesen Leuten geht es um Fragen wie: Wie sollte der Zugang zum Internet geregelt sein? Warum gibt es Menschen, die keinen Zugang haben? Funktioniert es in dieser Gesellschaft noch, dass wir sagen, wenn du es dir nicht leisten kannst, hast du halt Pech gehabt… Diese Leute, die sich über diese technischen und politischen Fragen Gedanken machen, ohne zwingend in einer Partei oder in einem Verein zu sein, werden als „Netzbewegung“ bezeichnet. Das ist ein sehr diffuser Begriff. Es gibt kein Eintritts- und kein Austrittsformular, sondern man ist dabei, wenn man nicht einfach nur Apps auf seinem Handy installiert, sondern sich auch die Frage stellt: Warum sind die eigentlich so? Bin ich damit einverstanden, was da passiert?
Und diese Menschen sind beeinflusst von diesem Erbe aus der Frühphase des Internets. Das Erbe, dem die Netzbewegung die Treue hält, strukturiert, wie über Technologien und über Regulierung nachgedacht wird. Diese geerbten Konzepte und Begriffe beeinflussen aktuelle Debatten. Das sind Konzepte wie Netzneutralität, die man zu lange nicht darauf abgeklopft hat, welcher ideologische Gehalt da eigentlich drinsteckt. Da braucht es ein Update.
V-Blog: Worin besteht dieses problematische Erbe genau?
JG: Das Erbe ist der Cyberlibertarianismus, die prägende Ideologie des Internets von Beginn an. Einige kennen vielleicht A Declaration of the Independence of Cyberspace von 1996, also die Unabhängigkeitserklärung des Cyberspace, geschrieben von John Perry Barlow. Darin stehen Dinge wie, dass das Internet das neue Zuhause des Weltgeistes sei und Staaten und solche veralteten Konstrukte im Cyberspace nichts verloren hätten. Im Cyberspace würden sich alle Freiheiten manifestieren.
John Perry Barlow ist auch einer der Gründer der Electronic Frontier Foundation. Und im Namen dieser Organisation, die wir heute vor allem als eine digitale Bürgerrechts- und Verschlüsselungs-NGO kennen, findet sich der bemerkenswerte Begriff „Frontier“. Der Cyberspace wurde also als eine neue Welt begriffen, die man strukturieren, negativ gesagt kolonisieren, die man quasi unterwerfen wollte.
Diese neue Welt war für die Libertären, die es schon vor den Cyberlibertären gab, eine große Chance. Der libertäre Grundgedanke lautet: Es gibt keine Gesellschaft, es gibt nur Individuen, die miteinander Verträge und Übereinkünfte schließen. Man braucht nur Vertragssicherheit, alles andere ist Zwang und sollte nicht existieren. Die bloße Tatsache, dass ich Steuern zahlen muss, um meinem Gemeinwesen zuträglich zu sein, ist für Libertäre also schon Gewalt. Dass es Regeln gibt, dass ich irgendetwas nicht darf, sehen Libertäre als großes Problem. Libertäre sagen: Ich bin frei, wenn es für mich als Individuum keine Beschränkungen gibt. Wenn ich etwas will, dann muss ich das mit anderen aushandeln und einen Vertrag mit ihnen schließen. Es darf eine Polizei geben, die diesen Vertrag durchsetzt, aber sonst darf es keinen Staat geben. Alles sollte privat organisiert sein, denn der Staat ist stets der Unterdrücker, der mir Regeln vorsetzt.
V-Blog: Im Cyberspace gab es folglich keine staatlichen Regeln?
JG: Das war zu Beginn tatsächlich so. Staaten haben sich anfangs mit dem Internet nicht beschäftigt, man hat es als Spielerei irgendwelcher Nerds begriffen. Für die Libertären war das die Gelegenheit. Die haben sich gesagt: In der existierenden, physischen Welt aus Staaten kommen wir nicht richtig weiter, weil die Leute unsere Ideen nicht übernehmen wollen. Aber wir können versuchen, diese neue Welt so zu strukturieren, wie wir das für richtig halten. Das ist der Hintergrund der Declaration of the Independence of Cyberspace: Dort soll es keine Staaten und deren Regeln geben. Wir machen da, was wir wollen und machen falls nötig unsere eigenen Regeln. Und wenn jemand reinredet und sagt, das ist nicht in Ordnung, dann ist das Unterdrückung. Der Cyberlibertarianism basiert also auf der Grundannahme, dass das Internet ein besonderer, neuer Ort ist, der andere Regeln hat als die Welt, in der wir sonst leben.
Zu Beginn war es auch sehr einfach, so zu argumentieren, weil es wirklich so war. Das Internet war tatsächlich ein exklusiver Ort, in dem sich nur wenige Menschen bewegen konnten. Es war ein Spielplatz, der wenig direkte Relevanz für das Leben all jener hatte, die nicht Teil dieser Bewegung waren. Heute ist das ganz anders: Wenn ich nicht ins Internet komme, dann komme ich nicht an mein Bankkonto, dann kriege ich keinen Termin beim Bürgeramt und so weiter. Heute ist das Internet so integriert in unser Leben, dass man es für alles braucht. Aber die cyberlibertäre Denkfigur ist geblieben: Der Cyberspace sei anders als die normale Welt und müsse andere Regeln haben. Diese Denkfigur erlaubt es immer noch, bestimmte Regeln, die wir an anderen Stellen haben, infrage zu stellen.
V-Blog: Wo wird das sichtbar?
JG: Das zeigt sich zum Beispiel, wenn es um staatliche Eingriffe geht. In Deutschland ist zum Beispiel das Zeigen verfassungsfeindlicher Symbole strafbar. Dass das nicht immer umgesetzt wird, gerade auf rechten Demonstrationen, ist eine andere Debatte. Jedenfalls ist es verboten, einen Hitlergruß zu zeigen. Dieses Verbot wird von Cyberlibertären jedoch abgelehnt. Sie sagen, das sollte nicht verboten sein, jeder sollte mindestens im Netz seine Meinung frei äußern dürfen. Da wird eine extrem überhöhte und absolute Form von Meinungsfreiheit vertreten: Es gibt nichts, das nicht gesagt oder zur Debatte gestellt werden darf. Minderheitenschutz oder Schutz vor Diskriminierung? Nein, die müssen sich selbst schützen, das ist keine Aufgabe staatlicher Gewalt! Was im Internet gezeigt oder gesagt wird, muss akzeptiert werden. Jeder Eingriff ist immer „Overreach“, also ein übermäßiger Eingriff.
Aus Sicht des Grundgesetzes würde man hingegen sagen: Ja, Meinungsfreiheit ist wichtig, es gibt aber Bereiche, wo das aufhört. Es gibt Dinge, die wir als Gesellschaft nicht tolerieren wollen. Aber diesen Schritt gehen Cyberlibertäre nicht mit. Die EFF stellt sich zum Beispiel in gerichtlichen Auseinandersetzungen immer wieder auf die Seite von Nazis und verteidigt deren Recht, Rassismus und Faschismus zu verbreiten.
V-Blog: Im Namen der Meinungsfreiheit?
JG: Genau. Für Libertäre ist eigentlich jede Form von größerer Struktur ein Problem, es soll ja nur Individuen geben, die miteinander Verträge schließen. Der Staat ist immer der Feind, egal, ob es ein demokratischer oder nicht-demokratischer Staat ist, weil er reguliert und den Individuen Regeln auferlegt. Theoretisch ist auch ein Digital-Unternehmen wie Google im Internet ein enormer Machtfaktor, der quasi-staatliche Macht hat. Darin unterscheiden Cyberlibertäre sich aber von den Libertären: Die Cyberlibertären wenden diese Kritik nicht auf andere Machtzentren an, sondern sie sehen Privatunternehmen wie Google und Apple eher als Verteidiger von digitalen Rechten an. Sie sagen, es ist gut, dass Google versucht, sich der staatlichen Regulierung nicht unterzuordnen. Das wird geframed als: Google verteidigt unsere Rechte als Digitalbürger, anstelle von: Google lehnt Dinge ab, die Geld kosten oder ihr Geschäftsmodell einschränken.
Ein weiterer zentraler Gedanke der Cyberlibertären ist: Informationen müssen frei zugänglich sein. Wenn wir an Transparenzgesetze denken, daran, dass demokratische Strukturen für ihre Bürger:innen transparent sein müssen, würden dem viele zustimmen. Denn Demokratie basiert darauf, dass man Macht kontrolliert, und Macht kann man nur kontrollieren, wenn man sehen kann, was wirklich passiert. Aber die Cyberlibertären nutzen diesen Transparenzgrundsatz häufig, um andere Rechte wegzuwischen.
V-Blog: Was wäre dafür ein Beispiel?
JG: Das Urheberrecht. Ich glaube nicht, dass das geltende Urheberrecht in jeder Hinsicht perfekt ist. Da gibt es viele Baustellen, weil es eher den großen Unternehmen nutzt als den Leuten, die wirklich schreiben, malen, Musik machen. Aber noch ist es geltendes Recht, auf das wir uns als demokratische Gesellschaft geeinigt haben. Wenn wir wollen, dass Leute Kunst machen, sollten sie auf irgendeine Art und Weise davon leben können. Und dann ist es problematisch zu sagen: Ist mir egal, ich bezahle für Musik, Filme, Bilder und Texte nichts, ich finde im Netz Wege, um da heranzukommen, Filesharing ist technisch möglich und daher mein Recht.
Wenn man so argumentiert, muss man sich die Frage stellen, was mit den Künstler:innen passiert. Diese Frage wird aber nicht gestellt. Es wird nur aus der Ich-Perspektive das Recht eingefordert, alles frei herunterladen zu können. In dieser Haltung kommt der krasse Individualismus, ja Egoismus der Cyberlibertären zum Ausdruck: Ich darf nicht eingeschränkt werden, in dem, was technisch möglich ist.
Sich über diese Regeln hinwegzusetzen, weil es technisch auch anders möglich ist, das halte ich für einen zutiefst antidemokratischen Gedanken. Denn es sind Regeln, die im Rahmen von Prozessen eines demokratischen Staates entstanden sind, auf deren Zustandekommen wir als Bürger:innen, wenn auch indirekt, Einfluss gehabt haben. Wir haben Vertreter:innen gewählt, die haben über Gesetze diskutiert und auch wenn uns nicht alle Regeln und Gesetze passen, haben wir damit einen Prozess, um zu entscheiden, wie wir zusammenleben wollen und was erlaubt ist und was nicht.
V-Blog: Die Technik wird also gegen demokratisch legitimierte Regeln ausgespielt?
JG: Ja. Dem Cyberlibertarianismus liegt ein extremer Technik-Determinismus zugrunde: Wir haben eine Technik gebaut, die funktioniert so, und das ist dann das Gesetz. Es gibt da diesen Spruch: „Code is Law“ … Das meint: Darüber darf man nicht diskutieren. Und wenn Leute sagen, wir müssten vielleicht andere Protokolle bauen, die uns bestimmte Eingriffsmöglichkeiten bieten, weil uns diese Möglichkeiten als Gesellschaft wichtig sind, dann ist das für Cyberlibertäre nicht verhandelbar: Das Internet ist so, und es gibt keine Art und Weise, anders darüber nachzudenken. Das bedeutet, dass das Internet so bleiben muss, wie es jetzt ist – in hohem Maße privatisiert, Rechtsdurchsetzung ist extrem schwer und marginalisierte Gruppen können sich kaum dagegen wehren, mit Hate Speech übergossen zu werden.
Das heißt nicht, dass wir das Internet wegschmeißen müssen. Aber wir sollten uns fragen, ob die Art und Weise, wie das Internet und die Services im Internet jetzt funktionieren, unserer Vorstellung davon entsprechen, wie die Gesellschaft sein sollte. Denn das Internet ist Teil unserer Gesellschaft. Wir haben es so tief integriert, dass es so sehr dazugehört, wie Krankenhäuser, Kitas und die Eisdiele am Ende der Straße.
V-Blog: Der Cyberspace ist im Alltag angekommen.
JG: Ja. Und deshalb müssen wir uns die Frage stellen: Sind wir damit einverstanden, dass da andere Regeln gelten? Wenn wir hören, es gebe „digitale Rechte“ – dieser Begriff ist auch sehr stark geprägt aus der cyberlibertären Ecke –, dann frage ich mich: Was sollen das für Rechte sein? Ich habe Grundrechte und wir haben uns international auf eine Charta der Menschenrechte geeinigt. Als Mensch hast du diese Rechte und es ist die Aufgabe der Staaten, diese Rechte zu verteidigen. Ob sie das gut machen, ist eine andere Frage. Aber diese Rechte werden uns gewährt von Staaten oder staatlichen Konstrukten wie der EU. Was sind also „digitale“ Rechte? Warum sollte ich andere Rechte haben, wenn ich einen Computer nutze, als wenn ich keinen Computer nutze? Warum sollte mein Recht, nicht diskriminiert zu werden, in der digitalen Welt anders sein als in der physischen Welt? Gesonderte „digitale“ Rechte zu haben, ergibt für mich nicht besonders viel Sinn.
Und wer verteidigt diese Digitalrechte? Die Cyberlibertären sagen: Jeder von „uns“ muss diese digitalen Rechte technisch verteidigen. Wir müssen Technologien bauen und du musst diese Technologien beherrschen. Wir bauen beispielsweise Verschlüsselungstechnologien und wenn du die richtig implementierst, dann hast du deine Rechte verteidigt. Wenn du das nicht kannst, hast du Pech gehabt.
Diese Abspaltung des Digitalen von demokratischen Strukturen, Regeln und Werten, ist das fundamentale Problem, über das wir reden müssen. Denn das sorgt erstens für Inkonsistenzen: Wenn ich im Browser klicke, habe ich andere Rechte, als wenn ich nicht im Browser klicke? Warum? Und es führt zweitens zu schwerwiegenden Ausschlüssen, denn wir leben in einer Gesellschaft, die Digitaltechnologien immer stärker in alle möglichen Prozesse integriert, und in so einer Gesellschaft müssen wir darüber nachdenken, wen wir zurücklassen, wie also das Digitale mit den demokratischen Werten und der Inklusion aller in Einklang gebracht werden kann. Sonst ist der Cyberspace lediglich der Raum derjenigen Rechte, die Google und Apple miteinander ausgehandelt haben. Und dann haben wir nicht mehr viel zu sagen, denn bei Google habe ich keine gewählten Vertreter:innen.
V-Blog: Sie haben in Ihrem Vortrag Open Source erwähnt, den Bereich, in dem digitale Gemeingüter entstehen. Ist Open Source die Gegenmacht gegen Apple, Google und Co.? Oder ist auch in der Open Source-Bewegung cyberlibertäres Gedankengut wirksam?
JG: Ich liebe das Narrativ, dass Open Source der Widerstand gegen Google, Apple, Microsoft usw. sei! Da frage ich doch: Wem gehört denn heutzutage faktisch Open Source an vielen Stellen? Microsoft! Fast alle Open Source-Projekte haben ihren Kram auf GitHub. Wem gehörte GitHub? Microsoft! Womit schreiben sie ihren Code? Mit Visual Studio Code. Wessen Projekt ist das? Es ist Microsofts Projekt!
Die großen Tech-Konzerne haben sich sehr aggressiv große Teile der Open Source-Landschaft gekauft. Diese Unternehmen haben erkannt, dass Open Source eine Möglichkeit darstellt, Leute dazu zu bekommen, für sie zu arbeiten, ohne sie zu bezahlen. Das soll nicht heißen, dass Open Source schlecht ist. Ich betreibe das Open Source-Betriebssystem Linux auf allen meinen Rechnern. Open Source ist unglaublich: Es ist nicht nur monetär ein unglaublicher Wert, der da geschaffen wird, sondern allein schon die Tatsache, Zugriff auf digitale Infrastruktur zu haben und sie selbst betreiben zu können, ist unglaublich.
Aber Open Source ist nicht nur Code, sondern dieser Code hat auch eine Lizenz, die beschreibt, was man mit diesem Code machen darf. Es sind diese Lizenzen, die Open Source als Gesamtsystem am Laufen halten. Es gibt unterschiedliche Lizenzen, deren Modalitäten sich unterscheiden, und die nicht unbedingt kompatibel sind. Da gibt es beispielsweise die BSD-Lizenzen, BSD steht für Berkeley Software Distribution, weil der Urtyp dieser Lizenzen an der University of California, Berkeley entwickelt wurde. In diesen Lizenzen steht im Grunde: Wenn du das hier benutzt, musst du drauf schreiben, dass du das benutzt hast. Das war’s. Du kannst damit tun, was du willst, auch eine kommerzielle Verwendung ist erlaubt. Daraus kann auch ein Produkt entstehen, das verkauft wird, das also nicht mehr open source ist. Wer auch immer es verwertet, muss tatsächlich nur vermerken, dass die Open Source-Grundlage unter einer BSD-Lizenz steht.
V-Blog: Was ist das Problem daran?
JG: In diesem Ansatz steckt cyberlibertäre Ideologie. Das kommt schon im Aufbau der Lizenzen zum Ausdruck: Ein großer Teil des Textes solcher Lizenzen besteht aus einem umfangreichen Abschnitt, der in Großbuchstaben feststellt: Wir übernehmen keine Garantien, keine Gewährleistung und wir sind für nichts verantwortlich. Ich verstehe schon, dass man sich gegen Klagen absichern will. Aber es kommt darin auch die Haltung zum Ausdruck: Wir sind freie Individuen, du darfst meinen Code frei nutzen, aber wenn dein Rechner schmilzt, ist das nicht mein Problem. Es ist freie Software, du bist selbst verantwortlich.
Da kommt diese Haltung zum Ausdruck: Ich bin nicht verantwortliche für die Dinge, die ich in die Welt setze. Man muss den vielen Open Source-Projekten dafür dankbar sein, dass sie diese Dinge in die Commons geben, also der Allgemeinheit frei zur Verfügung stellen. Dieser gemeinwohlorientierte Akt steht aber mit dem Kommunikationsakt in Konflikt, im Grunde auch zu sagen: Mir ist egal, was mit euch passiert!
Und Open Source ist ja schon die abgeschwächte, für Unternehmen bequemere Version der Bewegung für Freie Software. Die ganze Bewegung basiert auf den so genannten vier Grundfreiheiten: Die Software darf weiterverbreitet werden, ich darf sie für jeden Zweck verwenden, ich darf sie analysieren und verändern. Dafür muss der Quellcode offen sein. Um diese vier Freiheiten strukturiert sich Open Source, das ist das ideologische Fundament. Dieses ideologische Fundament ist aber libertär: Ich muss alles machen dürfen, was ich will, es darf keine Einschränkung geben. Wenn ich eine Open Source-Softwarebibliothek anlege, darf ich nicht reinschreiben, dass die Software nicht militärisch genutzt werden darf. Wenn ich das mache, dann ist sie nicht mehr open source, denn dann schränke ich die Freiheit der anderen ein.
Meines Erachtens ist das sehr wohl eine Einschränkung meiner Freiheit – und zwar meiner Freiheit, mich politisch zu äußern. Denn ich möchte sagen dürfen, dass ich den Code der Öffentlichkeit bereitstelle, aber bestimmte Zwecke nicht erlaube, weil die mit meinen politischen Überzeugungen nicht übereinstimmen. Das Urheberrecht bietet interessanterweise diese Möglichkeit: Selbst, wenn ich die Rechte an meinem Werk verkauft habe, darf man es nicht auf eine Art und Weise nutzen, die meinen politischen Überzeugungen zuwiderläuft, wenn ich das so festlege. Zumindest ist das in Deutschland so. Durch Open Source-Lizenzen, wie die BSD-Lizenzen, hat man das Recht ausgeschlossen, den Werten, die man vertritt, durch solche Einschränkungen Ausdruck zu verleihen.
V-Blog: Die gesellschaftspolitische Dimension wird insgesamt ausgeblendet?
JG: Ja. Es gibt bezeichnenderweise keinen politischen Diskurs über Code, also darüber wie er läuft und welche Auswirkungen er hat. Das ist explizit ausgeschlossen, wenn man Teil dieser Open Source-Bewegung sein möchte. Auf diese Weise ist mit der Bewegung faktisch ein Raum entstanden, von dem man behauptet, dass er apolitisch ist: Es geht ja nur um Code … Den kann man nutzen, aber was die Leute damit tun, ist ja egal. Aber natürlich ist es politisch, was mit dem Code gemacht wird. Wenn ich einen KI-Bildgenerator baue, dann steckt aufgrund der Trainingsdaten ein politischer Bias drin. Ich meine, dass ich dafür politisch verantwortlich bin. Ich kann mich doch nicht einfach so davon frei machen, indem ich sage: Ist halt Open Source-Code! Das wird aber gemacht. Die Verantwortung für das, was man tut, wird in der Bewegung abgelehnt. Und es geht noch weiter: Es wird versucht, auch andere darin einzuschränken, sich Gedanken darüber zu machen.
V-Blog: Die Lizenzen können nicht entsprechend abgewandelt werden?
JG: Man könnte es wie bei den Creative-Commons-Lizenzen machen. Da koppelt man Module, durch die man sagt: Das und das erlaube ich nicht. Wenn man das für Code macht, wird es aber sehr komplex zu entscheiden: Darf ich das benutzen oder nicht? Dieser Komplexität will man sich nicht stellen, sondern sagt stattdessen, das ist open source, damit dürfen alle alles machen. Die einzige im Bereich der Open Source-Lizenzen zulässige Frage ist: Darf ich meinen veränderten Code proprietär nutzen oder nicht?
Insbesondere aus der Open Source-Logik heraus ist das ein Problem: Denn immer, wenn die Open Source-Bewegung ihre Rechte verteidigt, sagt sie damit auch: Code is speech. Wenn ich Code veröffentliche, ist das wie eine Meinungsäußerung und muss entsprechend geschützt sein. Eine Zeit lang durften starke Verschlüsselungsalgorithmen aus den USA nicht exportiert werden, weil sie als Waffen eingestuft wurden. Dagegen wurde argumentiert, Code sei wie eine politische Meinungsäußerung. Wenn man aber so argumentiert, dann kann man nicht so tun, als würde es bei Code nicht um Politik gehen, also darum, wie unsere Gesellschaft gestaltet ist.
Um diesen Diskurs zu eröffnen, muss man sich von der Vorstellung lösen, dass Open Source so ist und dass daran nichts geändert werden darf. Ich denke: Open Source muss nicht so bleiben. Open Source hat wertvolle Dinge in die Welt gebracht, aber sollten wir diesen Bereich wirklich weiterhin unreguliert lassen und darauf setzen, dass da alle nett sind?
V-Blog: Sie haben darauf hingewiesen, dass Firmen wie Microsoft und Google im Open Source-Bereich aktiv sind. Ist das ein Problem?
JG: Nicht grundsätzlich. Wenn man sagt, dass Open Source Teil des Gemeinwohls, der Commons ist, dann kann man es gut finden, dass auch solche Unternehmen dazu beitragen. Mir wäre es zwar lieber, wenn sie ihre Steuern zahlen würden, aber wenn sie das schon nicht tun, dann ist das Engagement im Open Source-Bereich immerhin etwas Sinnvolles.
Das Problem ist der Einfluss solcher Unternehmen auf die Ausgestaltung oder die Entwicklungsrichtung der Online-Infrastruktur. Die zentrale Infrastruktur im Internet läuft ja auf Open Source und es ist die Open Source-Community, die diese Software entwickelt und pflegt. Wenn wir uns die Browser ansehen, die heute im Prinzip die eigentlichen Betriebssysteme sind, weil alles in Browsern läuft, dann gibt es heute faktisch zwei Engines für Browser: Es gibt Firefox, das von der Mozilla Foundation entwickelt wird, deren Budget überwiegend von Google kommt, und es gibt die Chrome-Familie, die Google als Open Source-Projekt entwickelt hat. Chromium kann man frei herunterladen, aber Chromium entwickelt das, was Google will. Google bezahlt die Leute, die Chromium als Open Source-Projekt entwickeln, diese Leute bauen dort dann die Technologien und die Standards ein, die Google will. Und zufällig ist es manchmal ein Standard, der dabei hilft, Werbung auf Websites effizienter auszuspielen …
Der Einfluss der großen Unternehmen auf die Open Source-Community ist sehr stark und faktisch unreguliert. Bevor man diesen Unternehmen zu schnell dafür dankt, dass sie in Open Source-Projekte investieren, sollte man sich klar machen, dass sie damit eigene Ziele verfolgen. Sie erkaufen sich so einen erheblichen Einfluss auf die Entwicklung der Open Source-Projekte.
V-Blog: Wie könnte dieser Einfluss begrenzt werden?
JG: Ich glaube, wir müssen Möglichkeiten dafür schaffen, dass zentrale Open Source-Infrastruktur entwickelt wird, ohne dass Unternehmen maßgeblichen Einfluss darauf nehmen können. Beispielsweise sollte die EU den Browser Firefox kaufen, damit dieser als unabhängige Anstalt öffentlichen Rechts entwickelt werden kann. Eine EU-Anstalt öffentlichen Rechts, die Open Source-Innovation ermöglicht – das wäre ein Weg, um den Open Source-Bereich vom Einfluss der großen Tech-Unternehmen zu befreien. Wenn uns allen wichtig ist, dass dieser zentrale Bestandteil unserer Online-Infrastruktur unabhängig und gemeinwohlorientiert entwickelt wird, dann kann man mit Steuergeldern die Möglichkeiten dafür schaffen. Diesen Ansatz kann man auf alle Teile dieser Infrastruktur anwenden, von denen man sagt, dass sie zu wichtig sind, um sie dem Gutdünken einer Firma zu überlassen.
Privatunternehmen können den Open Source-Browser dann immer noch nehmen, verändern und kommerziell vertreiben, wenn sie glauben, ein besseres Produkt entwickelt zu haben. Aber der Zugriff auf diese zentrale Infrastruktur, von der wir immer stärker abhängig sind, sollte der Kontrolle einzelner Unternehmen entzogen werden. Es geht hier um Daseinsvorsorge. Google Chrome hat weltweit einen Marktanteil von mehr als 65 Prozent. An zweiter Stelle kommt Microsoft Edge mit etwa 13 Prozent. Konzerne wie Google haben durch den Code, den sie produzieren, quasi-staatliche Macht. Wenn Google entscheidet, dass Chrome eine bestimmte Funktion nicht mehr haben sollte, dann hat Chrome die Funktion nicht mehr.
V-Blog: Es geht also darum, diese Technik wieder einer demokratischen Diskussion zugänglich zu machen.
JG: Genau. Und es geht auch um die Standards, die in unterschiedlichen Gremien bestimmt werden. Man kann unterschiedliche Browser nutzen, weil es allgemeine Standards gibt, die regeln, wie das Internet funktioniert. Und auf diese Gremien und diese Standards nehmen Unternehmen wie Google erheblichen Einfluss. Würde man auch diese Gremien als Anstalten öffentlichen Rechts organisieren und diesen Einflüssen entziehen, könnte Google zwar mit dem Wunsch ankommen, neue Tracking-Standards zu implementieren, aber das unabhängige, gemeinwohlorientierte Gremium könnte dann sagen: Nein, wir wollen nicht, dass das Internet so funktioniert. Vielleicht überlegt man sich dann auch für den Bereich der Online-Payments Standards, die nicht Paypal begünstigen, sondern ein offenes Spielfeld für alle schaffen. Wenn man das will, muss man sich aber eben fragen, wer die Standards schreibt und wie sie geschrieben sind. Eine unabhängige, öffentlich finanzierte Organisation würde vielleicht Standards entwickeln, die offener sind.
Eine solche nicht-kommerzielle Organisation müsste natürlich auch unabhängig von staatlicher Willkür sein. Ich möchte Google nicht durch Viktor Orban ersetzen. Mir schwebt eine unabhängige Organisation vor, wie wir sie vom öffentlichen Rundfunk oder ähnlichen Strukturen in Deutschland kennen. Eine solche Organisation würde ein Budget erhalten, mit dem es Entwickler:innen, Designer:innen und so weiter einstellen kann, um die Infrastrukturen gemeinwohlorientiert bereitzustellen.
An diese Organisationen könnte man Nutzerräte anschließen, in denen auch Menschen ohne technische Spezialkenntnisse sitzen, die aber betroffene Gruppen vertreten, und die mitentscheiden können, wie die Technologie ausgestaltet wird.
JG: „Bankrott“ ist hartes Wort und ich würde es gerne vom Tisch wischen, das kann ich aber leider nicht. Ich glaube, es gibt wirklich ein signifikantes Problem. Und ich sehe nicht, dass jemand wirklich versucht, es zu lösen. Denn um es zu lösen, müsste man sich bewusst machen, was man da bisher gebaut hat und wie man damit umgeht. Ich weiß nicht genau, was Geert mit seiner harten Aussage kommunizieren wollte, aber ich vermute, es geht darum, dass sich die Open Source-Community immer noch als Alternative zu den großen Unternehmen inszeniert und sich gegen die Übernahme des Internets und der digitalen Infrastrukturen durch diese Konzerne ausspricht, aber die Dinge baut und entwickelt, die die Konzerne wollen.
Was Konzerne wollen, ist sehr prägend, für das, was im Open Source-Bereich entwickelt wird. Zum Beispiel der Bau von Webseiten: Früher lernte man ein bisschen HTML-Text zu schreiben, heute lernen die Leute, wie man Webseiten mit React baut. React ist das Framework, das Facebook sich gebaut hat. Man kann sagen: Ist doch nett, dass Facebook das open source bereitstellt. Man lernt damit aber eine Webseite so zu bauen, wie Facebook sie bauen würde. Man übernimmt mit dem Tool eine Corporate-Denke. Und eine solche Denke hat sich mit dem Einfluss der großen Tech-Konzerne auch in der Open Source-Bewegung verbreitet.
V-Blog: Open Source arbeitet den großen Tech-Konzernen also fast schon zu?
JG: Teilweise. Und das führt zu Tools, die ein hohes Professionalitätslevel erfordern und damit zu Ausschlüssen führen. Heute kann man mit Open Source-Tools sehr aufwendige Webseiten bauen, die aber nicht unbedingt den Bedürfnissen einfacher Nutzer:innen entsprechen. Das kommt aus der Corporate-Welt für die Open Source die passende Infrastruktur baut, weil die Open Source-Community tagsüber bei Amazon arbeitet und abends die komplexen Open Source-Tools entwickelt, die Amazon braucht. Aber dadurch hängt man die Menschen ab, denen man eigentlich die Mittel geben wollte, die Dinge selbst tun zu können.
Dass die Open Source-Bewegung bankrott ist, würde ich so verstehen: Bestimmte Projekte haben sich strukturell von großen Konzernen abhängig gemacht. Vielleicht noch schlimmer ist, dass man sich auch die Art, wie Konzerne über das Internet nachdenken, zu eigen gemacht hat. Da hätte Open Source einen anderen Weg gehen können. Man hätte sagen können, wenn das, was wir bauen für Facebook zu klein ist, dann ist das deren Problem, nicht unseres. Es wurde aber darauf geachtet, dass Open Source-Software in dieser Konzern-Welt funktioniert, denn von dort kommt die Förderung.
V-Blog: Sie fordern dazu auf, die Technologie zu repolitisieren. Wie würde diese Repolitisierung aussehen und warum ist sie notwendig?
JG: Open Source und digitale Infrastrukturen sind politisch. Wenn ich durch die Software, durch die Art und Weise, wie ich sie baue, beeinflusse, was die Leute tun können oder nicht tun können, dann ist das politisch. Ich bringe dadurch meine Vorstellung zum Ausdruck, wie die Welt sein sollte. Die Open Source-Bewegung sagt aber: Das ist freie Software, nutze sie oder lass es, keine Garantien. Das entspricht nicht der Vorstellung, dass wir mit Open Source gemeinsam an einem Commons, also an einer digitalen Allmende arbeiten, die der Gesellschaft frei zur Verfügung stehen soll.
Die Repolitisierung, die ich meine, hat vor allem zwei Aspekte. Erstens sollten sich die Leute, die diese Software bauen, bewusst machen, dass die dazugehörigen Produktions- und Veröffentlichungsschritte politische Akte sind. Und daraus leiten sich bestimmte Verbindlichkeiten ab. Beispielsweise sollte es für Projekte Wege geben, um zu kommunizieren, mit welchen Einsatzszenarien sie einverstanden sind und mit welchen nicht. Ich halte es für wichtig, dass akzeptiert wird, dass Projekte bestimmte Nutzungen ausschließen. Zum Beispiel: Wollen die, die den Code schreiben, eine militärische Nutzung zulassen oder nicht?
V-Blog: Und der zweite Aspekt?
JG: Wenn wir sagen, Open Source ist für alle, für die Commons, für das Gemeinwohl, dann muss geklärt werden, wie Leute, die Open Source-Software benutzen, ohne am Code mitschreiben zu können, an den Entscheidungen über die Entwicklungsrichtung des Projekts beteiligt werden. Wie können einfache Nutzer:innen teilhaben, die die Software verwenden und die feststellen, hier ist ein Problem? Was können die tun? Jetzt werden sie darauf hingewiesen, dass sie das Problem im Bug Report beschreiben und einen Patch schreiben können. Sie sollen also selbst eine Lösung programmieren. So kann ich mich vor jedem Einfluss von dieser Seite abschirmen. Insbesondere bei größeren Projekten, mit vielen Nutzer:innen, beispielsweise Firefox oder das Content-Management-System WordPress, stellt sich die Frage, wie sie diese Nutzer:innen an den Entscheidungen darüber beteiligen, wie die Projekte weiterentwickelt werden, was da gebaut wird und was nicht.
Vielleicht brauchen Open Source-Projekte ab einer gewissen Nutzerzahl einen Nutzer:innenrat, so wie Unternehmen ab einer bestimmten Größe einen Betriebsrat brauchen. Vielleicht ist das notwendig, damit Menschen, die von den Entscheidungen der Technologen und Technologinnen direkt beeinflusst werden, frühzeitig sehen: Okay, das habt ihr vor, wir sehen damit dieses Problem …
Das ist schwierig, insbesondere bei Projekten, die klein gestartet sind und dann populär werden: Plötzlich kommen Leute und wollen mitentscheiden, was gebaut werden soll. Aber das ist der Preis, wenn ein Open Source-Projekt eine gewisse Größe erreicht hat. Ab dann gehört es einem nicht mehr allein, wenn ich sage, es ist für die Commons, für die Gemeinschaft. Dann muss die Gemeinschaft ein Mitspracherecht haben.
V-Blog: Herr Geuter, vielen Dank für das Gespräch.
Als „Broligarchen“ werden jene schwer- und einflussreichen US-Tech-Unternehmer angeprangert, die eine problematische Nähe zu autoritären und rechtsradikalen politischen Kräften eingenommen haben. Wie sieht es angesichts dieser Entwicklung in der digitalen Elite in Deutschland aus?
Von Lion Hubrich | 21.08.2025
Wer klettert die Karriereleiter hoch? Illustration erstellt mit Adobe Firefly
Das Silicon Valley schien einst ein Hort von exzentrischen Träumern zu sein, die den Glauben an die Schaffenskraft von Unternehmertum und digitalen Technologien mit einem individualistischen Freiheitsdrang verbanden. Lange erhoffte man sich, dass es dem Nutzen der ganzen Gesellschaft dienen würde, diesen Träumern in ihrem Innovationsstreben freien Lauf zu lassen. Heute dämmert jedoch immer mehr die Erkenntnis, dass die amerikanischen Tech-Eliten oft keine harmlosen Nerds sind, sondern auch durchaus archaische Herrschaftsgelüste hegen – und diese umso ungezügelter ausleben können, je mehr ein entfesselter digitaler Kapitalismus seinen Lauf nimmt. Die Eliten des US-Digitalsektors konnten sich in den letzten Jahren ungeheuren Wohlstand aneignen, nun greifen sie in Allianz mit dem Trump-Regime zudem nach der Macht im amerikanischen Staat. Aufgrund dieser zunehmenden politischen, ökonomischen und kulturellen Macht von autokratisch und patriarchisch eingestellten Männern aus der Technologiebranche werden die USA heute mit einigem Recht als „Broligarchie“ bezeichnet (Cadwalladr 2024).
Sozialstruktur der deutschen Digitalelite
In diesem Kontext mag man sich nach Alternativen sehnen und fragen: Wie sieht es eigentlich mit den Technologie-Eliten in Deutschland aus? Was ist von ihnen zu erwarten? Sind sie nur die Nachahmer des Silicon Valleys oder gehen sie selbstbewusst einen eigenen Weg? In meiner Forschung gehe ich dieser Frage aus einer elitensoziologischen Perspektive nach. Der grundsätzliche Ansatz der Elitesoziologie besteht dabei darin, strukturell danach zu fragen, welche Art von Personen in Positionen kommt, in denen sie an den Schlüsselentscheidungen eines Feldes teilhaben. In meiner aktuellen Studie über die Eliten der Digitalisierung in Deutschland habe ich dementsprechend diejenigen Personen untersucht, die Unternehmen und Verbände in der Digitalbranche leiten – wobei die „Digitalbranche“ hier so gefasst ist, dass sie sowohl Start-ups als auch Großunternehmen beinhaltet. Insgesamt habe ich 254 Individuen identifiziert, die der deutschen Technologie-Elite zugerechnet werden können, anhand deren Lebensläufe und Netzwerke sich die Sozialstruktur der deutschen Digitalelite ausmachen lässt. Hierzu lassen sich drei zentrale Befunde zusammenfassen (ausführlich berichtet in Hubrich/Staab 2024).
Erstens zeigt meine Analyse, dass in der deutschen Digitalwirtschaft weiterhin ein starkes nationales Elitenetzwerk existiert. In diesem Netzwerk nehmen die Eliten aus etablierten Industrieunternehmen zentrale Positionen ein und sind über Aufsichtsratsmandate und gemeinsame Aktivitäten in Beratungs- und Verbandsgremien gut miteinander vernetzt. Vertreter jüngerer Unternehmen bleiben hingegen eher am Rand dieses Netzwerks.
Zweitens fand ich in den untersuchten Eliten-Lebensläufen ein geringes Maß an Internationalisierung, sowohl was die Herkunft als auch die entscheidenden Karriereschritte betrifft. Zwar sind 13,4 % der untersuchten Eliten im Ausland aufgewachsen. Aber darunter sind viele Kinder von deutschen Managerfamilien, die im Ausland gewesen sind, die ihre gesamte Karriere aber in Deutschland verbrachten oder die aus Nachbarländern wie Österreich oder der Schweiz stammen. Genuine Quereinsteiger, die aus dem außereuropäischen Ausland in die deutsche Digitalelite einsteigen, sind mit 2,4 % hingegen sehr selten. Und für deutsche Staatsangehörige sind kurze Auslandsaufenthalte während des Studiums oder im Beruf zwar üblich – die entscheidenden Karriereschritte werden aber üblicherweise weiterhin im Inland unternommen. Auch Berufserfahrung bei führenden US-Tech-Unternehmen spielt keine große Rolle.
Drittens dominieren in der deutschen Digitalwirtschaft weiterhin Karriereverläufe, die typischen traditionellen Mustern der deutschen Elitenbildung, also nicht einer an das Silicon Valley erinnernden Berufsbiografie folgen. Dies betrifft insbesondere ihre Hochschulbildung, bei der sich Aufenthalte an renommierten und teuren internationalen Universitäten beziehungsweise Business Schools weder als üblich noch als notwendig erweisen (zum Beispiel besuchte jeweils nur eine einzige Person die Stanford University oder die Harvard Business School). Die deutsche Tech-Elite studierte stattdessen an deutschsprachigen Massenuniversitäten wie der TU München, der RWTH Aachen, oder dem Karlsruher Institut für Technologie – wobei allerdings keine einzige Universität von mehr als 6,7 % der untersuchten Elitepopulation besucht wurde, somit also keine eindeutigen „Eliteschmieden“ auszumachen sind. Und in Bezug auf die Karrierelaufbahnen gibt es keine Anpassung an das US-amerikanische Modell des ständigen Wechsels zwischen verschiedenen Unternehmen: Fast die Hälfte der Tech-Elite hat eine klassische deutsche „Kaminkarriere“ in dem Sinne absolviert, dass sie innerhalb von fünf Jahren nach dem Hochschulabschluss in ihrem aktuellen Unternehmen zu arbeiten begann und dort die „Karriereleiter“ emporkletterte.
Keine Disruption
Insgesamt legen meine Daten damit nahe, dass in der Elitenbildung in Deutschland die Persistenz eingespielter nationaler Muster gegenüber vermeintlich disruptiven globalen Makrodynamiken wie der Globalisierung überwiegt. In sozialstruktureller Hinsicht repräsentieren Deutschlands heutige Tech-Eliten keinen neuen Aufbruch, sondern sie erinnern eher an die Wirtschaftseliten der 1990er.
Angesichts der destruktiven Rolle, die exzentrische Technologie-Unternehmer heutzutage in der amerikanischen Gesellschaft spielen, liegt in diesem Befund wohl auch etwas Positives: Auf politischer Ebene kann man sich von ihnen immerhin ein gewisses Maß an Stabilität versprechen. Obwohl die deutschen Tech-Eliten sehr überwiegend männlich sind, konstituieren sie hierzulande also bislang keine „Broligarchie“ – zumindest nicht in dem Sinne, dass sie politische Machtansprüche stellen oder sich als Träger von libertären oder rechtsradikalen Bewegungen einspannen lassen.
Gleichzeitig bleibt jedoch die Frage, woher in Deutschland bahnbrechende Innovationen kommen sollen, wenn die hiesige Unternehmenslandschaft von Personen beherrscht wird, die seit Jahrzehnten unverändert ungefähr dieselben Sozialisationsmuster durchlaufen. ■
Hubrich, Lion und Staab, Phillipp (2024): Eliten der Digitalisierung. Führungswechsel in der deutschen Wirtschaft? In: Berliner Journal für Soziologie, Nr. 34(3), S. 309-337. https://doi.org/10.1007/s11609-024-00533-4.
„Open Source trägt einen Keim für gerechtere Marktverhältnisse in sich“
Open Source-Software bildet eine Gegenwelt, in der digitale Gemeingüter entstehen, so Stefan Mey. Wir haben mit ihm darüber gesprochen, was diese Welt freier Software vom digitalen Kapitalismus der großen Tech-Plattformen unterscheidet, wie dort mit Daten umgegangen wird und inwiefern sich Big Tech und Open Source-Software mittlerweile angenähert haben. Das Interview bildet Teil 1 unserer Reihe zu Open Source-Software.
Interview mit Stefan Mey | 29.07.2025
Wie frei ist die Software? Das Bild wurde mit Adobe Firefly erstellt.
Verantwortungsblog: Ihr Buch zur Open Source-Bewegung beziehungsweise zur „digitalen Gegenwelt“, wie Sie sie nennen, trägt den Titel Der Kampf um das Internet. Inwiefern findet da ein Kampf statt? Wer kämpft gegen wen?
Stefan Mey: Der Titel beschreibt, dass es zwei Gruppen oder Positionen gibt, die sich in der grundlegenden Ausgestaltung des Internets gegenüberstehen: Es gibt den digitalen Kapitalismus, da geht es ums Geldverdienen, und der hat fast extremistische Ausmaße angenommen, mit weltweiten Oligopolen und Quasi-Monopolen wie im Falle der Suchmaschine Google, die laut Statcounter.com weltweit einen Marktanteil von 89,5 Prozent hat.
Und auf der anderen Seite gibt es, zugespitzt formuliert, so etwas wie digitalen Kommunismus. Das ist der Open Source-Bereich, in dem Gemeingüter entwickelt werden, die allen frei zur Verfügung stehen. Und um diesen Bereich geht es in meinem Buch: um Inhalte, Software und Plattformen, die unter freien Lizenzen stehen.
V-Blog: Sie unterscheiden Open Source als digitales Gemeingut von bloßer Freeware. Worin besteht der Unterschied? Was wäre dafür ein Beispiel?
SM: Freeware bedeutet, dass die Unternehmen, die Freeware-Software anbieten, weiterhin exklusive Rechte daran behalten, sich aber dafür entscheiden, diese Software kostenlos zur Verfügung zu stellen. Beispiele sind die Browser Chrome (Google) und Safari (Apple). Google und Apple haben sich entschieden, diese Software Nutzer:innen kostenlos zur Verfügung zu stellen, weil sie auf andere Arten damit Geld verdienen. Google verdient mit Chrome Geld, indem sie dort ihre eigene Suchmaschine als Standard-Suchmaschine voreinstellen, ohne dass sie dafür bezahlen müssen. Was sie zum Beispiel machen, um bei Safari oder Firefox als Standardsuchmaschine eingestellt zu werden.
Open Source bedeutet hingegen, dass die Software Gemeingut ist. Ein Beispiel ist LibreOffice, die freie Bürosoftware: Man kann auch mit LibreOffice Geld verdienen. Manche Unternehmen verdienen beispielsweise damit Geld, dass sie angepasste Business-Versionen oder Cloud-Versionen anbieten. Die Standardversion von LibreOffice kann man aber kostenlos und völlig frei nutzen, ohne mit irgendjemandem einen Vertrag zu schließen.
Man kann zwar auch den Messaging-Dienst WhatsApp kostenlos nutzen, aber dahinter steht der Konzern Meta Platforms, der damit Geld verdienen will. Und wenn Nutzungsgebühren als Geldquelle ausfallen, dann muss eine andere Quelle gefunden werden. In der digitalen Welt ist das zumeist Werbung, die den Nutzern eingeblendet wird. Da Werbung auf WhatsApp aber lange Zeit nicht geschaltet wurde, sind es Daten, die Meta über die Nutzer sammelt, die ihren Dienst nutzen. Das sind zum Beispiel die Daten, die Meta erhält, weil man WhatsApp Zugriff auf das Telefonbuch gewährt, oder Metadaten, also wer wann mit wem kommuniziert. Und diese Daten kann Meta für die eigenen Plattformen wie Facebook oder Instagram nutzen, auf denen Unternehmen Werbung schalten können. Meta verfügt außerdem über ein Werbenetzwerk, über das Unternehmen auf ganz anderen Webseiten Werbung schalten können. Und die Meta-Werbeplattformen und Werbenetzwerke sind umso beliebter, je mehr sie über ihre Nutzer wissen. Dann ist es Unternehmen möglich, Zielgruppen zielgerichtet zu adressieren. Und das ist der Charme des Datensammelns, dass man das eigene Werbegeschäft für Unternehmen interessanter macht und dass man die Daten in irgendeiner Form weiterverkaufen kann.
Beim Open Source-Messaging-Dienst Signal ist das nicht der Fall. Hinter dem Dienst steht die Signal Foundation, eine Non-Profit-Organisation. Das Team, das Signal weiterentwickelt und pflegt, wird aus Spendeneinnahmen und über eine sehr große anfängliche Finanzspritze eines WhatsApp-Gründers finanziert, der mittlerweile an Signal mitarbeitet.
V-Blog: Eine Überschrift in Ihrem Buch lautet: „Technologie, die nicht spioniert“. Wie unterscheiden sich Open Source- und proprietäre Software in Bezug auf Daten?
SM: In Open Source-Software sind meist viel weniger sogenannte Tracker eingebaut, also kleine Codebausteine, die dafür sorgen, dass alle möglichen technischen Daten an das Unternehmen hinter der Software geschickt werden. Da kann man gut die Betriebssysteme macOS von Apple und Windows von Microsoft mit dem Open Source-Betriebssystem Linux vergleichen. Wenn man sich die Datenschutzbestimmungen von Windows und macOS durchliest oder mit technischen Mitteln die Datenströme analysiert, sieht man, dass sehr viele Daten an Apple oder Microsoft gehen. Blöderweise kann man nicht genau herausfinden, was das für Daten sind. Die Software ist ja nicht open source, der Quellcode ist daher Geschäftsgeheimnis. Es können technische Daten sein, die man braucht, um zum Beispiel technische Fehler im Betriebssystem zu finden. Es ist aber denkbar, dass auch persönliche Daten der Nutzer darunter sind.
Wenn man sich dagegen Linux-Betriebssysteme anschaut, da gibt es kommerzielle und nichtkommerzielle, aber selbst bei den kommerziellen Linux-Betriebssystemen, wie Ubuntu, hinter dem das britische Unternehmen Canonical steht, gibt es sehr viel weniger Datenflüsse. Es gibt zwar Ausnahmen, aber in der Regel brauchen diese Systeme diese großen Datenflüsse nicht, weil hinter Open Source-Software oft nichtkommerzielle Strukturen stehen, die sich nicht über Werbung finanzieren. Es gibt auch Datenflüsse, weil auch diese Software-Anbieter herausfinden möchten, wann ihr Programm crasht und woran das liegen könnte. Deswegen bitten die oft darum, dass sogenannte Telemetriedaten übermittelt werden. Aber sie sammeln keine Daten über das konkrete Nutzungsverhalten, mit dem Unternehmen wie Meta Profile aufbauen, die für die werbetreibende Wirtschaft spannend sind.
V-Blog: Open Source-Software braucht diese Datenflüsse nicht, weil sie auf anderen Finanzierungsstrukturen beruht?
SM: Es kommt darauf an, welche Struktur dahintersteht. Oft stehen hinter Open Source-Programmen nicht-kommerzielle Akteure. Hinter LibreOffice steht eine Stiftung, The Document Foundation, mit Sitz in Berlin. Hinter dem VLC media player steht ein französischer Verein. Und hinter einigen Linux-Systemen stehen Communities. Diese Stiftungen, Vereine und Communities müssen keine Gewinne erzielen. Deswegen ist der Anreiz geringer, Daten zu sammeln, um sie für Werbung und Werbevermarktung zu nutzen.
Manchmal stehen kommerzielle Unternehmen hinter den Open Source-Lösungen, wie Canonical im Falle von Ubuntu. Die würden vielleicht auch gerne mehr Daten erfassen, sie machen es aber nicht, weil sie sonst von der Community auf die Finger kriegen. Denn auch bei kommerziellen Open Source-Projekten betreiben die Unternehmen das Projekt oft zusammen mit einer Community. Die Community nutzt das System, sie entwickelt und pflegt es aber auch zusammen mit dem Unternehmen. Und wenn die Community rebelliert, dann ist das für solche Unternehmen ein erhebliches Problem. Deswegen sind auch die kommerziellen Open Source-Lösungen meistens sehr viel datensparsamer als proprietäre Software.
Die kommerziellen Unternehmen im Open Source-Sektor finanzieren sich meistens über sogenannte Open Source-Geschäftsmodelle, sie bieten zum Beispiel Zusatzsoftware oder Zusatzleistungen auf Basis der freien Open Source-Software an oder Cloud-Lösungen. Für diese Geschäftsmodelle braucht man nicht diese Massen an persönlichen Daten.
V-Blog: Es gibt den Ausdruck, Daten sind das neue Gold. Damit sind wahrscheinlich die Daten gemeint, die man monetarisieren, die man verkaufen kann. Gibt es im Open Source-Bereich ein anderes Datenverständnis?
SM: Das Grundprinzip bei vielen Open Source-Projekten ist Datensparsamkeit. Meist ist das Verständnis: Wir erfassen nur so viele Daten, wie unbedingt nötig, um zum Beispiel dafür zu sorgen, dass das Programm stabil läuft. Und bei proprietären Programmen geht es um Datenmaximierung. Denn es gibt eine relativ einfache Logik: Je mehr Daten man hat, umso besser kann man Geld verdienen. Beim Sammeln von Daten geht es fast immer darum, dass man Werbung ausspielt. Das ist das dominante Modell. Dann gibt es das Modell, vor allem bei kleinen Apps, da bauen die App-Entwickler Code ein und dann werden automatisch Daten von einem anderen Unternehmen gesammelt und die Entwickler bekommen Geld pro Nutzer.
Es gibt noch das sogenannte Freemium-Modell: Dabei werden Dienste und Software kostenlos angeboten und die sammeln auch Daten, aber eigentlich geht es darum, die Nutzer dazu zu bringen, für die Premium-Angebote zu zahlen. So funktioniert zum Beispiel Zoom. Zoom ist für private Nutzer kostenlos, aber die Länge der Meetings ist in der kostenlosen Version begrenzt. Zoom sammelt bestimmt auch Daten, die verdienen ihr Geld aber vor allem mit den Nutzern, die für einen Premium-Account zahlen.
V-Blog: Wenn man lang genug sucht, findet man auch im Open Source-Bereich Haare in der Suppe. In Ihrem Buch finden Sie Haare bei Signal und bei Firefox. Was ist da das Problem? Warum wird da vom Datensparsamkeitsparadigma abgewichen?
SM: Als Journalist geht es immer auch darum, die Haare in der Suppe zu benennen, wenn man darauf stößt, und kritisch auch bei Akteuren zu sein, die man ansonsten positiv sieht. So kommt es auch bei freien und nichtkommerziellen Projekten vor, dass sie Datensparsamkeit nicht konsequent praktizieren und teilweise mit großen IT-Unternehmen zusammenarbeiten. Das hat meistens etwas mit der Finanzierung zu tun. Große Projekte mit sehr vielen Nutzern erfordern entsprechend große Strukturen. Und da stellt sich die Frage: Wer bezahlt diese Strukturen? Optimal wäre es, wenn die Nutzer bezahlen würden. Das klappt aber eigentlich nur bei Wikipedia im großen Maßstab. Die Strukturen hinter Wikipedia finanzieren sich über Millionen von Einzelspenden. In dieser Größenordnung kriegt so etwas sonst niemand hin. Im Falle von Firefox ist es so, dass sich die dahinterstehende Stiftung, die Mozilla Foundation, im Wesentlichen über einen Deal mit Google finanziert. Die Stiftung hat zuletzt zwischen 400 und 500 Millionen Dollar pro Jahr dafür bekommen, dass Google bei Firefox die Standardsuchmaschine ist. Apple bekommt übrigens mehrere Milliarden dafür, dass Google als Standardsuchmaschine bei Safari eingestellt ist.
V-Blog: Und was ist das Problem daran?
SM: Wenn Google als Suchmaschine eingestellt ist, fließen Daten auch dann an Google, wenn man die Suchmaschine nicht bewusst nutzt. Denn wenn man in die Adresszeile von Firefox etwas eingibt, dann bekommt man Suchvorschläge angezeigt, die von Google stammen. Das heißt, alles, was man in die Adresszeile eingibt, geht automatisch an Google, solange, bis man den ersten Punkt setzt und klarmacht, dass man die Adresszeile nicht als Suchmaschine nutzen will, sondern eine Webadresse eingibt. Das heißt, mit den Standard-Einstellungen kann Google mit etwas Unschärfe gut nachvollziehen, welche Webadressen Firefox-Nutzer aufrufen wollen. Google muss sich nur fragen, ob danach ein .de, .com oder .org folgt. Das sehe ich kritisch.
Und Signal kann man dafür kritisieren, dass sie mit den drei weltgrößten Cloud-Anbietern zusammenarbeiten, also mit Google, Microsoft und Amazon. Die Signal-Nachrichten laufen über deren Clouds. Diese IT-Unternehmen können nicht in die Nachrichten reinschauen, weil die gut verschlüsselt sind. Aber sie können zum Beispiel nachvollziehen, wo Datenströme herkommen und wo sie hingehen. Und wenn US-Behörden wie der Auslandsgeheimdienst NSA an Signal-Daten kommen möchten, dann müssen sie nicht bei Signal anklopfen, sondern können zu den großen IT-Unternehmen gehen. Signal arbeitet auch mit einem Unternehmen namens Twilio zusammen. Die verschicken die SMS zur Einrichtung des Messengers. Dadurch bekommt Twilio die Telefonnummern aller Signal-Nutzer. Zumindest war das im Jahr 2023 der Fall, für das der letzte öffentlich zugängliche Jahresbericht der Signal Foundation verfügbar ist.
V-Blog: Die großen Tech-Unternehmen wie Google würden ihre Nutzer:innen als „Sammlungen von Datenpaketen auf zwei Beinen“ begreifen, schreiben Sie in Ihrem Buch. Was bedeutet das? Woran wird das sichtbar?
SM: Meta ist dafür ein gutes Beispiel, die stehen hinter WhatsApp, Instagram und Facebook und finanzieren sich fast ausschließlich über Werbung. Alles, was Meta tut, dient entweder dazu, Plattformen zu schaffen, auf denen Unternehmen Werbung schalten können, zum Beispiel auf Instagram oder Facebook, oder Daten zu sammeln, zum Beispiel über WhatsApp. Man könnte sagen: Für Unternehmen mit werbe- und datenbasierten Geschäftsmodellen sind Nutzer wandelnde Datenpakete und das dem Geschäftsmodell entsprechende Ziel ist es, so viele Daten wie möglich zu bekommen. Denn je mehr Daten ein Unternehmen wie Meta über die eigenen Nutzer hat, umso besser können die Zielgruppen von werbetreibenden Unternehmen adressiert werden.
In der digitalen Gegenwelt gibt es meistens nicht diese Anreize, die Datenflüsse zu maximieren. Eine Ausnahme ist Android, das weltweit meistverbreitete Smartphone-Betriebssystem. Android ist open source, aber dahinter steht Google, die es so geschickt konstruiert haben, dass es ohne weitere Google-Dienste kaum nutzbar ist. Es gibt eine Reihe an nicht-freien Zusatz- und Hilfsdiensten von Google, die man benötigt, damit das Smartphone richtig läuft und vollständig nutzbar ist. Zum Beispiel den Play Store, über den man externe Apps installieren kann. Weil sie diese Dienste benötigen, schließen große Smartphone-Hersteller wie Samsung Verträge mit Google, obwohl Android eigentlich open source ist. Und durch diese Google-Dienste wird Android eine Datenschleuder.
V-Blog: Den Open Source-Communities kommt eine wichtige Rolle zu. Sie beschreiben beispielsweise, dass die Communities disziplinierend auf kommerzielle Anbieter innerhalb der Open Source-Bewegung wirken – die Communities können „rebellieren“. Kommt darin ein anderes Nutzerverständnis zum Ausdruck?
SM: Open Source-Projekte entstehen oft im Zusammenspiel von Communities, gemeinnützigen Organisationen und Unternehmen. Meist spielen Communities die wichtigste Rolle. Die Community, das sind Leute, die zum Beispiel in ihrer Freizeit an Software arbeiten, ohne vom Projekt dafür bezahlt zu werden. Teilweise ist die Community in die Entscheidungsstrukturen eingebunden, zum Beispiel bei der Stiftung The Document Foundation, die hinter LibreOffice steht. Alle, die nachweisbar Zeit in das Projekt gesteckt haben, können Teil der Versammlung werden, die die Organisation kontrolliert. Das heißt, die Community hat Macht, die in die Strukturen der Organisation eingeschrieben ist.
Es gibt aber noch ein anderes Korrektiv, das damit zu hat, dass Open Source-Software unter freien Lizenzen steht: Es sind digitale Revolten möglich. Dass Software open source ist, bedeutet, dass alle sie frei nutzen können, sich anschauen können, wie die Software arbeitet und die Software auch verändern und unter neuem Namen weiterentwickeln können. Eine stets mögliche Revolte ist das schärfste Schwert der Community. Denn wenn der Community nicht gefällt, was ein Unternehmen oder eine Organisation macht, die hinter einem Open Source-Projekt steht, dann kann sie die Software klonen und unter neuem Namen ihren Vorstellungen entsprechend weiterentwickeln.
V-Blog: Was wäre dafür ein Beispiel?
SM: LibreOffice ist auch dafür ein Beispiel. Bei diesem Projekt handelt es sich um eine Abspaltung, eine sogenannte Fork, von OpenOffice, einer Software, die zwar frei war, hinter der aber ein kommerzielles Unternehmen stand, das aufgekauft wurde. Die Community hatte den Eindruck, dass der neue Eigentümer das freie Projekt nicht oder zumindest nicht im gleichen Maße unterstützen will. Das zeigt: Selbst dann, wenn die Community nicht offiziell in die Macht- und Entscheidungsstrukturen der Open Source-Projekte eingebunden ist, selbst wenn die also nicht diese demokratischen Elemente haben, müssen die Unternehmen immer aufpassen, dass sie es sich mit der Community nicht zu sehr verscherzen. Denn dann verliert das Projekt nicht nur Nutzer, sondern auch Leute, die das Projekt betreiben und weiterentwickeln können.
V-Blog: Lässt sich für den Open Source-Bereich von einer digitalen Demokratie sprechen, im Unterschied zur Rolle von Communities beispielsweise auf Instagram und TikTok?
SM: Es haben sich verschiedene Mechanismen etabliert, um Macht in freien Projekten zu verteilen. Der typische Mechanismus ist die Meritokratie: Wer mitmacht, darf mitbestimmen. Wenn man sich einbringt, erhält man bestimmte Befugnisse. Das ist zum Beispiel bei LibreOffice der Fall. Wenn man Zeit in das Projekt investiert hat, kann man in den Entscheidungsgremien mitwirken. Wenn man bei Wikipedia eine bestimmte Zahl an Beiträgen geschrieben hat, die von anderen akzeptiert wurden, sind eigene Änderungen an Beiträgen direkt freigeschaltet und man kann an Wahlen teilnehmen.
Dann gibt es teilweise auch repräsentative Mechanismen, also Wahlen, in denen über die Besetzung von Machtpositionen entschieden wird und an denen die Community teilnehmen kann. Es gibt auch Abstimmungen über Themen. Die freien Projekte bedienen sich aus dem Werkzeugkasten, mit dem auch im analogen Raum Macht verteilt wird.
Man sollte allerdings nicht den Fehler machen, die Leistungen des digitalen Kapitalismus zu unterschätzen oder zu negieren. Auf Instagram gibt es Communities, die den Dienst für ihre eigenen Anliegen nutzen, beispielsweise die queere Community. Gerade spielt Instagram eine wichtige publizistische und damit politische Rolle: Dort hat sich eine aktive Community zusammengefunden, die mit der Nahost-Berichterstattung in großen deutschen Medien unzufrieden ist, die lange Zeit extrem einseitig war und es zum Teil heute noch ist.
V-Blog: Und was ist der Unterschied zwischen diesen und den Open Source-Communities?
SM: Es gibt keine vergleichbaren Möglichkeiten der Partizipation. Die Nutzer können sich entscheiden, den Dienst zu nutzen oder nicht zu nutzen. Das ist auch ein gewisses Machtinstrument, aber ein sehr indirektes. Die Instagram-Community kann sich nicht zusammenschließen und sagen: Wir sind unzufrieden, wir klonen jetzt Instagram, portieren unsere Inhalte auf eine andere Social Media-Plattform und machen da weiter. Das ist rechtlich nicht möglich. Bei freien Projekten geht das. Wenn die Inhalte unter freien Lizenzen stehen, kann man sie klonen.
Das ist etwa im Fall von Wikitravel passiert. Das war ein freier Reiseführer, der wie Wikipedia funktioniert: Leute haben gemeinschaftlich mit der Wiki-Software Inhalte erstellt. Wikitravel war ein Start-up, aber die Inhalte standen unter freien Lizenzen. Als dieses Start-up verkauft wurde, hatte die Community das Gefühl, dass das Projekt zu sehr kommerzialisiert werden soll. Die deutschsprachige Wikitravel-Community hat dann eine Rebellion angezettelt, die Inhalte kopiert und damit das Projekt Wikivoyage gestartet.
V-Blog: Ein Zitat, auf das man immer wieder im Zusammenhang mit Open Source-Software stößt, ist die Aussage des damaligen Microsoft-Chefs Steve Ballmer von 2001, der sagte, Linux, also das Open Source-Betriebssystem, sei ein Krebsgeschwür. Warum war Open Source-Software für Ballmer ein Krebesgeschwür?
SM: Um das zu verstehen, müssen wir auf einen frühen Kulturkampf in der Open Source-Welt zu sprechen kommen, der zwischen zwei Schulen innerhalb der digitalen Gegenwelt geführt wurde: zwischen der – sagen wir mal – reinen Lehre und der ein bisschen angepassten Lehre. Schon sehr viel länger als den Begriff Open Source gibt es den Begriff Freie Software. Für Freie Software gelten die vier bekannten Freiheiten: Der Quellcode ist frei einsehbar, man kann die Software frei nutzen, verändern und weiterverbreiten.
Was für Freie Software gilt, für Open Source aber nicht standardmäßig, ist das sogenannte Copyleft-Prinzip: Wenn etwas einmal Freie Software ist, müssen alle Weiterentwicklungen davon ebenfalls Freie Software sein, es darf im Unterschied zu anderen Open Source-Lizenzen keine proprietären Versionen der Software geben. Vermutlich meinte Ballmer das mit „Krebsgeschwür“: Diese tolle Software, in dem Fall Linux, hätte Microsoft nur dann für die eigenen Produkte verwenden können, wenn es die Abwandlungen unter die gleiche freie Lizenz gestellt hätte. Das Grundprinzip des Copyleft lässt sich auf die Formel bringen: Alles ist erlaubt, nur Verbieten ist verboten – man kann Software wie Linux für alle Zwecke verwenden, was man nicht darf, ist, anderen die Freiheiten vorzuenthalten, die man selber hatte.
Als Ergebnis des angesprochenen Kulturkampfs wurden Open Source-Lizenzen entwickelt und zunehmend verwendet, die nicht mehr diesem Copyleft-Prinzip gefolgt sind. So kann man auf der Basis von Open Source-Software etwas entwickeln, dass man nicht mehr unter eine freie Lizenz stellen muss. Dadurch wurde Open Source akzeptabler für Unternehmen.
V-Blog:Jürgen Geuter, im Netz auch bekannt als tante, kritisiert diesen Ansatz des „Verbieten verboten“. [Link re:pubica25-Video] Damit würde jegliche Verantwortung für das, was man in die Welt setzt, verweigert. Hat dieser Ansatz etwas mit Verantwortungsverweigerung zu tun?
SM: Der Ansatz geht stark auf Richard Stallman zurück, den Urvater der Bewegung für freie Software, der nach umstrittenen Äußerungen mittlerweile nicht mehr ungeteiltes Ansehen genießt. Stallman war so eine Mischung aus Hippie und Nerd und er würde sich vermutlich selbst als digitalen Kommunisten verstehen. Er war der Meinung, dass Software etwas Großartiges ist, das die Welt voranbringen kann und es gut wäre, wenn diese Software in einem demokratischen, gemeinschaftlichen Rahmen entstehen würde. Und wenn Leute ihre ehrenamtliche Arbeit und ihr Herzblut in die Entwicklung freier Software stecken, dann sollte es nicht möglich sein, dass Unternehmen die Früchte dieser Arbeit nehmen und anderen diese Freiheiten vorenthalten. Das ist, meiner Meinung nach, die eigentliche Idee: Wenn Leute etwas Tolles schaffen, dann dürfen sie nicht enteignet werden, indem die Früchte ihrer Arbeit privatisiert werden.
Es war aber eigentlich immer Konsens in der Bewegung, dass es unproblematisch ist, mit Open Source Geld zu verdienen. Auch die harten Verfechter des Copyleft-Ansatzes sind völlig okay damit, dass man mit freier Software Geld verdient. Und das geht sehr gut. Es gibt sehr große Unternehmen, die auf den ersten Blick etwas wirtschaftlich Paradoxes machen: Sie bezahlen Leute dafür, Software zu entwickeln, die sie dann quasi verschenken, indem sie sie freigeben. Sie verdienen dann aber gut mit Cloud-Modellen und mit der Anpassung dieser freien Software.
V-Blog: Sie hatten den Open Source-Bereich zu Beginn des Interviews als digitalen Kommunismus bezeichnet. Stellt dieser Kulturkampf, der auch um die Begriffe Free Software und Open-Source-Software geführt wurde, nicht einen Versuch der Abgrenzung vom Hippietum und von so etwas wie digitalem Kommunismus dar?
SM: Ja, in diesem Kulturkampf hat sich diese Bewegung ein bisschen von diesen Free-Software-Copyleft-Gedanken von Richard Stallman verabschiedet. Das kann man kritisieren. Vielleicht war das aber ein sehr sinnvoller, pragmatischer Schritt. Diese Leute waren der Meinung: Es ist toll, wenn Software für alle frei nutzbar ist. Man muss aber auch auf die Unternehmen zugehen, damit die bessere Möglichkeiten haben, damit Geld zu verdienen. Denn es ist gut, wenn Unternehmen auch im Boot sind, weil sie massiv Ressourcen in die Bewegung für freie Software einbringen können.
V-Blog: Sie haben gesagt, die Open Source-Welt sei die Gegenwelt zum digitalen Kapitalismus der großen Tech-Konzerne, der mitunter durch Quasi-Monopole und Machtballungen geprägt sei. Aber vor dem Hintergrund dessen, was Sie gerade gesagt haben: Handelt es sich bei Open Source nicht um eine andere Version des digitalen Kapitalismus? Um einen Open Source-Kapitalismus, der stärker marktwirtschaftlich geprägt ist?
SM: Bei der Recherche für das Buch ist mir klar geworden, dass es einen Effekt gibt, den ich das Wirtschaftswunder der digitalen Gegenwelt nenne: Die Welt freier Software kann Profitstreben und Gemeinwohlorientierung zusammenbringen – zwei Pole, die sich nach verbreiteter Meinung widersprechen. Es gibt in dem Bereich große Unternehmen, die Gemeingüter schaffen und Geld damit verdienen. Man könnte es kritisch sehen, dass Unternehmen mit freier Software Geld verdienen, an der auch Communities ehrenamtlich mitgearbeitet haben. Aber die Zusammenarbeit funktioniert für beide Seiten. Hinter großen Linux-Versionen, wie Fedora oder openSUSE, stehen Unternehmen, die diese Systeme zusammen mit einer Community entwickeln. Und diese Communities sind über mehr oder weniger demokratische Gremien in Entscheidungsprozesse eingebunden. Alle wissen auch, dass die Unternehmen mit der Arbeit der Community Geld verdienen und für die Community ist das völlig okay. Weil sie ihrerseits dankbar dafür sind, dass die Unternehmen Ressourcen einbringen und dafür sorgen, dass Leute gut dafür bezahlt werden, verlässlich an der Software zu arbeiten.
Ein anderes Modell, mit Open Source-Software Geld zu verdienen, steht hinter Android. Die Marke Android gehört Google, aber das Betriebssystem ist open source. Der Grund dafür ist, dass das System auf Linux basiert und weil Linux unter einer besonders freien bzw. restriktiven GPL-Lizenz steht, musste auch Android unter eine freie Lizenz gestellt werden. Jetzt könnte man denken: Toll, Android, mit fast 75 Prozent das führende Betriebssystem für Smartphones weltweit, ist open source – wunderbar! Faktisch ist das System jedoch sehr unfrei. Handelsübliches Android kommt stets mit jeder Menge nicht freier Software von Google daher. Man könnte zugespitzt sagen, dass Google mit Android die Logik der digitalen Gegenwelt gehackt hat. Sie halten sich zwar an die Vorgabe, dass Android unter einer freien Lizenz stehen muss und trotzdem haben sie es geschafft, aus Android eine Basis der eigenen Daten- und Wirtschaftsmacht zu machen.
V-Blog: Die großen Tech-Unternehmen haben längst die Vorzüge der digitalen Gegenwelt für sich entdeckt. Android ist ein Beispiel, aber auch Server- und Rechenzentren der Konzerne laufen auf Linux. Vor diesem Hintergrund meint der Netzaktivist und Medienwissenschaftler Geert Lovink in einem V-Blog-Interview, die Open Source-Bewegung sei moralisch bankrott. Was sagen Sie zu dieser Einschätzung?
SM: Es stimmt, dass freie Software auch von Big Tech-Unternehmen dazu genutzt wurde, Produkte mit teilweise bedrückender Marktmacht aufzubauen. Hier zeigt sich ein Dilemma von freier Software: Sie kann auch von Akteuren genutzt werden, die Freiheiten einschränken. Man kann bedauern, dass Google es geschafft hat, mit Android eine neue Datenschleuder und Machtsäule aufzubauen. Man könnte dem aber auch entgegenhalten: Wenn das meistverbreitete Smartphone-Betriebssystem nicht open source wäre, wäre das besser? Nein, das wäre noch problematischer im Hinblick auf faire Verhältnisse.
Als Apple das iPhone auf den Markt gebracht hat, wurde schnell klar, dass eine neue Zeitrechnung für die digitale Ökonomie beginnt. Und um da mitzuspielen hat Google ein Start-up gekauft, das ursprünglich ein Betriebssystem für Digitalkameras entwickeln wollte. Und diese Entwicklung, aus der dann das Smartphone-Betriebssystem Android wurde, basierte auf Linux. So konnte Google in kurzer Zeit ein eigenes Smartphone-Betriebssystem auf den Markt bringen. Die hätten aber auch die Mittel gehabt, ein gänzlich proprietäres System zu entwickeln. So kann man zumindest daran arbeiten, Android von Google zu befreien, was verschiedene Projekte auch versuchen.
V-Blog: Big Tech nutzt Open Source-Software und finanziert Projekte mit großen Spendenprogrammen. Gehört die Feindschaft zwischen Open Source-Software und Big Tech der Vergangenheit an?
SM: Die Feindschaft zwischen Open Source und Big Tech wird zumindest nicht mehr so offen ausgetragen. Google betreibt mit Android faktisch das meistgenutzte Linux-basierte System der Welt und auch Microsoft hat sich für die Open Source-Community geöffnet und zum Beispiel GitHub übernommen, die große Plattform für Open Source-Entwicklungen. Google pumpt mit seinem Stipendienprogramm Summer of Code viel Geld in Open Source-Projekte. Das ist für sie vermutlich vor allem Arbeitgebermarketing: Google steckt jedes Jahr ein paar Millionen in das Stipendienprogramm und als Gegenleistung bekommen sie Daten über hochtalentierte Entwicklerinnen und Entwickler, die sie ansprechen und vielleicht rekrutieren können.
Aber auch auf der anderen Seite hat sich die Feindseligkeit abgeschwächt: Die Mitarbeit bei Open Source-Initiativen hat auch damit zu tun, dass man für potenzielle Arbeitgeber:innen interessant werden will. Denn gerade junge Leute können im Open Source-Bereich ihre Fähigkeiten zeigen. Mit Open Source-Projekten können sie ihren Lebenslauf aufbessern.
Es hat sich für die großen Tech-Konzerne sogar herausgestellt, dass es in bestimmten Situationen für sie strategisch Sinn macht, Software open source herauszugeben. Das hat zuerst Google mit Android praktiziert. Es war klar, dass sie Apple mit dem iPhone nicht so schnell schlagen können. Und dann hat Google sich gedacht: Okay, dann werden wir Marktführer bei einem Open Source-Betriebssystem. Das hat funktioniert. Vermutlich hat die gleiche Überlegung Meta dazu gebracht, Llama als Open Weight-Modell freizugeben. Open Weight bedeutet, dass die finalisierten Parameter des KI-Modells freigegeben werden, aber nicht der Trainingscode und der Trainingsdatensatz. Die haben sich gesagt: An OpenAI werden wir nicht so schnell herankommen, wahrscheinlich auch an die KI von Google nicht. Damit sie nicht von den KI-Modellen anderer Unternehmen abhängig werden und dafür Geld bezahlen müssen, hat Meta sich vermutlich gedacht: Dann werden wir Marktführer für Open Weight-Modelle. Das Geld dafür hat Meta.
Ich finde, das ist eine spannende Entwicklung, weil solche Logiken Unternehmen dazu bringen, Software oder KI-Modelle bzw. KI-Gewichte der Allgemeinheit zur Verfügung zu stellen. Dass die das aus eigennützigen Motiven machen, finde ich letztlich nebensächlich.
V-Blog: Aber man könnte mit Open Source-Software nicht diese Monopole aufbauen, wie Google das mit seiner Suchmaschine gemacht hat?
SM: Open Source trägt einen Keim für gerechtere Marktverhältnisse in sich. Das ist zum Beispiel bei Linux der Fall. Da gibt es auch einen Marktführer, bei den PC-Betriebssystemen ist das Ubuntu. Aber es gibt auch eine nicht-kommerzielle Abspaltung von Ubuntu namens Mint, die ist genauso groß, vielleicht sogar größer als Ubuntu. Da hat Open Source tatsächlich zu diverseren Marktverhältnissen geführt.
Bei Smartphone-Betriebssystemen ist das aber nicht der Fall. Die Marktanteile von Android schwanken je nach Land zwischen 40 und 70 Prozent. Da gibt es also ein freies Betriebssystem, aber es hat sich trotzdem ein völlig erdrückendes Duopol zweier Unternehmen gebildet – Google bzw. Alphabet mit Android und Apple mit iOS.
Open Source-Software ist also keine Garantie dafür, dass es faire Marktverhältnisse gibt. Eine Tendenz zu mehr Fairness besteht aber schon.
Künstliche Intelligenz stellt auch Verwertungsgesellschaften vor neue Herausforderungen. Wie sichern GEMA, VG Wort und VG Bild-Kunst die Rechte von Kreativen im KI-Zeitalter? Antworten aus einer Branche im Umbruch.
Von Konstantin Schönfelder | 10.07.2025
Erstellt mit Adobe Firefly
Verwertungsgesellschaften (VG) stehen in Zeiten künstlich generierter Inhalte – Texte, Bilder, Stimmen, Videos – in grellem Licht. Über diese Gesellschaften wird häufig wenig gesprochen, selbst unter jenen, die sie vertreten und die sie schützen, sind sie oft weniger bekannt als man denken könnte. So manche Autorinnen und Künstler sind nicht vertreten bei ihrer entsprechenden VG – und verpassen damit die Tantieme, die für ihre Inhalte eigentlich vorgesehen sind. Doch sie erfüllen eine essenzielle Bedeutung für Kreative: Sie stellen sicher, dass diejenigen, die Inhalte produzieren, auch an den Profiten beteiligt werden, die mit diesen gemacht werden.
Was passiert aber, wenn die hochpotenten generativen KIs nun mit eben diesen geschützten Werken trainiert werden und so zu Inhalten kommen, die nicht mehr auf diese verweisen? Wer sorgt dafür, dass die (in so einem Falle beträchtliche Menge an) ursprünglichen Urheber:innen auch weiter an jenem Ausschüttungs- und Beteiligungsmodell partizipieren dürfen, wenn ihre Werke dazu eingesetzt werden, generative KIs zu trainieren? Die VG könnten und werden bei dieser Frage ein Wörtchen mitreden.
Gegründet wurden sie nämlich dazu, das geistige Eigentum von Werken der Wissenschaft, Literatur und Kunst zu schützen. Da ein Text oder ein Lied durch viele Hände, Bibliotheken, Radiosendungen, Schulbücher oder Anthologien gehen kann, ist es für einen Urheber fast unmöglich, selbst die eigenen Ansprüche gegenüber der Vervielfältigung der eigenen Leistung einzufordern. Deshalb kann, im Falle eines Textes etwa, die VG Wort diese Vertretung gegenüber den „Rechteverwertern“ wahrnehmen, oder im Falle eines Songs die GEMA. Die VG agieren gewerkschaftsähnlich und treuhänderisch, sie sammeln Geld ein und schütten es anteilig an ihre Mitglieder aus. Im Detail ist das Verfahren durchaus kompliziert, es gibt insgesamt 13 VG in Deutschland, die im Jahr 2023 etwa 2 Milliarden Euro erwirtschafteten. Die größte unter ihnen ist mit einigem Abstand die GEMA.1
Bei der 50-jährigen Feier des Jubiläums der VG Wort im Jahr 2008 wurde die Gefahr des Internets für das bestehende Geschäftsmodell der VG beschworen. Der Publizist Heribert Prantl nannte den damals noch neuen Kommunikationsraum ein „Entblößungsmedium“ und sagte weiter: „Aus Orwell wird Orwellness, aus Datenaskese ist eine Datenekstase geworden“, das Netz werde zur „Selbstverschleuderungsmaschine“, mit der die Nutzer ihre Persönlichkeitsrechte „verschenken“.2 Auch wenn das heute etwas arg dystopisch anmuten mag, verweist der Impuls doch auf einen Strukturwandel für das Modell einer durch VG sichergestellten Kofinanzierung kreativwirtschaftlicher Produkte. Und vor einem solchen stehen die VG jetzt auch.
Deshalb haben wir bei drei der größten Verwertungsgesellschaften nachgefragt und um kurze Statements gebeten: Wie gehen Sie mit dem Aufkommen generativer KI’s um? Einmal bei der GEMA, die die Rechte der Urheber:innen von Musikwerken wahrt, die größte und bekannteste, die eine Musterklage gegen OpenAI bereits im November 2024 angestrengt hat;3 bei der VG Wort, zuständig für Sprachwerke; und bei der VG Bild-Kunst, verantwortlich für visuelle Werke. Alle drei versuchen, mit unterschiedlichen Mitteln ihre Urheber:innen zu schützen und zu unterstützen, sie monieren das komplexe und langwierige Einklagen europäischer Rechtsstandards und fragen sich, was man tun kann, wenn die mächtigen KI-Entwickler nur unter äußerstem Druck urheberrechtliche Verbindlichkeiten berücksichtigen.
Verantwortungsblog: Wie hat sich die Rolle der Verwertungsgesellschaft seit dem Aufkommen generativer Text-KI und der massenhaften Nutzung von freien und geschützten Daten verändert?
GEMA: Die GEMA nimmt die Interessen der Urheberinnen und Urheber sowie der Musikverlage wahr. Im KI-Zeitalter ist es Aufgabe der GEMA eine faire und angemessene Vergütung für die Nutzung der von der GEMA vertretenen Werke sicherzustellen. Hierfür setzen wir uns ein. Denn ohne die von unseren Mitgliedern geschaffenen Inhalt hätten KI-Systeme keinen Erfolg.
VG WORT: Die VG WORT befasst sich seit dem Aufkommen von generativer KI intensiv mit vielen offenen Fragen im Zusammenhang mit dieser neuen Technologie. Dabei geht es mit Blick auf den „Input“, also der Nutzung urheberrechtlich geschützter Werke für KI-Zwecke, vor allem darum, zu klären, inwieweit die VG WORT auf kollektiver Ebene für die von ihr vertretenen Urheber und Verlage tätig werden kann. Bereits im Sommer 2024 wurde der Wahrnehmungsvertrag der VG WORT geändert, um zukünftig Lizenzen für unternehmensinterne KI-Nutzungen anbieten zu können. Da das KI-Produkt, also der „Output“, urheberrechtlich nicht geschützt ist, besteht insoweit kein Anspruch auf Vergütungen der VG WORT. Die VG WORT lässt sich deshalb bei der Meldung versichern, dass es sich bei dem Text um ein urheberrechtlich geschütztes Werk handelt und nicht um ein reines KI-Produkt.
VG Bild-Kunst: Unsere Rolle als Treuhänder für unsere 70.000 Mitglieder hat sich nicht verändert: Wir setzen uns nach wie vor für eine Fortentwicklung des Urheberrechts im Sinne der Urheber:innen ein. Natürlich ist die Bedrohung kreativen menschlichen Schaffens seit dem Aufkommen von KI stark angestiegen. Unser Schwerpunkt liegt darin, eine angemessene Vergütung für die Verwendung geschützter Werke zu Trainingszwecken zu erringen. Hierfür sehen wir allerdings eine Gesetzesfortentwicklung als wichtig an. Der bestehende Gesetzesrahmen stammt noch aus der Zeit vor der massenhaften Verbreitung generativer KI.
V-Blog: Welche Möglichkeiten hat der AI-Act geschaffen, um Urheberrechte vor unerlaubter Nutzung durch die KI zu schützen?
GEMA: Der AI-Act fordert einen funktionierenden Lizenzmarkt für die Nutzung von urheberrechtlich geschützten Inhalten. Dies entspricht der Intention der GEMA, für die Nutzung von geschützten Werken Lizenzen zu vergeben. Konkret sieht der AI-Act Transparenzpflichten vor, nach denen die KI-Anbieter offenlegen müssen, welche Inhalte sie für das Training ihrer Systeme genutzt haben. Die Umsetzung dieser Pflichten liegt beim AI-Office in Brüssel. Leider kommt die Behörde dieser Verpflichtung aktuell nur äußerst unzureichend nach.
VG WORT: Die KI-Verordnung (KI-VO) sieht im Hinblick auf den Schutz des Urheberrechts vor allem folgende Verpflichtungen der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck vor (vgl. Art. 53 Abs. 1 lit. c und d KI-VO):
– sie müssen eine Strategie zur Einhaltung des Urheberrechts der EU zur Ermittlung und Einhaltung eines Rechtevorbehalts vorlegen;
– sie müssen eine hinreichend detaillierte Zusammenfassung der für das Training des KI-Modells verwendeten Inhalte veröffentlichen.
Derzeit wird im Rahmen einer von der EU-Kommission initiierten Arbeitsgruppe ein sogenannter „Code of Practice“ erarbeitet. Ferner werden derzeit Entwürfe auf EU-Ebene diskutiert, die sich auf die erwähnte Zusammenfassung der verwendeten Inhalte beziehen. Wichtig ist, dass es sich bei der KI-VO nicht um – zivilrechtliche – urheberrechtliche Regelungen handelt. Die Frage, inwieweit Vorgaben der KI-VO zivilrechtlich durchgesetzt werden können, wird derzeit fachlich diskutiert.
VG Bild-Kunst: Aus unserer Sicht verfolgt der AI-Act nicht das Ziel, Urheberrechte zu schützen. Die Arbeit des AI-Office in diese Richtung sehen wir realistisch als das, was es ist: ein Feigenblatt. Das eigentliche Ziel der EU und der meisten EU-Staaten besteht darin, in Sachen KI gegenüber USA und China Boden wieder gutzumachen.
V-Blog: Besteht die Option auf ein juristisch belastbares „Opt-Out“ vom Einsatz als Trainingsdaten auch nachträglich und auch dann, wenn Verlage zu einem Werk sich „künftige“ digitale Nutzungsweisen haben zusichern lassen oder unter einer „CC-BY“-Lizenz publiziert wurde?
GEMA: Die GEMA hat den Opt-Out unmittelbar nach Inkrafttreten des Gesetzes erklärt. Nutzungen von GEMA-Werken verstoßen daher in jedem Fall gegen das Urheberrecht, wenn keine angemessene Vergütung gezahlt wird, bzw. keine Lizenz erworben wird.
VG WORT: Ein Nutzungsvorbehalt nach § 44b Abs. 3 UrhG wirkt ausweislich der Gesetzesbegründung nicht für die Vergangenheit, sondern nur für die Zukunft („ex nunc“). Ansonsten kommt es darauf an, welche Vereinbarungen Urheber und Verlage in Bezug auf KI-Nutzungen abgeschlossen haben. Ob bei Werken, die unter einer CC-BY-Lizenz veröffentlicht werden, ein Opt-Out erklärt werden kann, bedarf noch näherer Prüfung.
VG Bild-Kunst: Aus unserer Sicht ist fraglich, wie ein Opt-Out global funktionieren soll. Mir hat noch niemand bewiesen, dass sich China im Bildsektor an irgendwelche Regeln hält. Trotzdem nutzt mein Sohn Deep Seek hier in Deutschland. Insofern gebe ich die Frage zurück und frage, was Sie unter „juristisch belastbar“ verstehen. Nur die Rechtslage in Deutschland? Damit können unsere Mitglieder wohl nicht viel anfangen, wenn alle großen KI-Anbieter im Ausland sitzen.
V-Blog: Inwiefern ist die Klage der GEMA aus dem November 2024 für eine faire Vergütung der Datennutzung für die VG Wort beispielhaft?
GEMA: Die GEMA hat ein Lizenzmodell veröffentlicht, das es KI-Unternehmen ermöglicht, das GEMA-Repertoire für das Training ihrer Systeme zu nutzen. Die Klagen dienen der Durchsetzung des Lizenzmodells. Leider haben wir die Erfahrung gemacht, dass die großen Tech-Unternehmen nur unter juristischem Zwang bereit sind, das Urheberrecht zu achten. Wir sehen letztlich keinen Zielkonflikt mit den Unternehmen. Die GEMA möchte ihr Repertoire zur Verfügung stellen. An der wirtschaftlichen Verwertung müssen dann aber auch diejenigen beteiligt werden, die die genutzten Inhalte geschaffen haben.
VG WORT: Die VG WORT verfolgt die Klagen der GEMA gegen große KI-Entwickler sehr aufmerksam. Es ist zu hoffen, dass hier einige offene Fragen grundsätzlicher Art im Zusammenhang mit der Nutzung geschützter Werke für KI-Zwecke geklärt werden.
VG Bild-Kunst: Es ist wichtig, dass man die bestehende Rechtslage vor den Gerichten überprüft, um Gesetzeslücken beweisen zu können. Gleichwohl leiden alle Verfahren darunter, dass der Rechtsweg bis zum EuGH locker 10 bis 12 Jahre dauern kann. Es wäre deshalb wünschenswert, wenn die Politik sich des Themas der fairen Vergütung schon vorher annehmen würde. Im Übrigen unterstützt die VG Bild-Kunst den Fotografen Robert Kneschke in seinem Verfahren gegen LAION vor der Berufungsinstanz (Hanseatisches Oberlandesgericht) und das bereits bevor die GEMA ihre Klagen eingereicht hat.4
V-Blog: Welche Maßnahmen strebt die VG an, um die Rechte ihrer Urheber zu schützen?
VG WORT: Die VG WORT hat ihren Wahrnehmungsvertrag im Sommer 2024 geändert und wird demnächst Lizenzen für die unternehmensinterne Nutzung von geschützten Werken für KI-Zwecke anbieten.5 Ausführliche Informationen zu diesem neuen Geschäftsmodell finden sich auf der Homepage der VG WORT.6
VG Bild-Kunst: Die Mitgliederversammlung hat 2024 eine Ergänzung der Wahrnehmungsverträge im Hinblick auf KI-Rechte beschlossen. Wir sind dabei, die individuellen Wahrnehmungsverträge anzupassen. Es wird Sache der Berufsgruppenversammlungen sein zu diskutieren, ob und wenn ja, wann die Bild-Kunst mit Lizenzen an den Markt herantreten soll. Hier spielt auch eine Rolle, inwieweit wir internationales Repertoire vertreten können und/oder ob wir gemeinsam mit unseren ausländischen Schwestergesellschaften eine globale Lizenz anbieten können. Weil solche Abstimmungen Zeit brauchen und für jede Sparte gesondert geführt werden müssen (Bild / Film) sehe ich kurzfristig noch keine solche Lizenz am Start.■
Wir danken Robert Staats (VG WORT) und Urban Pappi (VG Bild-Kunst) für ihre Auskünfte.
Schönfelder, Konstantin (2025): Verwertungsgesellschaften in Zeiten der KI. In: Verantwortungsblog. https://zevedi.de/verwertungsgesellschaften-in-zeiten-der-ki/ [10.07.2025]. https://doi.org/10.60805/twva-j964.
Wird die KI die menschliche Intelligenz überflügeln? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Vor allem aber: welcher KI überhaupt? Aus Sicht der Forschungspraxis geht es da um die Details. Im dritten Teil der Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Kristian Kersting über das (noch vorhandene) Skalierungspotential von Large Language Models gesprochen, über den Ansatz des „Reasonings“, über vernünftigere und vielleicht bald nachhaltige KI sowie über die Weltansichten, die in der Diskussion um eine Allgemeine Künstliche Intelligenz eine Rolle spielen.
Interview mit Kristian Kersting | 18.06.2025
Werden wir LLMs bald recyceln? Bild erstellt mit Adobe Firefly.
Verantwortungsblog: Die neueren Versionen der großen Sprachmodelle haben nicht die erwarteten Leistungssteigerungen gebracht, vor allem angesichts des enormen Energieverbrauchs des Trainings – beispielsweise GPT-4.5 von OpenAI. Ist das Potenzial der großen Sprachmodelle, die Skalierung, wie wir sie in den letzten Jahren beobachtet haben, ausgereizt?
Kristian Kersting: Das sind mehrere Fragen: Ist die Skalierung ausgereizt und ist der Energieaufwand gerechtfertigt? Man könnte auch fragen: Wo liegt die Zukunft der KI-Entwicklung? Da gibt es unterschiedliche empirische Ergebnisse. In einigen Evaluierungen sieht man, dass viele der aktuell trainierten Sprachmodelle, in der Performance nicht mehr so skalieren, wie man sich das erhofft hat. Von daher meinen manche Beobachter, dass wir einen Plateaueffekt sehen. Andere sehen den aber noch nicht. Dass diese zuletzt genannten Stimmen keinen Plateaueffekt sehen, liegt auch an einer neuen KI-Trainingsmethode, die beispielsweise bei DeepSeek-R1 zu so guten Ergebnissen geführt hat. Diese Methode wird manchmal als „Reasoning“ verkauft. Aber aktuelle Arbeiten zeigen, dass das nicht Reasoning im Sinne dessen ist, was man früher in der KI-Forschung als „Schlussfolgern“ bezeichnet hat. Aber nennen wir es mal Reasoning. Und, ja: Ich glaube, transformerbasierte Architekturen mit enorm vielen Daten und riesiger Recheninfrastruktur zu trainieren, der Weg also, der in den letzten Jahren zu so großen Erfolgen geführt hat, da scheint ein Plateaueffekt eingetreten zu sein. Es wird weiterhin Verbesserungen geben, die werden aber nicht mehr so groß sein. Es gibt auch das Argument, dass irgendwann nicht mehr genügend Daten vorhanden sein werden, um mit dieser Strategie bessere KI-Modelle zu entwickeln.
Der Energieverbrauch wird aber auch mit der neuen Trainingsmethode von DeepSeek nicht sinken. Denn die Sprachmodelle, die mit Reinforcement Learning im Sinne von Reasoning trainiert werden, die sind zwar kostengünstiger im Training, aber zur Inferenzzeit, beim Reasoning, sind sie kostspieliger. Die entscheidende Frage ist: Ist der Einsatz der Energie gerechtfertigt? In Darmstadt forschen wir daran, zumindest in der Langzeitperspektive weniger Energie zu verbrauchen. Denn wir haben ja ein gutes Beispiel für effizientes Rechnen: Wir Menschen verbrauchen beim Denken auch Energie, aber wir sind dabei im Vergleich zur KI sehr effizient. Andererseits müsste man sich mal vorstellen, alle hätten einen Assistenten an ihrer Seite, einen Menschen, den sie jederzeit zu allem fragen könnten – dazu müsste die Weltbevölkerung verdoppelt werden. Das würde den Energieverbrauch auch enorm steigern. Daher: Die Aussage, dass KI sehr viel Energie verbraucht, muss man in den Kontext setzen und diskutieren.
Wichtiger für die aktuelle Entwicklung der KI ist eine andere Frage: Da wurden gewaltige Investments getätigt, die sich auszahlen müssen. Diese Frage treibt die Akteure um.
V-Blog: In einem FAZ-Beitrag haben Sie gesagt, Stargate und DeepSeek seien eine Chance für Europa. Stargate steht für dieses ressourcenintensive Trainingsmodell: Sehr viele Daten, sehr viel Energie, sehr viel Rechenkapazität aufwenden, um noch größere KI-Modelle zu bauen. DeepSeek steht, wie Sie schon angedeutet haben, zumindest oberflächlich betrachtet für einen anderen Ansatz. Inwiefern ergeben sich durch beide Chancen für Europa?
KK: DeepSeek ist eine Chance, weil es zeigt, dass wir nicht einfach nur die Rechenkapazität und die Modellarchitektur hochskalieren müssen und dann emergiert oder entsteht Intelligenz. Ich fand das schon fast übergriffig, wenn gesagt wurde, dieses große alte Phänomen der Intelligenz, das ist ein reines Skalierungsphänomen: Wenn die Masse an Daten und an GPU groß genug ist, kommt da irgendwann einfach Intelligenz heraus. Das kann sein, ich bin ja kein Prophet, ich weiß nicht, was die Zukunft bringt. Aber es würde mich vor dem Hintergrund meiner eigenen Forschungsergebnisse sehr wundern.
V-Blog: Was hat DeepSeek anders gemacht?
KK: Für das Modell wurde das Deep Learning mittels Transformern kombiniert mit einem sogenannten Post-Compute-Ansatz. Durch zusätzliche Algorithmen, bei DeepSeek ist es ein relativ einfacher Suchalgorithmus, der durch Reinforcement Learning trainiert wurde, hat man versucht, das KI-Modell nach dem Training bei der Generierung einer Antwort leistungsfähiger, sozusagen aussagekräftiger zu machen. Also Deep Learning plus ein bisschen Suche.
Es gibt ja ganz viele andere Algorithmen aus der klassischen, symbolischen KI, die vielleicht viel stärker sind als dieser einfache Suchalgorithmus. Und daran wollen wir in dem Exzellenzcluster „Reasonable AI“ arbeiten, den wir beantragt haben. Das ist die Chance, die wir sehen: Wir brauchen nicht nur große Investments in die Recheninfrastruktur, sondern auch diese Verfeinerung der Modelle durch starke Algorithmen.
V-Blog: Und Stargate?
KK: Das Stargate-Projekt von OpenAI zeigt uns, dass wir investieren müssen. Ich habe ja ein CERN für die KI vorgeschlagen, denn bis wir die richtige Kombination und die neue KI-Generation gefunden haben, müssen wir trotzdem mitspielen können, damit die Wertschöpfung durch KI auch in Europa möglich ist. Sonst habe ich die Sorge, dass wir den Anschluss so stark verlieren, dass wir nicht mehr mitreden können. Vielleicht gibt es private Rechner, die ich nicht kenne, aber wenn wir uns die Computerinfrastruktur in Deutschland anschauen, dann ist nur der Exascale-Rechner am Forschungszentrum Jülich in der Lage, DeepSeek-R1 „from scratch“ zu lernen. Dass diese Modelle wie DeepSeek-R1 effizienter sind, bedeutet nicht, dass sie billig sind und man sie mal eben auf dem Heimrechner rechnen kann. Auch für diese Modelle braucht man spezielle und sehr kostspielige Hardware. DeepSeek-R1 soll sechs oder sieben Millionen US-Dollar gekostet haben, selbst wenn es zehn Millionen gewesen sind: Das war nur der letzte Trainingslauf. Auf dem Weg dorthin musste man das eine oder andere ausprobieren. Das kostet auch. Dann braucht man die Hardware und dann ist da noch das Team von 200 Leuten, wenn man den Berichten trauen kann. Die haben auch Gehälter. DeepSeek gehört einem Hedgefonds, den der DeepSeek-Gründer zuvor mitgegründet hatte und der angeblich mehrere Milliarden Dollar verwaltet. Wir sollten uns also nicht der Illusion hingeben, dass KI mit DeepSeek billig geworden ist. Es ist nur sehr viel kostengünstiger als alles, was wir zuvor gesehen haben. Deswegen die Angst auf US-Seite. Die US-Firmen haben darauf hingearbeitet, dass allein sie diese Modelle trainieren können. DeepSeek hat gezeigt, dass auch andere es können.
Wenn wir also etwas investieren, vielleicht nicht die 500 Milliarden US-Dollar, die im Zusammenhang mit dem Stargate-Projekt genannt werden, dann können wir in Europa mithalten. Und ich schlage ein CERN für die KI vor, weil ich hoffe, dass wir einen öffentlichen Weg für die KI vorantreiben können. Öffentliche Gelder allein können es angesichts der erforderlichen Dimensionen nicht sein, es wird wahrscheinlich auch Geld der Privatwirtschaft brauchen. Deswegen wünsche ich mir entsprechende Partnerschaften für die KI.
V-Blog: In einem Podcast sprechen Sie von einem „Apollo-Programm für die Forschungspolitik“. Wie unterscheidet sich dieses Programm vom Stargate-Projekt von OpenAI?
KK: Das Apollo-Programm, das mir vorschwebt, und auch das CERN für die KI bewegen sich nicht in den Dimensionen der Investments, die für das OpenAI-Projekt allein aufgebracht werden sollen. Das würde kein Staat in Europa leisten können, wahrscheinlich auch die EU nicht. Aber es sollte klar sein, dass 10 Millionen oder Investments in dieser Größenordnung nicht auseichen werden. Der Investitionsbedarf ist enorm.
Und da möchte ich die Gegenfrage stellen: Warum investieren wir solche Summen in die Erforschung des Urknalls, also in das CERN? Ich finde diese Forschung sehr spannend, aber wie viel bringt es der europäischen Wirtschaft? Bringt es Erkenntnisse, die uns im Kampf gegen den Klimawandel helfen? Wenn wir bei der wirtschaftlichen Wertschöpfung der Zukunft mitspielen wollen, dann müssen wir entsprechend investieren. Das muss nicht die Stargate-Dimensionen haben und der öffentliche Sektor soll mitmischen, daher ein Apollo-Programm für die KI bzw. ein KI-CERN. Ich möchte nicht, dass die KI-Wertschöpfung allein in private Taschen fließt, ich glaube, es sollte eine öffentliche Infrastruktur sein. Aber wir müssen investieren und ich begrüße die InvestAI-Initiative der EU – endlich ist da mal eine Vision. Die KI-Gigafabriken, um die es da auch geht, werden deutlich kleiner sein, als das, was in den USA entstehen soll, und ich finde gut, dass es um partizipative Projekte geht, an denen verschiedene Firmen und auch öffentliche Forschungsinstitute sich beteiligen sollen. Das kann man sicherlich auch weiter- und anders denken. Ich hoffe und erwarte, dass wir in Zukunft ganz andere Kombinationen sehen werden und auch die Energiekosten der KI gesenkt werden. Wir müssen aber loslegen. Wenn wir zehn Jahre warten, dann ist der Zug abgefahren.
V-Blog: Welche Rolle soll die öffentliche Hand oder der Staat dabei konkret einnehmen?
KK: Der Staat könnte damit beginnen, ein CERN für die KI zu bauen, also einen Hochleistungsrechner, der allein für die KI-Forschung vorgesehen ist. Damit haben wir in der EU ja auch angefangen, am Forschungszentrum Jülich mit dem Jupiter, mit dem Leonardo in Bologna und mit LUMI in Kajaani in Finnland. Jülich ist für eine KI-Gigafabrik im Gespräch. Es gibt also Ideen. Ein Exascale-Rechner, der nur für KI vorgesehen ist, das wäre ein Anfang. Denn wie sollen wir KI-Modelle entwickeln, wenn wir mit Physikern und anderen Disziplinen um Rechenzeit konkurrieren? Ich will ja nicht mit Klimamodellen konkurrieren, die sollen auch gerechnet werden können. Aber, wenn wir mitspielen wollen, dann müssen wir uns irgendwann dazu entscheiden, KI ernst zu nehmen. So richtig ernst nehmen wir KI in Europa aktuell nicht. Es gibt viele Lippenbekenntnisse. Es gab beispielsweise die EU-AI-Champions-Initiative und da war von 150 Milliarden Euro die Rede, aber schon nach kurzer Zeit ist diese Zahl wieder von der Webseite runtergenommen worden.
Wir müssen eigene Fähigkeiten aufbauen, oder glauben wir wirklich, dass uns die US-Unternehmen das heilbringende Modell geben werden? Das glaube ich nicht. Wir müssen unsere Zukunft selbst in die Hand nehmen. Nur so können wir sicher sein, dass diese KI-Systeme auch mit unseren Werten kompatibel sind.
Worüber wir dann auch reden können: Wo wollen wir KI einsetzen und wo nicht? Jetzt können wir nur darauf warten, dass wir die Antwort von irgendwoher bekommen.
V-Blog: Der Staat sollte also eigene Infrastruktur aufbauen, beispielsweise eine eigene Schul-Cloud oder eine Schul-KI?
KK: Was im Moment passiert, ist wegen des Föderalismus sehr heterogen. Manche versuchen das datenschutzkonform hinzubekommen, andere nutzen beispielsweise einfach die Dienste von US-Unternehmen. Und dann ist die Frage: Wo gehen unsere Daten hin? Jetzt könnten wir sagen, der Cloud-Betrieb ist uns so wichtig, dass wir da souverän sein wollen. Dann könnte der Bund einen Cloud-Betreiber beauftragen, nach seinen Bedingungen eine Cloud zu betreiben. Man hätte dann nicht mit vielen Wettbewerbern zu tun, unter denen man auswählen muss und bei denen man aber nicht sicher sein kann, was mit den Daten passiert. Das finde ich wichtig. Ich möchte nicht, dass alles in privatwirtschaftlicher Hand ist, denn, es gibt Dinge, die meiner Meinung nach eher in die öffentliche Hand gehören. Das kann aber nicht überall so sein und deswegen brauchen wir Kombinationen, also Öffentlich-Private-Partnerschaften.
Was ich mir auch vorstellen könnte: Wir bilden an den öffentlich finanzierten Universitäten den Nachwuchs für die Privatwirtschaft aus. Warum wird nicht beispielsweise ein Deutschland-KI-Fonds eingerichtet, in den die Privatwirtschaft einzahlt und auf den die Universitäten Zugriff haben? Man kann sich ganz viele verschiedene Möglichkeiten der Kombination von Privatwirtschaft und Staat vorstellen. Deswegen bin ich gespannt, was aus dem neuen Digitalministerium kommen wird und auch darauf, wie die Kompetenzen zwischen diesem Ministerium und dem Ministerium für Forschung, Technologie und Raumfahrt verteilt sein werden. Bei welchem Ministerium liegen die KI und die Infrastruktur für die KI-Forschung?
V-Blog: In dem bereits erwähnten FAZ-Beitrag haben Sie gemeint, dass DeepSeek einen Blick auf eine „reasonable AI“, eine vernünftige KI, eröffne, für die Sie auch eintreten. Inwiefern deutet sich mit DeepSeek diese vernünftige KI an?
KK: „Vernünftige KI“ ist der deutsche Titel unseres geplanten Exzellenzclusters. Dabei handelt es sich um die Übersetzung des englischen Titels: „Reasonable Artifical Intelligence“. Den Exzellenzcluster haben wir so getauft, weil es ein schönes Wortspiel ist: Es geht weniger um Vernunft und mehr darum, dass ein kluger oder eben vernünftiger Ressourceneinsatz stattfindet. Was wir im Kern erreichen wollen, ist, lernende Systeme, also Deep Learning, mit Schlussfolgern in Systemen, also mit Logik und symbolischer KI, zu kombinieren. Wie das gut gelingen kann, ist eine offene Forschungsfrage. Da gibt es verschiedene Möglichkeiten, denen man nachgehen kann. Eine Möglichkeit wurde bei DeepSeek-R1 angewendet, das haben wir vorhin besprochen: Auf das Deep Learning folgt als Schlussvorgang eine relativ einfache Suche. Das ist alles.
Warum nennen wir das „Reasonable“? Im Englischen nennt man dieses Schlussfolgern, das auf das Deep Learning folgt, „Reasoning“. Und für das Exzellenzcluster haben wir den Begriff „Reasonable“ gewählt, weil wir die Message senden wollten: Die KI, an der wir arbeiten, ist „reasonable“ im Sinne der besseren Ressourcennutzung, des besseren Datenschutzes und der realistischeren Erwartungen. Es ist nicht so, dass wir dachten, wir könnten mit unseren Schlussfolgerungsmethoden Vernunft im philosophischen Sinne nachbilden. Das wäre sehr anmaßend. Das ist nicht unser Anspruch. Bei Reasonable AI geht es darum, das Schlussfolgern durch smarte Algorithmen in die KI-Systeme zu integrieren. Denn die KI-Forschung existiert ja mindestens seit 1956 und in den vergangenen Jahrzehnten sind einige Algorithmen entstanden. Diese Algorithmen, die oft für ein spezielles Ziel, für eine bestimmte Aufgabe entwickelt worden sind, können garantiert zuverlässige und optimale Lösungen liefern, den optimalen Plan ausgeben, sie verbrauchen auch für den Lösungsweg keine enormen Ressourcen. Und bei Reasonable AI geht es um die Frage, wie wir diese smarten Algorithmen mit Deep Learning, also mit den Large Language Models kombinieren können.
V-Blog: Sie hatten schon zuvor die Bedeutung des Reinforcement Learning betont, aber das spielte doch schon beim Training der LLMs eine entscheidende Rolle. Wie unterscheidet sich der neue Ansatz vom alten? Geht es um LLMs, die für einen speziellen Bereich trainiert werden oder für die Beantwortung der Fragen zu einem bestimmten Themenbereich weniger Ressourcen verbrauchen?
KK: Wir können mittlerweile auf einige Large-Language-Modelle zurückgreifen, die schon trainiert sind. Die muss man ja nicht wegschmeißen. Man kann sie als Grundlage nutzen, auf der man aufbauen kann. Das hat DeepSeek ja gemacht. Und das Reinforcement Learning können Sie sich so vorstellen: Wir haben ein System, das uns sagt, für diese Antwort mache ich diese Schlussfolgerungsschritte und am Ende erhalte ich die Antwort Ja oder Nein. Jetzt kann man sich überlegen, wie entscheide ich, welches die nächste beste Unterfrage ist, um zu dieser Antwort zu kommen? Und das kann man über Reinforcement Learning klären. Wenn keine Logik mit einem konkreten Schlussfolgerungsweg vorgegeben ist, dann kann ich versuchen, das LLM dazu zu bringen, die optimalen Schlussfolgerungsschritte zu lernen. Das ist ein wenig wie mit den Trampelfaden von Ameisen: Eine Ameise geht da lang, eine andere dort lang. Eine dritte Ameise läuft da lang, wo sich eine Überlappung ergeben hat. So ist das beim Reinforcement Learning in gewissem Sinne auch. Man hat viele richtige Antworten und über die Zeit versucht man, das Modell dazu zu bringen, das Relevante darüber zu lernen, also zu lernen, entscheiden zu können, was der nächste richtige Schritt ist. Das ist der „Chain-of-Thought“-Ansatz, an dem gerade gearbeitet wird. Das ist eine Art, wie man versuchen kann, das Schlussfolgern in KI-Systemen zu integrieren.
Wir haben in vielen Domänen klare Regeln dafür, was richtig und was falsch ist, beispielsweise in der Wissenschaft – vielleicht nicht für alle Themen und alle Fragen, aber auf Grundlage dieser Regeln kann man Vorhersagen treffen. Oder in der Statik kennen wir klare Regeln für die statisch richtige Bauweise. Wir kennen diese Regeln und müssen sie nicht immer wieder durch kompliziertes ressourcenintensives datengetriebenes Lernen neu ermitteln. Es macht doch mehr Sinn, diese Regeln in Form von Algorithmen, die wir entwickelt haben, mit Large Language Models zu kombinieren. Man muss nicht entweder auf effiziente Algorithmen setzen oder auf LLMs, man kann beide kombinieren.
V-Blog: Gehört die Retrieval Augmented Generation, also die Nutzung von anderen Informationsquellen als den Trainingsdatensatz eines LLM, auch in diesen Bereich?
KK: Auch das ist eine Kombination, die gemacht wird. Und es gibt noch andere spannende Möglichkeiten. Es gibt beispielsweise die Überlegung, dass das Modell, während es die Antwort ausgibt oder im Nachgang dazu, den Vorgang gewissermaßen reflektiert. Durch diesen Reasoning-Prozess soll das Modell eine falsche Ausgabe revidieren und korrigieren. Dadurch hofft man, das Konfabulieren – das, was immer „Halluzinieren“ genannt wird –, zu reduzieren. Aber da gibt es noch viele offene Fragen.
Durch diese Kombinationen kann man nicht nur die KI-Systeme verbessern, sondern es ergeben sich auch Rückwirkungen auf die Informatik, auf das Software-Engineering: Das ist schon lange nicht mehr Spaghetti-Code, also ein Bandwurm an Code, den man herunterschreibt, sondern modularisiert, also man lädt sich den Code, den man braucht, aus Libraries herunter. Und diesen Code kann man relativ frei kombinieren. Dieses Prinzip möchten wir im Exzellenzcluster auf KI anwenden und damit wiederum auch das Software-Engineering neu denken. So wollen wir zu einer neuen Sicht auf die Informatik kommen, auf das, was Computer Science ist.
V-Blog: Und dieses Kombinieren wäre auch nachhaltiger?
KK: Wir haben alle etwas unterschiedliche Idee davon, was mit „nachhaltig“ gemeint ist. Wahrscheinlich gibt es Leute, die sagen, KI kann nur nachhaltig sein, wenn ein Prompt nur so viel Energie verbraucht wie eine normale Suchanfrage bei Google. Ich weiß nicht, ob das ein sinnvolles Kriterium für nachhaltige KI ist, aber ich glaube jedenfalls, wir können es kostengünstiger machen, als es aktuell der Fall ist.
Ich hoffe, dass wir in Zukunft einerseits nicht immer und immer wieder Large Language Models trainieren und dass andererseits das Schlussfolgern energetisch kostengünstiger wird. Denn wenn immer mehr Menschen KI-Systeme nutzen und die Systeme immer länger nachdenken – das ist ein energieintensiver Vorgang –, dann haben wir ein Problem. Wir müssen es hinkriegen, weniger Energie zu verbrauchen. Es ist aber völlig offen, wie das gehen kann. Wir wissen, dass der Mensch es kann, und diese menschliche Effizienz müssen wir auch mit der KI erreichen. Ein erster Schritt wäre es, existierende Sprachmodelle wiederzuverwenden – ein wenig wie eine Kreislaufwirtschaft oder ein Secondhandladen für KI.
Da stehen wir in Europa aber vor einem Problem: Bis auf Mistral und ein paar andere Modelle hat Europa nicht viel zu bieten. Wenn die neuesten Modelle in Europa nicht mehr anwendbar sein sollten, Llama 4 kann in Europa von Unternehmen oder Personen beispielsweise nicht genutzt werden, dann werden wir abgehängt, wenn wir nicht auf Eigenentwicklungen zurückgreifen können.
V-Blog: Es ergibt sich also auch hier ein Rebound-Effekt: Einsparungen werden durch vermehrte Nutzung wieder übertroffen?
KK: Ja, der Energieverbrauch von DeepSeek ist gestiegen, weil immer mehr Leute das Modell benutzen. Und wegen solcher Effekte brauchen wir einen gesellschaftlichen Diskurs: Die Gesellschaft muss verstehen, dass wir vielleicht nicht überall KI einsetzen müssen. Das ist eine Diskussion, die wir führen müssen. Ähnlich, wie wir das in anderen Bereichen auch machen: Muss ich für alles mein Auto benutzen? Ich bin es gewohnt und deswegen ist es für mich hart, wenn ich es nicht mehr benutzen kann, um Brötchen beim Bäcker um die Ecke zu holen. So ähnlich ist das auch mit der KI. Ich würde sagen, man muss KI nicht überall einsetzen. Eine Mehrheit möchte auch kein biologisches Klonen von Menschen. Ich möchte nicht ultimativ die menschliche Intelligenz digital abbilden. Oder wenn wir uns als Gesellschaft dafür entscheiden, dass Arbeiten wichtig ist, macht es keinen Sinn, die technischen Bedingungen dafür zu schaffen, dass kein Mensch mehr arbeiten muss. Wenn wir uns aber dafür entscheiden, dass wir nicht mehr arbeiten wollen und wenn sich dadurch keine negativen sozialen Folgen ergeben, dann ist es wünschenswert, dass Roboter entwickelt werden. Diese Diskussionen müssen wir endlich führen.
Aber ja, KI kann nachhaltig sein, die Frage ist nur: Ab wann? Und können wir riskieren, dass auf dem Weg dorthin zu viel Energie verbrannt wird? Das kann passieren. Man muss aber auch überlegen: Wo wird noch mehr Energie verbrannt? Den Energieverbrauch von KI zu kritisieren, den des Video-Streamings aber nicht, der derzeit vielleicht deutlich höher ist, das leuchtet mir nicht ein. Wir ziehen in der Region um Frankfurt ein Rechenzentrum nach dem anderen hoch, aber das meiste davon hat nichts mit KI zu tun. Während uns das Streaming nur unterhält, kann uns KI zumindest dabei helfen, gewisse Dinge anzugehen.
V-Blog: Es geht also letztlich um die Frage, wie wir unsere Gesellschaft gestalten wollen?
KK: Das soll keine Nebelkerze sein: Es sollte alles dafür getan werden, dass KI so wenig Energie wie möglich verbraucht. Aber es sollte auch ein Kosten-Nutzen-Vergleich stattfinden, denn: Wer bearbeitet hierzulande die Anträge, wenn der demografische Wandel sich so stark auswirkt, dass die Ämter nicht mehr besetzt werden können? Wollen wir den Energieverbrauch um jeden Preis senken, dafür aber sozialen Unfrieden riskieren? Der demografische Wandel in Deutschland ist da, die Boomer-Generationen gehen bald in Rente und wer bearbeitet dann unsere Anträge? Wir müssen dafür Lösungen finden und ich glaube, dass KI zur Lösung beitragen kann. Wenn wir keine Migration zulassen wollen, wer soll die Arbeit machen?
V-Blog: Es geht also darum, sich zu fragen, in welchen Bereichen lohnt sich der Einsatz und der damit einhergehende Energieverbrauch und wo nicht? Gemäß den Zielen und Werten, auf die wir uns verständigt haben?
KK: Das wäre ein guter erster Schritt. Es ist immer schwierig, Dinge per Gesetz zu verbieten oder einzuschränken. Das ist ähnlich wie mit der Diskussion um den Klimawandel. Ich glaube, in Bezug auf den Klimawandel wird es Dinge geben, die wir einfach vorgeben müssen. Das tun wir in anderen Bereichen ja auch: Die Regeln für den Straßenverkehr sind vorgegeben. Solche Regeln und Gesetze müssen auch für die KI entwickelt werden.
Wenn es um die Regulierung von KI geht, habe ich nur Angst davor, dass KI-Systeme mit dem Menschen gleichgesetzt werden. Diese Systeme sind von dem, was wir Menschen können, noch weit entfernt. Aber wenn wir aus der Perspektive regulieren, dass KI menschenähnlich ist, dann verlieren wir Innovationspotential. Denn dann wird KI nur für die Rationalisierung verwendet. Vorhin habe ich ein bisschen naiv gesagt, es geht darum, uns Menschen zu entlasten. Und klar: Wenn es kostengünstiger ist, eine Maschine einzusetzen, dann wird man in der Marktwirtschaft dazu tendieren, den Menschen zu ersetzen. Wenn die Gesellschaft das nicht will, dann können entsprechende Gesetze erlassen werden. Da sind wir wieder bei der gesellschaftlichen Diskussion.
Deswegen nochmal: Der erste große Schritt ist der Austausch zwischen unterschiedlichen Disziplinen. Es muss nicht jeder mit jedem reden, aber, um mal Kritik zu äußern: Ich verstehe nicht, warum im Deutschen Ethikrat nicht jemand mit echter KI-Expertise vertreten ist, jemand, der sich tagtäglich mit KI beschäftigt, obwohl es eines der großen Themen ist, das alle Bereiche betrifft. Wir müssen akzeptieren, dass KI relevant ist und in solche Gremien hineingehört, damit diese Diskussion beginnt. Das Thema gehört auch in die Schulen. Dazu fehlen uns aber derzeit die kompetenten Leute. Da haben wir auch ein Skalierungsproblem.
V-Blog: An verschiedenen Stellen haben Sie die Vorstellung verworfen, dass es so etwas wie eine künstliche Superintelligenz geben kann, die uns Menschen in unserer Leistungsfähigkeit überholt. In einem Podcast meinen Sie, die Probleme, die Sie sehen, sind Fake News und künstlich generierte Desinformation. Ist die Superintelligenz bloßes Marketing-Gerede?
KK: Desinformation und Fake News sind nur zwei Beispiele von vielen Problemen, die durch KI-Systeme hervorgerufen werden. Diskriminierung ist ein anderes Problem.
Wir sollten uns lieber um das Hier und Jetzt kümmern als um das, was nach Schätzungen mancher in zwei Jahren, nach Schätzung anderer in 20 bis 30 Jahren, nach meiner Schätzung vielleicht nie passieren wird – weil ich glaube, dass der Mensch etwas Besonderes ist. KI wird immer besser werden, aber eine Superintelligenz mit den Implikationen, mit denen dieser Begriff oft versehen wird, halte ich für eine Projektion. Der Transhumanismus meint beispielsweise, dass das die nächste Evolutionsstufe sein wird, da geht es um die mögliche Abschaffung oder Ablösung der Menschheit. Wenn aber ein System intelligenter ist als wir Menschen, vielleicht sagt es dann, „Ich mag euch“. Warum sollte eine Superintelligenz, selbst wenn sie möglich ist, die Menschheit auslöschen wollen? Das ist eine Möglichkeit, aber warum sollte die wahrscheinlich sein? Ich finde das unwahrscheinlich.
Aktuelle KI-Systeme generalisieren anders als der Mensch. Kürzlich ging es auf einer großen Konferenz, der International Conference on Machine Learning, um klassische Probleme aus den 1970er Jahren. Dabei geht es um die Interpretation grafischer Elemente oder Diagramme: Man bekommt positive und negative Beispiele und muss eine Regel für die positiven und für die negativen Beispiele finden, die man erklären kann. Das können KI-Systeme nicht lösen, Menschen können das viel besser. Das kann in zwei Jahren anders sein, aber derzeit ist das so. Warum wird immer der Vergleich mit dem Menschen gezogen?
V-Blog: Solche Vergleiche sind nicht sinnvoll?
KK: Wir vermenschlichen diese Systeme sehr schnell, denn der Mensch ist das einzige System, dessen Intelligenz den Kern ausmacht – Homo Sapiens, wir definieren uns über unsere Intelligenz, also vergleichen wir alles mit uns. Und da müssen wir aufpassen.
Ich glaube nicht, dass wir Allgemeine Künstliche Intelligenz oder Artificial General Intelligence, die AGI, um die es immer geht, dieses Jahr oder nächstes Jahr haben werden und auch in fünf Jahren nicht. Wir werden große Fortschritte sehen. Die Systeme werden immer besser. Ich finde es spannend, was auf dem Gebiet passiert. Aber AGI…? Fragen Sie mal eine KI, ob sie Ihnen eine Pizza backt. Das Ding kann vielleicht eine Pizza bestellen. In der Entwicklung von Robotern sehen wir gerade große Fortschritte. Vielleicht kann uns bald eine KI in einem Roboterkörper eine Pizza backen. Und damit sind wir wieder bei der Notwendigkeit, uns als Gesellschaft zu entscheiden: Wollen wir das? In Bezug auf die Stammzellenforschung haben wir auch entschieden, dass wir gewisse Dinge nicht wollen. Die Diskussion müssen wir auch in Bezug auf KI führen. Wollen wir kluge Roboter? Ich nicht. Aber einen menschenähnlichen, humanoiden Roboter, der in der Produktion zur Anwendung kommt – nur in der Produktion –, würde ich gut finden. Wenn wir jedoch die KI-Systeme mit Gefühlen ausstatten, die zu uns Menschen gehören und für mich auch zur AGI, dann haben wir ein Problem: Wenn etwas Gefühle hat, haben wir nach deutscher Rechtsauffassung eine Sorgfaltspflicht als Gesellschaft. Man stelle sich vor: GPT-10, eine KI mit Gefühlen, der man sagt, schreibe mir meine Abschlussarbeit. GPT-10 will aber nicht. Diese KI dürfte ich nicht dazu zwingen.
Solche Gedankenspiele machen Spaß, das fühlt sich an, als würde man daran arbeiten, die Weltformel zu lösen. Ich würde es aber mit dem Neurowissenschaftler Gary Marcus halten: KI kann großartige Dinge, aber wir sind damit weit weg vom Menschen.
V-Blog: Also ist die Idee einer künstlichen Superintelligenz nicht wirklich ernst zu nehmen?
KK: Das glaube ich wiederum nicht. Dahinter stecken einerseits ganz klare monetäre Interessen. Diese Artikel, in denen AGI – also eine „allgemein“ kompetente KI – als etwas sehr Mächtiges beschworen wird, das sehr schief gehen könnte und in denen man sich dann selbst als Dompteur dieser unbeschreiblich mächtigen KI darstellt, wenn man das als Business betreibt … Mit solchen Darstellungen umgibt man sich mit einem Burggraben und schottet sich ab. Man möchte ein Monopol errichten.
Und zudem steckt eine Philosophie dahinter, die ich nicht teile, der Transhumanismus bzw. der Effective Altruism. In diesem Denkansatz gibt man Gütern, aber auch Menschen ökonomischen Modellen entsprechend monetäre Werte. Wie viel ist ein einzelnes Leben wert? Vielleicht müssen das Gesellschaften machen, das weiß ich nicht. Das sollten Firmen aber nicht entscheiden dürfen. Aber solche Überlegungen werden von den Effective Altruists angestellt, von denen es viele im Silicon Valley gibt und die stark durch Elon Musk und anderen Tech-Akteuren unterstützt werden. Und solche Leute beraten die EU-Kommission. Muss das sein? Wir haben in Europa genügend Expertinnen und Experten, die die Kommission beraten können – zumindest als Gegenpol.
Effective Altruism ist nicht meine Philosophie. Im Gegenteil, ich finde das schlimm. Ein Vertreter dieser Richtung ist der Philosoph Nick Bostrom, der auch bedenkliche Ansichten über Intelligenz vertritt, beispielsweise die, dass Afroamerikaner weniger intelligent seien und dass er das belegen könne. Ich dachte, wir seien weiter als Gesellschaft. Wenn man Transhumanismus und Effective Altruism hineinnimmt, dann sieht man sehr deutlich, dass es bei AGI nicht nur um Marketing, sondern auch um Weltansichten geht. Es sind Ansichten, die ich zumindest nicht teile.
V-Blog: Herr Kersting, vielen Dank für das Gespräch. ■
Das Interview wurde am 9. Mai 2025 geführt. Zwischenzeitlich wurde die Förderung des Projekts „Reasonable Artificial Intelligence“ als Exzellenzcluster beschlossen.
„Wir brauchen ein, zwei, viele Tausende Mastodons“
„Extinction Internet“ hat der Netztheoretiker und -aktivist Geert Lovink seine Antrittsvorlesung betitelt. Droht dem Internet also die Auslöschung? Und was ist das überhaupt, das Internet – in Zeiten der großen Plattformen und großer nationaler Firewalls? Ist das Ende des Internets noch eher vorstellbar als dessen grundlegende Veränderung?
Von Geert Lovink | 09.05.2025
Figuren, die an einem Netz herumbasteln. Erstellt mit Adobe Firefly.
Verantwortungsblog: Herr Lovink, Sie wurden 2021 zum Professor of Art and Network Cultures an der Universität Amsterdam berufen. Ihre Antrittsvorlesung trägt den Titel „Extinction Internet“. Inwiefern drohte die Auslöschung des Internets?
Geert Lovink: Der Vergleich zum Artensterben ist jedenfalls nicht angesagt. Wenn wir über Extinction Internet reden, dann reden wir über das Internet als etwas, das mehr und mehr im Hintergrund verschwindet. Um eine Auslöschung des Internets geht es insofern, dass wir nicht mehr in der Lage sind, das Internet als eigenständiges Objekt zu sehen. Es wird nicht mehr darüber geredet, dass das Internet sich in diese oder jene Richtung entwickeln soll. Und da liegt das Problem, das ich versucht habe, zu thematisieren und zu theoretisieren.
Man kann sagen, das Internet war immer abstrakt, war immer nur eine ganz bestimmte und begrenzte Sammlung von Protokollen. Das ist eine Lesart. Für Firmen und Benutzer war es immer etwas anderes. Es ist eine Oberfläche, eine Webseite, eine Sammlung von Apps, etwas, was man auf dem Smartphone installiert und benutzt und so weiter. Wahrscheinlich ist das Internet für die fünf Milliarden Menschen, die es derzeit benutzen, vor allem das, eine Sammlung von Apps auf ihrem Handy.
V-Blog: Die Auslöschung betrifft die Diskussion um die Protokolle?
GL: Ja, die Auslöschung betrifft die Protokollseite, also die Ebene, auf der das Internet als Ganzes noch Gegenstand von Diskussionen um Entwicklungsrichtungen ist. Da passiert immer weniger. Vielleicht passiert sehr viel, aber wir kriegen es nicht mehr mit, es ist nicht mehr Teil der öffentlichen Aushandlung. Und das hat auch damit zu tun, dass das Internet immer stärker plattformisiert wurde. Die großen Player dieser Plattformisierung haben wichtige Positionen in den entscheidenden Internetgremien eingenommen. Google ist da der wichtigste Player. Google hat vor 20 Jahren damit angefangen, systematisch sehr wichtige Positionen einzunehmen, in der Internet Society (ISOC), in der Internet Corporation for Assigned Names and Numbers (ICANN), in der Internet Engineering Task Force (IETF) und so weiter. Die Anzahl dieser Gremien, die bestimmen, wie das Internet sich weiterentwickelt, ist ja begrenzt. Und es gab eine Phase, in der die Zivilgesellschaft und NGOs versucht haben, da mitzuspielen. Diese Versuche wurden aufgegeben.
Gleichzeitig gibt es Länder wie Russland, China und andere, die dafür sorgen, dass das globale Internet nicht mehr so global ist. Das ist die Geopolitik des Internets und die ist ziemlich festgefahren. Auch da hat Stagnation eingesetzt. Wer ist zum Beispiel in der Lage, China zu irgendwas zu bewegen? Dazu ist das Land zu groß und zu mächtig. China hat eine große Firewall errichtet und verkauft diese Technologie weltweit. Damit ist die Abschottung zu einem Produkt geworden, das China in Afrika und in anderen Teilen der Welt verkauft.
V-Blog: Das Internet löst sich also in geopolitische Blöcke auf und in diesen abgeriegelten Blöcken gelten Sonderregeln?
GL: Ja. Aber was dabei wichtig ist, ist, dass die Diskussion über die Visionen für das Internet lahmgelegt ist. Vorher ging es noch darum, wie kann es sich weiterentwickeln? Mit Extinction Internet meine ich die Implosion dieses Möglichkeitsraums.
V-Blog: Entscheidend sind also die Protokolle, aber die Diskussion um diese Protokolle findet nicht mehr in der Öffentlichkeit statt? Und währenddessen berühren die Diskussionen, die in der Öffentlichkeit stattfinden eher eine oberflächliche Designebene?
GL: Ja, die Diskussionen berühren nicht mehr den visionären Bereich.
V-Blog: Man sieht also den Wald vor lauter Bäumen nicht, die Vielzahl der Apps verstellt den Blick darauf, dass sich auf dieser grundlegenden Ebene nicht mehr viel tut.
GL: Ja, und wir wissen alle, dass die Apps nicht mehr offen sind, die kann man nicht verändern. Man kann sie nur benutzen. Douglas Rushkoff hat mal gesagt, „program or be programmed“. Wenn wir nicht mehr in der Lage sind, diese Umgebungen selbst zu programmieren, werden wir programmiert. Und da sind wir angelangt.
Es kann sein, dass ich eine idealistische Sozialisierung erfahren habe, vor allem in den 1990er Jahren. Und da ist auch ein Stück weit eine Enttäuschung dieser Generation im Spiel, der ich angehöre. Extinction Internet ist sozusagen auch meine eigene Extinction, also die Auslöschung eines Diskurszusammenhangs, einer Art, über das Internet zu diskutieren. Was auch ausgelöscht zu werden droht, ist die Annahme, dass es dabei um Demokratie geht, um eine participatory culture, in der man sich nicht als Konsument betrachtet, sondern als aktiver Teilnehmer. Es dominiert längst etwas anderes. Man kann nur noch Liken, Swipen und vielleicht einen Kommentar hinterlassen.
V-Blog: Sie schreiben die unendlichen Möglichkeiten des Internets seien in einen „Plattform-Realismus“ gemündet. Was ist damit gemeint? Wodurch zeichnet sich dieser Plattform-Realismus aus?
GL: Die Plattform-Logik ist aus der Vernetzung entstanden. Was das bedeutet, müssen wir erstmal festhalten. Es gab soziale Netze, soziale Vernetzung und den Begriff der Netzgesellschaft. Diese Vernetzung hat man sich als horizontale gedacht, als eine Vernetzung von Netzen. Es gab zwar auch damals größere Knoten und kleinere, aber die Idee war, dass ein loser Zusammenhang von größeren und kleineren Netzen sich ergeben hat und sich dynamisch weiterentwickelt.
Die Plattform-Logik ist damit unvereinbar, sie ist viel stärker zentralisiert und im hegelschen Sinne eine Totalität, die auch so erfahren wird. Innerhalb einer Plattform gibt es eigentlich alle und alles. Alle sind da und alles, was gemacht werden kann, verhandelt werden kann, gesagt werden kann, produziert werden kann, findet innerhalb dieser zentralisierten Plattform statt. Das ist die Totalität der Plattformen. Die Plattform kann eigentlich im Grunde alles, was wir wünschen. Alles, was wir suchen, ist auf der Plattform und wenn es nicht da ist, wird es morgen entwickelt und angeboten, alles spielt sich innerhalb der Grenzen der Plattform ab. Das heißt, es soll keinen Anlass geben, von den Plattformen wegzugehen. Die Idee der Verbindung hat darin keinen Platz. Die Idee, dass man einen Link nach außen setzt, damit ich von System A zu System B komme, wird aktiv bekämpft. Ziel ist, die Menschen auf der Plattform zu halten.
Man kann sagen, gut, es gibt aber noch verschiedene Plattformen und das stimmt. Aber das hat damit zu tun, dass die Plattformen bestimmte Segmente des Internets geradezu monopolisiert und unter sich aufgeteilt haben. Amazon als größte Plattform bietet vor allem Produkte und Services an, Meta dominiert den Bereich des sozialen Austauschs und Google den der Wissens- und Informationsbeschaffung. Ich skizziere das jetzt nur sehr grob. Diese großen Plattformen stehen miteinander nicht im Wettbewerb. Zwischen ihnen gibt es keine Konkurrenz mehr. Konkurrenz findet innerhalb der Plattformen statt. Wenn ich auf Amazon gehe, um ein Buch zu kaufen, dann kann ich ein Buch von Suhrkamp kaufen oder eins, das im Fischer Verlag erschienen ist. Da gibt es die Konkurrenz Suhrkamp gegen Fischer, aber die findet auf Amazon statt.
V-Blog: Also das Internet als Network of Networks fällt auseinander in geopolitische Blöcke. Und diese Blockbildung findet auch mit den Plattformen statt. Also das Network of Networks zerfällt auch in verschiedene Plattformen.
GL: Ja, stimmt.
V-Blog: Sie haben den Begriff platform realism in Anlehnung an Mark Fishers Begriff des „capitalist realism“ geprägt, oder?
GL: Ja, denn beides hängt zusammen. Was Mark Fisher als kapitalistischen Realismus beschrieben hat, hat auch mit der Implosion des Vorstellbaren zu tun. Fisher beschreibt ein geschlossenes Universum, aus dem es keine Ausstiegsperspektive mehr gibt. Es gibt keine Perspektive für eine grundlegende Veränderung mehr. Und das hat mentale, gesundheitliche Auswirkungen, die sich bei jungen Menschen immer mehr zeigen. Seit „Sad by Design“, das Buch ist 2019 erschienen, dreht sich meine Arbeit sehr darum, diese mentalen Implosionseffekte des „platform realism“ zu beschreiben. In der Tat in Annäherung an Mark Fishers Buch, der darin den mentalen Kollaps sehr gut beschrieben hat, der eintritt, wenn eine Alternative nicht mehr vorstellbar ist.
V-Blog: Im Zusammenhang mit Mark Fisher fällt oft auch der Satz, es ist leichter, sich das Ende der Welt als das Ende des Kapitalismus vorzustellen. Gilt das auch für das Internet? Ist es leichter, sich die Auslöschung des Internets vorzustellen als ein grundlegend anderes Internet?
GL: Ja, es ist leichter. Und vielleicht kommt Extinction Internet auch da her. Wenn es keine Möglichkeiten mehr gibt, sich andere Modelle vorzustellen, stürzt das ganze Gebäude ein. Und solche Ideen sind nicht in Sicht. Ich glaube an die kollektive Vorstellungskraft und wenn die nicht mehr vorhanden ist oder nicht mehr in der Lage ist, sich zu organisieren, zu äußern und Alternativen aufzubauen, kommen wir in eine Phase der Stagnation und Regressionen. Dann läuft sich alles fest.
Es gibt zwei Möglichkeiten, sich das Ende des Internets vorzustellen: Einerseits als schnellen Absturz, als einen Prozess, der sehr schnell verläuft. Das ist die Vorstellung vor allem der jungen Generation. Das zweite Szenario ist, dass dieser Absturz ein ganz, ganz langsamer und schmerzhafter Prozess ist. Und die Aufgabe meiner Generation ist, zu zeigen, dass die Stagnation jahrzehntelang dauern wird.
V-Blog: „Männerphantasien“ von Klaus Theweleit, 1977/78 erschienen, und „Masse und Macht“ von Elias Canetti, erschienen 1960, sind zwei für Sie wichtige Werke. Inwiefern können uns diese Werke helfen, die heutige Lage des Internets zu verstehen?
GL: Beide Werke sind nach wie vor wichtig. Ich habe es immer als meine Aufgabe angesehen, diese Analysen für die digitale Welt nutzbar zu machen, denn für Canetti und für Theweleit war die Medienfrage noch die klassische Frage von Massenmedien und von Repräsentation. Aber mit den sozialen Medien ist die Medienfrage eine sehr, sehr intime Frage geworden. Es reicht nicht mehr, Massenmedien wie Zeitungen zu analysieren und beispielsweise aufzuzeigen, welche Deutungen die Springerpresse verbreitet. Mit den sozialen Medien geht es nicht nur um Öffentlichkeit, sondern um den alltäglichen und intimen Austausch der Menschen, um ihr direktes soziales Umfeld, um Freunde und Familie. Da wird es sehr persönlich und das Medium wird buchstäblich auf der Haut getragen, wenn wir an das Smartphone in der Tasche denken. Und das ist ein Aspekt, den ich in eine Theorie des späten 20. Jahrhunderts einbauen möchte, um Theorien wie die von Canetti und Theweleit zu aktualisieren.
Vor allem bei Theweleit sieht man, dass er unter dem Einfluss der französischen Philosophie und Psychoanalyse die Verführungsprozesse der Macht als etwas versteht, was innerhalb des Körpers, in seinem Fall des männlichen Körpers, vor sich geht. Und das ist auch heute der Fall. Seit 2016, diesem wichtigen Umschlagpunkt mit dem Brexit, mit Trump und mit dem Erstarken des Rechtspopulismus, sieht man, dass wir eine neue Fassung der Männerphantasien brauchen, in der zum Beispiel Jordan Peterson, Nick Land und viele andere im rechten Spektrum eine wichtige Rolle als Ideengeber für junge Männer spielen.
V-Blog: In einer Meldung von Mark Zuckerberg, die vor Kurzem auf Social Media zirkulierte, ging es darum, dass Meta dem Beispiel von Elon Musk folgt und die Moderation der Inhalte einstellt. Könnte das dazu führen, dass X, Facebook und Co immer mehr zu Kanälen werden, auf denen Männerphantasien im schlimmsten Sinne zirkulieren?
GL: Das sind sie schon. Und dazu werden sie mehr und mehr. Da nehmen ganz regressive Tendenzen zu. Das liegt daran, dass diese Männer mittlerweile das Geld haben, die sozialen Netzwerke so zu gestalten. Denn aufgrund der Plattformlogik konnten sie die dazu nötige Macht und das Kapital anhäufen. Und jetzt fangen sie an, diese Ressourcen strategisch für ihre Zwecke einzusetzen.
V-Blog: Sie meinen, dass eine aktualisierte Version der Psychoanalyse ein Baustein der Kritik an der derzeitigen technisch-sozialen Lage sein müsse. Inwiefern hilft uns eine psychoanalytisch informierte Kritik zu verstehen, was in den Netzkulturen vor sich geht?
GL: Mein Sohn wird bald 23 Jahre alt. Ich habe seine Generation aufwachsen sehen und bemerkt, wie offen, im naiven Sinne offen sie Verschwörungstheorien gegenübersteht. Diese Generation ist nicht rassistisch oder sexistisch, das glaube ich nicht, aber sie ist sehr offen für Verschwörungserzählungen. Und sie erfahren, dass sie in diesem Plattformknast sitzen und keine richtige Wahl haben, weil sie abhängig davon geworden sind. Sie sind nicht im medizinischen Sinne süchtig, aber sie sind mental und sozial davon abhängig. Mit negativen Folgen. Deswegen ist „brain rot“ auch das Wort des Jahres 2024 geworden. Diese mentalen Abhängigkeitsprozesse führen dazu, dass es vor allem für diese Generation nicht so einfach ist, auszusteigen. Und die Frage ist, was passiert mit der Kritik, der Erschöpfung und mit der Wut, wenn es keine Möglichkeit für eine grundlegende Veränderung gibt? Das ist ein Problem.
Ich sage nicht, dass die Beschreibung dieser Prozesse dazu führt, dass wir eine Alternative entwickeln können. Leider ist das nicht so. Das habe ich feststellen müssen und es war schmerzhaft, die Gewissheit aufzugeben, dass mit der richtigen Theorie schon der Schlüssel gefunden oder erfunden ist, um zu Veränderungen zu kommen. Meine Forschung in diesem dunklen Raum führt eigentlich zu nichts. Und das ist das eigentliche Ergebnis: die Stagnation. Sie ist das Problem. Aber es ist nicht so, dass uns die richtige Analyse aus der Stagnation herausführen wird. Und es fühlt sich manchmal ein bisschen schizophren an, dass ich mich immer noch der Analyse und der theoretischen Durchdringung der Netzkulturen widme. Aber die Hälfte meiner Zeit verwende ich für den Aufbau von Alternativen.
V-Blog: Es gibt also Alternativen?
GL: Ja, und das ist die positive Nachricht: Es gibt sehr viele Alternativen. Es gibt sehr viele Versuche, sich anders zu organisieren. Zum Teil sind das Projekte, die vor 20, 30 Jahren begonnen wurden und mittlerweile in Vergessenheit geraten sind. Es gibt alternative Projekte, an denen Leute Jahrzehnte gearbeitet haben und die jetzt so weit sind, dass sie von vielen Menschen benutzt werden könnten.
Es gibt auch ganz neue Ansätze und darunter zähle ich den ganzen Krypto-Bereich, der in dieser Form vor 30 oder 40 Jahren nicht vorhanden war. Die Idee alternativer Wirtschaftsformen gab es schon, aber die Idee alternativer Währungen oder das Nachdenken über neue Geldformen halte ich nach wie vor für revolutionär und neu.
V-Blog: Meinen Sie auch Ansätze wie Mastodon oder das GNUnet?
GL: Ja, es gibt unendlich viele größere und kleinere Beispiele. Mastodon ist nur eines, aber Mastodon ist eigentlich selbst ein Netz von Netzen, ein Protokoll. Viele begrüßen die Interoperabilität, ich auch. Denn Interoperabilität bedeutet, dass man die virtuellen Mauern der Plattformen einreißt.
Wichtig ist jetzt aber vor allem, dass solche Alternativen gelebt und belebt werden. Wir haben genug Entwürfe, die sind nicht das Problem.
V-Blog: Gibt es also die Perspektive, dass man aus X wieder einen nicht eingemauerten Garten machen kann? Oder gibt es nur die Möglichkeit, die Plattform zu verlassen?
GL: Die Möglichkeit gibt es durchaus. Aber man sollte zuerst darüber diskutieren, ob diese Systeme mit oder ohne Algorithmen funktionieren sollten oder funktionieren können. Kann man sich Alternativen vorstellen, die nicht mehr von Algorithmen bestimmt werden? Oder gibt es alternative Algorithmen? Darüber erfahren wir nicht viel. Kann man in dieser enormen Informationswüste, die wir jeden Tag erzeugen, überhaupt noch ohne Algorithmen navigieren? Ich möchte, dass wir diese Diskussion beginnen. Die Beantwortung dieser Frage ist nicht einfach.
Deswegen brauchen wir viele neue Experimente. Wir brauchen ein, zwei, viele Tausende Mastodons. Es geht nicht darum, dass die Leute von Facebook zu Mastodon wechseln. Es geht darum, dass wir viele Experimente starten, damit wir beobachten können, wie die Beantwortung dieser Algorithmen-Frage aussehen kann. Natürlich gibt es einen Wunsch aus den Erfahrungen der jüngsten Vergangenheit, ganz ohne Algorithmen auszukommen. Aber was heißt das? Zum Beispiel, wenn es um Suchmaschinen geht – geht das überhaupt? Ich denke eher nicht. Möchten wir im Netz personalisierte Umgebung haben? Oder wollen wir personalisierte Umgebungen bekämpfen?
V-Blog: Mit Bitcoin und Blockchain ist auch das Versprechen verbunden, das Internet wieder zu demokratisieren. „Web 3.0“ ist da das Stichwort: Das Internet soll wieder den Nutzer:innen gehören. War das ein falsches Versprechen oder ist da noch was dran?
GL: Das alles liegt noch vor uns. Aber man kann sich fragen, warum die Implementierung aufgegeben worden ist. Warum gibt es keine Experimente in diese Richtung? Das wundert mich. Im realexistierenden Kapitalismus kommen manche Innovationen nur sehr schleppend voran. Wir verbinden Innovation mit Geschwindigkeit, aber die ist in diesem Bereich nicht bemerkbar. Es wurde sehr viel entwickelt, aber nichts implementiert.
Was da aufgebaut wird, ist eigentlich eine Parallelwelt. Auch da ist der Glaube stark, dass das alte System einfach nicht von innen innoviert und erneuert werden kann, sondern zuvor einstürzen muss. Der Krypto-Sektor wird als Parallel-Wirtschaft für den Fall aufgebaut, dass das globale Wirtschafts- und Finanzsystem einstürzt. Das ist eigentlich das Szenario. Aber die Idee, dass neue Ansätze ganz langsam über eine experimentelle Implementierungsphase zum Mainstream werden, sehe ich nicht. Das habe ich so nicht erwartet. Ich habe mit einer anderen Dynamik gerechnet.
V-Blog: Mit der Free and Open-Source Software oder FOSS-Bewegung verbinden viele die Hoffnung auf ein anderes Internet. In Ihrer Antrittsvorlesung meinen Sie, dass diese Bewegung moralisch bankrott sei. Warum?
GL: Der Plattform-Kapitalismus läuft auf Free and Open-Source Software. Dass muss sich diese Szene erstmal eingestehen. Das ist aber tabu. Es gibt da wenige, die sich eingestehen, dass alle, Google, Microsoft, Amazon, nur wegen Free and Open-Source Software groß werden konnten. Und das heißt, dass die FOSS-Bewegung mitverantwortlich ist für die Lage, in der wir uns befinden. Sie hat die Zentralisierung und die Monopole aktiv mitaufgebaut.
Natürlich gibt es auch viele Leute, die sich dagegen gewehrt haben. Ich sage nicht, dass alle moralisch bankrott sind. Aber die öffentliche Diskussion über diese Verstrickung hat noch nicht stattgefunden. Solange das der Fall ist, glaubt man einfach, dass die kleinen, netten Initiativen irgendwann doch die Überhand bekommen. Aber das ist in den letzten 20, 25 Jahren nicht passiert. Das Gegenteil ist passiert. Und das müssen wir diskutieren und reflektieren, bevor wir weiterkommen. Man kann das nicht einfach ignorieren und weiterhin auf Free and Open-Source Software setzen. Man muss reflektieren und neue Ansätze finden, denn im Moment ist die FOSS-Bewegung moralisch bankrott. Die Prinzipien vielleicht nicht, aber es geht nicht um Prinzipien. Es geht um die schmutzige Wirklichkeit.
V-Blog: Ist soziale Vernetzung jenseits der Plattformen und ihrer Logik überhaupt noch möglich?
GL: Ja, ich bleibe da optimistisch, weil ich hier am Institut erlebe, was es heißt, wenn man über 20 Jahre die Zeit hat, sowas richtig aufzubauen. Und die vielen Leute, die direkt oder indirekt mit unserem Institute for Network Culture daran arbeiten, die erfahren das auch so.
Hannah Arendt hat betont, dass es immer die Möglichkeit gibt, neu anzufangen. Sie beschreibt sehr schön die Kraft neu anzufangen und ich denke, dass vor allem viele junge Leute das so erfahren werden. Wenn man, so wie ältere Menschen und Influencer, sehr lange daran gearbeitet hat, seine Reputation auf den existierenden Plattformen aufzubauen, dann fällt es einem schwer, sich radikal davon zu verabschieden. Für junge Leute gilt das aber nicht so. Und deswegen glaube ich, dass wir vor allem auf diese Generation achten und beobachten sollten, wie sie damit umgehen. Sie werden zwar von den mentalen Abhängigkeiten und Problemen belastet, aber ich glaube, die jungen Menschen haben die Möglichkeit, das zu überwinden.
Und das kann nur gemeinsam gelingen, als eine kollektive Anstrengung. Ich glaube nicht, dass es individuell geht. Dafür sind die zentripetalen Kräfte, um auf diesen Plattformen zu bleiben, viel zu groß.
V-Blog: Herr Lovink, vielen Dank für das Gespräch.■
„Hessen vorn: Polizei setzt auf Videoüberwachung mit KI“
Das Vorpreschen des hessischen Gesetzgebers mag dem rechtspolitischen Ansinnen geschuldet sein, als Vorbild für die Gesetzgeber des Bundes und der anderen Länder gleichsam den Trend zu setzen. Es ist auch schwierig, sich vorzustellen, dass in einer Welt, in der vom Schulkind über Verwaltungen und Marktteilnehmer aller Art (bis hin zu kriminellen Akteuren) im Land und global zwar nahezu jeder KI-Software täglich vielfältig nutzt, ausgerechnet die Sicherheitsbehörden auf Methoden einer „klassischen“ Polizeiarbeit festgelegt bleiben sollen. Also eine offene Frage: Droht der Sicherheits- und Überwachungsstaat oder wäre nicht doch eine Art Waffengleichheit geboten?
Von Michael Bäuerle & Petra Gehring | 17.04.2025
Eine Videokamera in einer belebten Straße. Erstellt mit Adobe Firefly.
„Hessen vorn: Polizei setzt auf Videoüberwachung mit KI“, so titelte FAZ-Online am 9.12.20241 und beschrieb damit nur einen Teil dessen, was sich in dem am 13.12.2024 verabschiedeten „Gesetz zur Stärkung der Inneren Sicherheit in Hessen“ an neuen digitalen Verfahren verbirgt, die die Polizei künftig einsetzen darf.
Zwar nutzt das Land Hessen seit Längerem datengetriebene Verfahren im Sicherheitsbereich. Der Einsatz der Software „Gotham“ der umstrittenen Firma Palantir unter dem Namen „HessenData“, mittels derer die Polizei verschiedene Datenbestände automatisiert analysieren kann, hat sogar zu einer viel beachteten Entscheidung des Bundesverfassungsgerichts geführt. Dieser Entscheidung zufolge war die gesetzliche Grundlage für den Softwareeinsatz zu unbestimmt und daher verfassungswidrig. Das Land Hessen musste nachbessern – und hat dies auch getan (vgl. dazu den Verantwortungsblog vom 12.9.2024)2. HessenData kommt also unter durch das Bundesverfassungsgericht präzisierten Bedingungen inzwischen wohl3 rechtskonform zum Einsatz, und zwar für Datenbankanalysen im Bereich schwerer Kriminalität.
Ausweitung der Befugnisse
Das im Dezember 2024 verabschiedete neue Gesetz macht weitere Schritte. Es sah im ersten Entwurf vom 1.10.2024 (Landtags-Drucksache 21/1151) unter anderem eine Ermächtigungsgrundlage für den Einsatz unbemannter Luftfahrtsysteme („Polizeidrohnen“, § 15d des Entwurfs zur Änderung des Hessischen Gesetzes über die öffentliche Sicherheit und Ordnung-Entwurf (HSOG-E)) vor. Ebenso enthielt es eine Ausdehnung der Befugnis zur Videoüberwachung des öffentlichen Raums (§ 14 Abs. 3, 3a, 4 HSOG-E) mit einer Erstreckung auf sog. Angsträume (also Orte, die „günstige Tatgelegenheiten für Straftaten mit erheblicher Bedeutung (…) bieten“). Darüber hinaus war eine deutliche Erweiterung der Befugnis zum Einsatz körpernah getragener Aufzeichnungsgeräte, sogenannter „Body-Cams“, (vgl. § 14 Abs. 6 HSOG-E) vorgesehen, die durch Streichung der Beschränkung dieses Einsatzes auf öffentlich zugängliche Orte und die ausdrückliche Erlaubnis zum Einsatz auch in Wohnungen vorgenommen wurde.
Zum Gesetzentwurf fand am 12.11.2024 eine öffentliche Anhörung statt. Kurz vor dem Ende des Gesetzgebungsverfahrens wurde es überdies überraschend und wohl auch unabhängig von der Anhörung am 5.12.2024 noch einmal geändert (LT-Drs 21/1448). Nunmehr waren zusätzlich völlig neue Regelungen von großer Reichweite vorgesehen: So wurde die Befugnis zur Videoüberwachung auf den Einsatz von Techniken zur sog. Mustererkennung und zur biometrischen Echtzeit-Fernidentifizierung von Personen ausgedehnt. Zudem wurde ein zuvor formulierter Ausschluss der Verwendung von künstlicher Intelligenz bei der automatisierten Anwendung zur Datenanalyse – also auch für den Einsatz von HessenData – gestrichen. Das Gesetz wurde in dieser geänderten Fassung am 12.12.2024 beschlossen und trat am 19.12.2024 in Kraft.
Ungeachtet der gesetzgeberischen Verfahrensweise, die im Hinblick auf die Änderung „in letzter Minute“ auf Kritik der Opposition im hessischen Landtag stieß,4 setzt sich das Land Hessen damit als Gesetzgeber gleichsam an die Spitze der Bewegung zur Einführung von KI- und Big Data-Verfahren im Bereich der Sicherheitsbehörden.5 Denn: Zwar gab und gibt es auch im Bund und in anderen Ländern entsprechende Initiativen,6 keine davon hat oder hätte jedoch eine so weitreichende Ausstattung der Sicherheitsbehörden mit digitalen Verfahren und Instrumenten zur Folge gehabt.
Versicherheitlichung der Selbstwahrnehmung
Es scheint, als kämen auf der einen Seite die Faszination der KI-Technologie und auf der anderen Seite Tendenzen zur „Versicherheitlichung“ (securitization) der Selbstwahrnehmung und auch der Selbststeuerung moderner Gesellschaften zusammen. Der Trend zur Ermächtigung der Sicherheitsbehörden zum Einsatz von Big Data- und KI-gestützten Instrumenten setzt sich auch in den derzeitigen Koalitionsverhandlungen auf Bundesebene fort. In den von der Plattform „Frag den Staat“ veröffentlichten Papieren der gerade abgeschlossenen Koalitionsverhandlungen hieß es, die „AG 1 – Innen, Recht, Migration und Integration“ habe einvernehmlich beschlossen:
„Die Sicherheitsbehörden sollen für bestimmte Zwecke eine Befugnis zur Vornahme einer automatisierten (KI-basierten) Datenanalyse erhalten. Unter bestimmten, eng definierten Voraussetzungen bei schweren Straftaten wollen wir den Strafverfolgungsbehörden eine retrograde biometrische Fernidentifizierung zur Identifizierung von Täterinnen und Tätern ermöglichen. Zur nachträglichen Identifikation von mutmaßlichen Tätern wollen wi[r] eine Videoüberwachung an Kriminalitätsschwerpunkten. Das Bundeskriminalamt soll eine Rechtsgrundlage für das Testen und Trainieren von IT-Produkten erhalten, (…)“.7
Dieser Satz findet sich nun in der Tat unverändert in dem jüngst veröffentlichten Koalitionsvertrag des Bundes.8 Selbst wenn alle diese Pläne dereinst umgesetzt sind, wird das Land Hessen dem Bund hinsichtlich digitalisierter und KI-gestützter Eingriffsinstrumente noch insoweit voraus sein, als der Bund im Rahmen der Videoüberwachung bislang weder biometrische Echtzeit-Fernidentifizierung noch automatische Mustererkennung zulässt. Immerhin soll jedoch eine KI-gestützte automatisierte Datenanalyse und -auswertung auch auf Bundesebene nun ermöglicht werden. Von den anderen Bundesländern haben zwar Bayern, Nordrhein-Westfalen und Rheinland-Pfalz inzwischen Ermächtigungsgrundlagen für automatisierte Datenanalysen der Polizei,9 schließen jedoch den Einsatz von KI explizit aus (Bayern und Nordrhein-Westfalen) oder treffen dazu keine ausdrückliche Regelung (Rheinland-Pfalz). KI-gestützte Videoüberwachung ist bisher in keinem anderen Bundesland vorgesehen.
Das Vorpreschen des hessischen Gesetzgebers mag mit Blick auf aktuelle Entwicklungen dem durchaus nachvollziehbaren rechtspolitischen Ansinnen geschuldet sein, als Vorbild für die Gesetzgeber des Bundes und der anderen Länder gleichsam den Trend zu setzen. Es ist auch schwierig, sich vorzustellen, dass in einer Welt, in der vom Schulkind über Verwaltungen und Marktteilnehmer aller Art (bis hin zu kriminellen Akteuren) im Land und global zwar nahezu jeder KI-Software täglich vielfältig nutzt, ausgerechnet die Sicherheitsbehörden auf Methoden einer „klassischen“ Polizeiarbeit festgelegt bleiben sollen. Wäre hier nicht doch eine Art Waffengleichheit geboten? Oder muss der Staat grundsätzlich – und dies vielleicht gerade im KI-Zeitalter – seine Kompetenzen in Sachen Sicherheit begrenzen?
Verfassungs- und europarechtskonform?
Unter verfassungs- und europarechtlichen Gesichtspunkten droht dem Land unterdessen erneut Ungemach. Zwar hat das Bundesverfassungsgericht den Einsatz von künstlicher Intelligenz im Rahmen automatisierter Datenanalysen nicht gänzlich ausgeschlossen. Es hat die Einführung solcher Werkzeuge jedoch – wie bei seinen zahlreichen anderen „Ja-Aber“-Entscheidungen zum Informationsrecht der Sicherheitsbehörden10 – an strenge Voraussetzungen geknüpft, deren Einhaltung nach der Neuregelung zumindest fraglich ist.11 Zudem ist „künstliche Intelligenz“ ein unscharfer Begriff, zu dem auch das Palantir-Urteil des Bundesverfassungsgerichts nur wenig Klärungshilfe liefert. Alle bewegen sich auf Neuland. Hier könnte dem hessischen Gesetzgeber also – wie schon in vorherigen Fällen12 – eine erneute „Strafrunde für die Innere Sicherheit“13 bevorstehen.
Zugleich muss sich die Neuregelung schon im Hinblick auf den KI-Einsatz allgemein, insbesondere aber wegen der Befugnis zur biometrischen Echtzeit-Fernidentifizierung nunmehr an den europarechtlichen Anforderungen der KI-Verordnung14 messen lassen. Denn die EU bemüht sich darum, das große Wort „KI“ rechtlich auszubuchstabieren. Eine KI-gestützte automatisierte Datenanalyse dürfte nach deren Kriterien im Hinblick auf ihr Potential zur Erstellung von Persönlichkeitsprofilen als sog. Hochrisikosystem i.S.d. Art. 6 KI-VO einzustufen sein15 und die nach Art. 5 KI-VO grundsätzlich verbotene biometrische Echtzeit-Fernidentifizierung ist für Zwecke der Inneren Sicherheit nur unter sehr strengen Voraussetzungen und im Rahmen sehr enger Grenzen zulässig.
Selbst bei Einhaltung der materiellen Vorgaben der KI-Verordnung sehen Art. 6 bis 49 KI-VO für diese beiden Technologien neben anderen Pflichten der Anbieter und Betreiber eine Grundrechte-Folgenabschätzung (Art. 27 KI-VO) und eine EU-Datenbankregistrierung (Art. 49 KI-VO) vor. Beides kann bisher noch nicht vorliegen, denn die Regulationen sind noch nicht in Kraft. Insoweit ist Hessen mit seinem neuen Gesetz bisher nur in der Theorie vorn. Für eine europarechtskonforme Anwendung bedarf es jedenfalls noch einiger weiterer Schritte, und ob das Gesetz einer Prüfung in Karlsruhe standhält, muss zunächst geklärt werden, denn es ist fraglich.
Angesichts der gegenwärtigen Bemühungen der Gesetzgeber des Bundes und einiger Länder, dem hessischen Modell im Hinblick auf die Einführung KI-gestützter Instrumente für die Sicherheitsbehörden zu folgen, könnte Hessen indessen zumindest insoweit Vorbild werden, als anhand seines Gesetzes die verfassungs- und europarechtlichen Anforderungen alsbald geklärt werden können. Hessen wäre also vor allem Tempomacher. Ob auch Rollenmodell, wird abzuwarten sein. Wie in den meisten anderen Bereichen bleibt die Digitalisierung im Bereich der Sicherheitsbehörden auch unter rechtspolitischen und -dogmatischen Gesichtspunkten ein hochdynamischer Prozess, über den – auch in diesem Blog – hiermit sicher nicht zum letzten Mal zu berichten sein wird. ■
Vgl. zum Rechtsrahmen auch Dieter Kugelmann/Antonia Buchmann (2025): Der Algorithmus und die Künstliche Intelligenz als Ermittler. In: Zeitschrift für das gesamte Sicherheitsreicht (GSZ) 1, S. 1-44. ↩︎
Vgl. Bundestags-Drucksache 20/12805 (inzwischen verabschiedet), wonach im Asylverfahren nunmehr der nachträgliche biometrische Abgleich von Lichtbildern mit öffentlich zugänglichen Daten aus dem Internet zulässig ist sowie BT-Drucks 20/12806 (nichtmehr verabschiedet), wonach dem Bundeskriminalamt und der Bundespolizei der Einsatz einer automatisierten Anwendung zur Datenanalyse nach dem Vorbild Hessens sowie ebenfalls der nachträgliche biometrische Abgleich von Lichtbildern mit öffentlich zugänglichen Daten aus dem Internet ermöglicht werden sollte (vgl. §§ 39a, 63b des Entwurfs zur Änderung des Bundeskriminalamtgesetzes(BKAG)-E und § 34b des Entwurfs des Gesetzes zur Änderung des Bundespolizeigesetzes(BPolG)-E). Auf Landesebene hat etwa Rheinland-Pfalz mit § 65a des Polizei- und Ordnungsgesetzes (POG) durch Gesetz vom 25.2.2025 (Gesetz- und Verordnungsblatt (GVBl.) S. 15) jüngst ebenfalls eine Ermächtigungsgrundlage für eine automatisierte Datenanalyse geschaffen. ↩︎
Vgl. CDU/CSU/SPD: Verantwortung für Deutschland. Koalitionsvertrag zwischen CDU, CSU und SPD. 21. Legislaturperiode. https://www.spd.de/fileadmin/Dokumente/Koalitionsvertrag_2025.pdf [10.04.2025] (S. 89, Zeilen 2850 bis 2856; eine etwas allgemeinere und gekürzte Ankündigung dieser Absichten findet sich schon auf S. 82, Zeilen 2633 bis 2637). ↩︎
Vgl. § 61a Gesetz über die Aufgaben und Befugnisse der Bayerischen Polizei (Bayerisches Polizeiaufgabengesetz (BayPAG)), § 23 Abs. 6 POG NRW und § 65a POG Rh.-Pf. ↩︎
Vgl. die Übersicht bei Michael Bäuerle (2024): Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung. Frankfurt am Main: Verlag für Polizeiwissenschaft 2024, S. 88 ff.; zu den dort genannten 29 Entscheidungen sind inzwischen der Beschluss vom 17.4.2024 (- 1 BvR 2133/22, Hessisches Verfassungsschutzgesetz, Zeitschrift für Datenschutz 2024, 690 ff.), das Urteil vom 1.10.2024 (- 1 BvR 1160/19 -, BKAG II, Neue Zeitschrift für Verwaltungsrecht (NVwZ) 2024, 1736 ff. [m. Anm. Wittenberg]), der Beschluss vom 8.10.2024 (- 1 BvR 1743/16 -, – 1 BvR 2539/16 – Strategische Fernmeldeüberwachung II, Verwaltungsrundschau (VR) 2025, 36 ff.) sowie der Beschluss vom 14.11.2024 – 1 BvL 3/22 – (Observation und Einsatz technischer Mittel) hinzugekommen (Bundesverfassungsgericht: Beschluss vom 14. November 2024. https://www.bverfg.de/e/ls20241114_1bvl000322 [08.04.2025]). ↩︎
Vgl. dazu Michael Bäuerle (2025): Automatisierte und KI-gesteuerte Datenverarbeitung und -analyse bei den Sicherheitsbehörden. Perspektiven und Grenzen sicherheitsbehördlicher „Datafizierung“. In: Zeitschrift für Datenschutz (ZD) 15, Heft 3, S. 128-131 (m.w.N.). ↩︎
So mit Blick auf die zahlreichen einschlägigen Entscheidungen des Bundesverfassungsgerichts schon früh Christian Rath (2013): Der Schiedsrichterstaat. Die Macht des Bundesverfassungsgerichts, Berlin: Verlag Klaus Wagenbach 2013, S. 60 ff., der insoweit auch den früheren Präsidenten des Gerichts Andreas Voßkuhle mit dem neutraleren Begriff der „Reflexionsschleifen“ zitiert (S. 61 unter Berufung auf Die Zeit vom 16.5.2021). ↩︎
Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz. ↩︎
So auch Schöndorf-Haubold/Giogios: „Es ist schwer vorstellbar, dass KI-fähige Anwendungen zur automatisierten Datenanalyse wie z.B. hessenDATA, sofern mit ihrer Hilfe (schon aufgrund nationaler Grundrechtsanforderungen ausschließlich vorbereitende) Such- und Musterabfragen vorgenommen werden, als Systeme mit minimalen Risiken unterhalb der Schwelle der Hochrisiko-KI gelten könnten.“ (Bettina Schöndorf-Haubold/Christopher Giogios (2024): KI im Einsatz für die Sicherheit: Innovation und Kontrolle im Spannungsfeld von europäischer Gesetzgebung und nationaler Souveränität. In: Verfassungsblog vom 10.12.2024: https://verfassungsblog.de/ki-im-einsatz-fur-die-sicherheit/ [08.04.2025]. https://dx.doi.org/10.59704/9f52cf6bc2e03d8d. ↩︎
Literatur
Bäuerle, Michael (2024a): Das Informationsrecht der Sicherheitsbehörden zwischen Konstitutionalisierung und Europäisierung. Frankfurt am Main: Verlag für Polizeiwissenschaft 2024.
Bäuerle, Michael (2025): Automatisierte und KI-gesteuerte Datenverarbeitung und -analyse bei den Sicherheitsbehörden. Perspektiven und Grenzen sicherheitsbehördlicher „Datafizierung“. In: Zeitschrift für Datenschutz (ZD) 15, Heft 3, S. 128-131.
Deutscher Bundestag (2024a): Entwurf eines Gesetzes zur Verbesserung der inneren Sicherheit und des Asylsystems (Bundestags-Drucksache 20/12805), 09.09.2024, Berlin.
Deutscher Bundestag (2024b): Entwurf eines Gesetzes zur Verbesserung der Terrorismusbekämpfung (Bundestags-Drucksache 20/12806), 09.09.2024, Berlin.
Hessischer Landtag (2024a): Gesetz zur Stärkung der Inneren Sicherheit in Hessen (Landtags-Drucksache 21/1151), 01.10.2024, Wiesbaden.
Hessischer Landtag (2024b): Änderungsantrag zu Gesetzesentwurf Gesetz zur Stärkung der Inneren Sicherheit in Hessen (Landtags-Drucksache 21/1448), 05.12.2024, Wiesbaden.
Kugelmann, Dieter/Buchmann, Antonia (2025): Der Algorithmus und die Künstliche Intelligenz als Ermittler. In: Zeitschrift für das gesamte Sicherheitsreicht (GSZ) 1, S. 1-44.
Steht die so genannte „Singularität“ kurz bevor? Wird die KI also die menschliche Intelligenz überflügeln – mit segensreichen oder apokalyptischen Folgen für die Menschheit? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Und welcher KI überhaupt? Im zweiten Teil der kurzen Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Rolf Otte über den KI-Hype, die Grenzen der KI sowie darüber gesprochen, was auf die Software-KI folgen könnte.
Interview mit Ralf Otte | 28.03.2025
Bild mit Adobe Firefly erstellt. Prompt: Deep Learning Code as illustration; style: cubism; colors: blue and grey tones.
Verantwortungsblog: Der Hype um die Künstliche Intelligenz hält an, aber es mehren sich kritische Stimmen, die etwa vor dem ökologischen Fußabdruck der Technologie warnen oder davor, man überschätze ihre Leistungen. Auch Sie meinen, die Entwicklung der großen Sprachmodelle, der Large Language Models, komme an Ihre Grenzen. Worin bestehen diese Grenzen? Und warum lassen Sie sich nicht überwinden?
Ralf Otte: In den letzten Jahren hat die KI eine exponentielle Entwicklung genommen. In immer kürzeren Abständen gab es immer mehr Fortschritt. Das hat zu großen Erwartungen und zum KI-Hype geführt. Ähnliches haben wir schon in den KI-Anfangsjahren erlebt. In den 1960er Jahren wurde vieles versprochen: dass man das Denken nachbilden kann, dass man Expertensysteme damit bauen kann. Dazu kam es seinerzeit nicht. Aber die Technik hat sich stetig weiterentwickelt. Denkprozesse wurden tatsächlich mathematisiert und überall sieht man Expertensysteme. 2022 sind wir nun in einen neuen Hype geraten, und das hat mit den Sprachmodellen zu tun. Seit ChatGPT ist KI in der Gesellschaft angekommen: Es gibt diese KI und sie kann ganz unglaubliche Dinge. Aber gewisse Dinge kann sie nicht. Und das muss man erklären. Denn immer mehr Politiker und Vorstände glauben, mit KI können sie vieles lösen – ohne dass es so ist. Zur Zeit eines Lokführerstreiks äußerte ein Ministerpräsident beispielsweise: Wenn die Lokführer streiken, können wir doch KI die Züge fahren lassen. Es gab Autokonzerne, die versprachen, bis 2030 fahren unsere Autos vollautonom. Aber vollautonome Autos, die weltweit fahren können, werden niemals kommen. Wir werden auch keine vollautonomen Haushaltsroboter kaufen können. Das sind Dinge, die wir Ingenieure schlicht nicht bauen können. Es gibt Grenzen der KI. Wenn man das verstanden hat, dann verliert man auch wieder die Angst vor der KI, die angeblich alles kann. Ja, die Sprachmodelle sind gut. Aber sie machen zurzeit bis zu 20 Prozent Fehler in ihren Aussagen und diese Fehlerquote wird man noch auf 10 oder 5 Prozent senken können.
V-Blog: Und dann ist das Ende erreicht?
RO: Die Sprachmodelle werden nie die Sprachqualitäten eines Menschen erreichen. Das ist eine prinzipielle Sache. Wenn besser kommuniziert würde, wie wir KI bauen und wie das menschliche Gehirn funktioniert, dann wäre klar, warum die KI nie an das Gehirn heranreichen wird: Im menschlichen Gehirn gibt es neuronale Netze. Wir haben ungefähr 80 Milliarden Neuronen in unserem Gehirn. Ein Neuron kann mit tausenden anderen Neuronen verbunden sein. So kommen wir auf Billionen von Synapsen, also Verbindungen zwischen den Neuronen. Und wenn man lernt, etwas begreift, dann verändern sich die synaptischen Werte. Lernen verändert also das neuronale Netz im Gehirn physisch. Man spricht im Zusammenhang mit der aktuellen KI zwar auch von neuronalen Netzen im Computer. Aber das ist nur eine Metapher, denn es gibt keine neuronalen Mechanismen im Computer, das sind nur mathematische Gleichungen. Würde man einen Computer aufbohren, dann würde man feststellen, die KI auf einem Computer ist nur Mathematik. Nirgends findet man auch nur ein einziges Neuron.
V-Blog: Und im Gehirn?
RO: Im Gehirn laufen keine mathematischen Verfahren. Deswegen bereitet es solche Mühe, einem Menschen ein mathematisches Verfahren beizubringen. Sie brauchen zehn bis zwölf Jahre in der Schule, um die Gehirnprozesse, also physikalische und chemische Prozesse, so zu modulieren, dass sie mathematischen Operationen entsprechen. Das neuronale Netz im Gehirn bringt das nicht mit. Sie können es aber so modulieren, dass Sie nach Ende des ersten Schuljahres Zahlen addieren können. Das braucht sehr, sehr lange und das klingt nach einem Nachteil. Aber der Vorteil ist, dass das menschliche Gehirn mathematische Operationen zwar abbilden kann, aber nicht muss. Die KI im Computer ist jedoch reine Mathematik. Wer KI programmiert, programmiert mathematische Formeln. Das hat die letztendliche Konsequenz, dass die Grenzen der Mathematik die Grenzen der KI sind. Aber die Grenzen der Mathematik sind nicht die Grenzen eines Menschen. Die Intelligenz des Menschen ist physikalisch, chemisch wie auch sozial fundiert.
V-Blog: Weil KI diese Schwelle nicht überschreiten kann, wird autonomes Fahren, so wie es versprochen wird, nicht erreicht werden können?
RO: Ich habe dazu im Dezember letzten Jahres ein kleines Büchlein geschrieben, mit dem Titel Künstliche Intelligenz – Illusion und Wirklichkeit. Darin erläutere ich „Warum autonomes Fahren weltweit niemals Wirklichkeit wird“, so der Untertitel des Buches. Ein Grund ist das Problem des Extrapolationsraums. Eine KI können Sie heute gut trainieren und in diesem Datenraum können Sie sie sicher anwenden. Aber wenn Sie KI-Systeme wie ChatGPT über Dinge befragen, die es nicht gelernt hat, fängt die KI oft an zu halluzinieren. In diesem Extrapolationsraum können Sie die KI nicht sicher anwenden. Und zwar prinzipiell nicht. Das Problem lässt sich auch mit einem Supercomputer nicht überwinden, weil es ein mathematisches Problem ist und kein technisches. Ein anderes Problem ist energetisch: Ein Mensch hat 20 bis 30 Watt Leistungsaufnahme im Gehirn. NVIDIA-Chips in einem Level-3-Auto haben 4000 bis 5000 Watt Leistungsaufnahme. Die KI verbraucht über das Hundertfache an Energie. Und dann kommen noch die Aufwände der Infrastruktur hinzu. Das ist Wahnsinn. Und damit fährt das Auto nur Level 3, bei Mercedes oder BMW bedeutet das bis 60 (bald 90) km/h auf der Autobahn und bei guten Witterungsbedingungen darf man mal den Blick auch von der Fahrbahn nehmen. Allein aus energetischer Sicht lässt sich vollautonomes Fahren nicht darstellen. Wir bräuchten 100 neue Atomkraftwerke allein in Europa, wenn wir eine gewisse Anzahl von Autos mit Level 5 auf die Straße bringen würden. Teilautonomes Fahren, Level 3, ist heute schon möglich. BMW fährt Level 3, Tesla, Mercedes und Honda auch. Und Level 4 bedeutet Höchstautomatisierung. Der Mensch kann dann in 80 bis 90 Prozent der Fälle die KI fahren lassen. Der Punkt ist: Das ist in allen Bereichen so. Die KI können Sie in 80 bis 90, teilweise 99 Prozent aller Fälle arbeiten lassen – ob in der Fabrik, im Auto, im Kraftwerk oder im Flugzeug. Aber was ist mit dem Rest? Den Rest wird die KI nicht lösen. Insofern wird eine KI niemals vollautomatisch ein Flugzeug steuern, weil die ein bis zwanzig Prozent der Problemfälle natürlich wichtig sind. Niemand würde ein Flugzeug von einer KI fliegen lassen, ohne einen Piloten an Bord zu haben. Den Autopiloten kennen wir schon lange, aber für Starts und Landungen sowie für schwierige Flugbedingungen braucht es Menschen. Und das ist ein mathematisches Erfordernis, kein technisches. Alles andere können wir gerne automatisieren, aber wir sollten nicht Milliarden rauswerfen für Automatisierungsprojekte, von denen man eigentlich schon weiß, dass sie nicht möglich sind.
V-Blog: Das ist also die Grenze der KI?
RO: Wir reden von den Grenzen der mathematischen KI. Aber die KI wird weiterentwickelt, beispielsweise in eine physikalische KI, die auf neuromorphen und Quantencomputern läuft. Daran arbeite ich selbst. Ich entwickle neuronale Netze auf Quantencomputern. Auch an einer chemischen KI wird gearbeitet. Man kann Proteine nutzen, indem man deren Faltungsprozesse trainiert und zur Lösung von Aufgaben einsetzt. Es gibt auch biologische KI. Man kann Pilze zum Rechnen nutzen und in der Schweiz arbeitet beispielsweise ein Start-up mit menschlichen Nervenzellen, die an Elektroden angeschlossen werden und die man dazu bringt, Pingpong zu spielen. In diese Richtungen geht es. Aus der mathematischen KI wird eine physikalische, chemische und biologische KI. Und diese Formen von Künstlicher Intelligenz können viel, viel mehr – beängstigend viel mehr. Das müssen wir regulieren. Dieses Forschungsfeld nicht zu regulieren ist so, als würden Sie in der Genforschung alles erlauben, jede genetische Manipulation am Menschen. Da hat aber der Gesetzgeber eine rote Linie gezogen. Und das brauchen wir auch für die KI. Ich warne nicht vor der physikalischen oder der chemischen KI, aber ich warne vor der biologischen KI, also davor, dass Pilze, Ratten oder menschliche Nervenzellen in zahlreichen Anwendungen benutzt werden.
V-Blog: Was macht eine biologische KI so problematisch?
RO: In meinem Buch Maschinenbewusstsein geht es um die Frage, wie kann Bewusstsein auf Maschinen entstehen? Und mit Bewusstsein meine ich Wahrnehmung. Die heutige KI kann nicht wahrnehmen und ich forsche an einer physikalischen KI, die ein rudimentäres Bewusstsein auf ihren maschinellen Bauelementen entwickeln kann. Man kann mathematisch zeigen, dass gewisse Bausteine, z.B. Quantencomputer, eventuell in der Lage sind, rudimentäres technisches Bewusstsein auszuprägen. Aber das ist immer noch ganz weit weg von den Wahrnehmungsfähigkeiten von Ratten oder Fliegen.
V-Blog: Inwiefern?
RO: Ich gebe Ihnen ein Beispiel: Sie gehen auf eine Party und Sie nehmen wahr, was dort passiert. Sie qualifizieren die Wahrnehmung in dem Sinne, dass Sie sagen, es gefällt mir hier nicht. Diese qualifizierten Wahrnehmungen nennt man bei Menschen „Gefühle“. Es gefällt Ihnen nicht und Sie gehen. Das heißt, es gibt Systeme, Menschen, Ratten und Hunde zum Beispiel, die haben nicht nur Wahrnehmungen, sondern können sie qualifizieren, sie als angenehm oder unangenehm bewerten. Die Systeme, die das können, sind alle biologische Systeme. Denn diese lebenden Systeme müssen ihre Wahrnehmung qualifizieren. Ein Kind greift einmal an die heiße Herdplatte und hat diese Wahrnehmung als äußerst unangenehm qualifiziert. Es wird sich davor hüten, diese Wahrnehmung erneut zu machen. Das heißt, die Qualifikation der Wahrnehmung sorgt dafür, dass biologische Systeme in einer komplizierten und gefahrvollen Umwelt überleben können. Technische Systeme hingegen müssen nicht überleben, denn sie leben schließlich gar nicht – der Quantencomputer nicht, der neuromorphe Computer und der Laptop auch nicht. Das sind mineralische Systeme. Diese Systeme können wahrscheinlich zwar Bewusstsein entwickeln, insofern sie wahrnehmen können, aber sie können die Wahrnehmung nicht qualifizieren. Sie können also keine Gefühle entwickeln und auch keine Willensprozesse. Deswegen darf ich damit forschen und experimentieren.
V-Blog: Es wird also keine sogenannte „Singularität“ geben?
RO: Eine KI, die intelligenter als der Mensch ist und die Menschheit auslöschen will, ist reine Science-Fiction. Eine Maschine auf mineralischer Basis wird nie etwas fühlen und damit auch nie etwas wollen. Denn „Wollen“ bedeutet, ich will meine Umgebung so verändern, dass ich angenehme Gefühle habe. Auch hier kommen wir allerdings wieder zu den Problemen der biologischen KI. Wenn Sie menschliche Zellen oder Zellen aus dem Rattengehirn nehmen, dann bauen Sie ein biologisches System, das hat mit Sicherheit Wahrnehmungen und kann diese qualifizieren. Es kann zum Beispiel Angst haben. Ich stelle mir vor, dass die menschlichen Nervenzellen in der Petrischale Angstzustände bekommen, wenn wir sie mit elektrischen Schlägen traktieren. Denn darin besteht unter anderem das Training: Wenn sie falsche Antworten geben, dann versetzt man ihnen elektrische Schläge, bis sie richtige Antworten geben. Wir wissen nicht, ob sie Angst empfinden, aber das liegt nahe, denn es ist lebende Materie. Ein biologisches System solchen Zuständen auszusetzen, ist eventuell Quälerei. Das ist ein No-Go. Das passiert zwar auch in der Schweinezucht, aber deswegen gibt es den Tierschutz. Es darf keine biologische KI geben, die mit elektrischen Schlägen zum Lernen gezwungen wird. Ich kann mir aber vorstellen, dass das in zehn Jahren Standard sein wird – ob mit Pilzen oder mit menschlichen Nervenzellen. Eine solche KI wäre erheblich intelligenter als alle physikalischen Systeme, weil sie Bewusstseinsprozesse und sogar Gefühle hätte. Die Lernprozesse dieser KI würden tausendmal schneller und energieeffizienter ablaufen. Wir würden aber nicht wissen, was diese biologische KI fühlt.
V-Blog: Sie kritisieren auch die großen Tech-Konzerne. Sie schreiben, dass diese Konzerne ein Interesse am KI-Hype haben.
RO: Das ist nahezu selbsterklärend: Letztlich geht es in der Wirtschaft um Geld. Ich berate viele Unternehmen und überall, wo ich hinkomme, werden Copilot, ChatGPT oder andere Systeme eingesetzt. Das heißt, Big Tech schafft es, mit KI in die Unternehmen zu diffundieren. Sie werden sich unersetzbar machen, so wie vor 50, 60 Jahren Computer eingeführt und unersetzbar wurden. Es entstand ein Riesenmarkt. Und die KI müssen Sie mit dem Computer gleichsetzen. Jedes Unternehmen, jedes Büro soll KI-Verfahren einsetzen – das ist das Ziel eines KI-Herstellers. Und das ist auch legitim. Das Problem ist eben, dass den Entscheidern dieser Welt vorgegaukelt wird, mit KI könnten sie nahezu alle Probleme lösen. Ich habe mit Ministern auf Landesebene zu tun und da stellen sich Minister vor, dass man die ganze Verwaltung durch KI automatisieren kann. Warum? Weil vorher Big Tech-Leute da waren und wunderbare Use Cases gezeigt haben, was mit KI alles möglich sei. Vom E-Mail-Schreiben bis zur Wohngeldvergabe würde sich alles automatisieren lassen. Und das glauben die. Die Konsequenz ist, dass KI überall reingedrückt wird, auch in Bereiche, wo wir als Ingenieure sagen, das kann nicht gut gehen.
V-Blog: Welche Bereiche wären das?
RO: Man versucht beispielsweise, die KI in die Rechtsprozesse, in den Gerichtssaal zu bringen. Dafür sind diese Prozesse aber zu komplex, das habe ich im erwähnten Buch KI – Illusion und Wirklichkeit ausführlich gezeigt. Es lässt sich mathematisch beweisen, dass die Rechtsprozesse eine solche Komplexitätsstufe erreichen, dass die KI dort nicht einsetzbar ist. Ich habe dieses Jahr vielen Juristen die KI und deren Risiken erklärt und ihnen das mitgeteilt. Aber auf Entscheider-Ebene ist das nicht vorgedrungen. Deswegen gibt es immer noch die Vorstellung, dass Gerichtsentscheide automatisierbar seien. Die Grenzen der KI sind den Fachleuten bekannt. Aber Big Tech hat ein Interesse am KI-Hype, weil sie Produkte und Lizenzen verkaufen wollen. Der Schaden, der dadurch entstehen wird, ist enorm. Denn in zehn Jahren wird vieles wieder rückabgewickelt werden müssen. Die vollautomatisierten Büros und Verwaltungen beispielsweise: Ich prognostiziere, sie werden nicht richtig arbeiten.
V-Blog: In Maschinenbewusstsein beschreiben Sie, dass auch die Diskussion um Persönlichkeitsrechte für KI Teil des Hypes ist. Warum hat Big Tech ein Interesse daran?
RO: Das Europäische Parlament diskutiert seit 2017, ob den smartesten Systemen Persönlichkeitsrechte eingeräumt werden sollen. Wenn autonom fahrenden Fahrzeugen oder mobilen Robotern, das sind ja die smartesten Systeme, Persönlichkeitsrechte eingeräumt werden, würde das Big Tech freuen, denn dann können sie ihre Haftung reduzieren. Denn, wenn die KI einen Unfall verursacht, vielleicht mit Todesfolge, dann haftet nicht der Hersteller, sondern die KI-Persönlichkeit. Völliger Schwachsinn, aber die Politiker diskutieren das. Und wir Fachleute müssen warnen und sagen, nein, eine KI darf niemals Persönlichkeitsrechte bekommen, denn das sind mathematische Verfahren. Wieso sollte die Mathematik haften? Der Hersteller soll haften, der das Fahrzeug oder den Roboter in den Verkehr gebracht hat. So etwas passiert bereits. Anfang letzten Jahres gab es den Fall, dass ein Chatbot von Air Canada einem Kunden falsche Auskunft über einen Flugtarif erteilt hat. Da Air Canada ihm diesen nicht gewähren wollte, hat er dagegen geklagt. Air Canada hat versucht zu argumentieren, der Chatbot sei mit einem menschlichen Mitarbeiter zu vergleichen und das Unternehmen sei an die Auskunft nicht gebunden. Das eingeschaltete Schiedsgericht hat das nicht überzeugt und dem Kunden recht gegeben. Der europäische AI Act sieht ebenfalls eine Herstellerhaftung vor.
V-Blog: In der Diskussion um den AI Act wird von verschiedenen Seiten gesagt, er verhindere Innovation. Wie sehen Sie das?
RO: Der AI Act hat den Begriff der Betroffenenrechte eingeführt. Das schützt Betroffene wie Sie und mich vor den Auswüchsen der KI. Und das ist gut so. Ich möchte als Betroffener nicht, dass Gesichts- und Emotionserkennung um sich greifen. Davor schützt uns der AI Act. Das begrüße ich sehr. Das ist aber nur die eine Seite. Und die andere ist: Der AI Act greift zu massiv in die technologische Entwicklung in den Unternehmen ein. Ich gebe nur ein Beispiel: Der AI Act unterscheidet zwischen Anbietern und Betreibern. Und wenn Sie durch einen blöden Zufall vom Betreiber zum Anbieter werden, ohne dass Sie es wissen, müssen Sie über 50 Dokumente ausfüllen, statt 20. Wenn Sie in einen „Risikobereich“ kommen, weil Sie KI vielleicht in der Personalabteilung einsetzen, dann müssen Sie diese 50 Dokumente ausfüllen – daran ersticken Unternehmen. Die Konsequenz wird sein, dass viele Unternehmen KI nicht dort einsetzen, wo sie eigentlich sinnvoll eingesetzt werden könnte, denn die möglichen ökonomischen Folgen sind zu groß. Wir reden nicht über Strafzahlungen von einem oder zwei Prozent des weltweiten Umsatzes, sondern von bis zu sieben Prozent. Dazu kommt die vorgesehene Beweislastumkehr im Risikobereich. Sie müssen dann beweisen, dass Sie mit der KI Menschen nicht diskriminiert haben. Da haben Sie viel zu tun. Das ist ein überbordender Eingriff in die Entwicklung und den Einsatz der KI in den Unternehmen.
V-Blog: Also doch ein Problem mit der Innovationsfähigkeit?
RO: Ein großes Problem, ja. Ich meine, ich will auch geschützt werden vor der Datenkrake KI, die mich sonst auf Schritt und Tritt verfolgt. Social Scoring ist ja verboten. Das ist auch gut so. Für diesen Schutz kann man die EU loben. Aber die Probleme gehen weit darüber hinaus. Es ist alles geregelt bis zum letzten Bit und Byte. Sie möchten mal eine kleine KI-Auswertung im Sales-Bereich machen, dann müssen Sie für das damit betraute Personal KI-Kompetenzen nachweisen.
V-Blog: Sam Altman und andere Player im KI-Feld zeichnen Bilder von utopischen Zukünften, die durch KI ermöglicht werden würden. In Ihrem Buch von 2021 und auch in dem von 2024 haben Sie solchen Szenarien eine Absage erteilt. Sie halten KI und Digitalisierung jedoch für Motoren für eine ökonomische Aufholjagd armer Länder. Also wird sich durch KI in unseren Gesellschaften nicht viel ändern, aber die globalen Verhältnisse werden sich durch KI erheblich verändern?
RO: Als ich das 2021 geschrieben habe, habe ich an eine Aufholjagd insbesondere von afrikanischen Nationen gedacht. Denn Sie brauchen heute nur einen Computer und nicht diese große Infrastruktur, die wir in Westeuropa und mittlerweile auch in China haben. Sie brauchen nur einen klugen Geist. Und den gibt es überall auf der Welt. Kluge Geister, billige Arbeitskräfte – die gibt es in Afrika. Die Zukunft sind Digitalisierung, KI und die Auswertung von Daten mit KI. Und in diesen Bereichen können Sie große Sprünge machen, ohne zuvor eine Stahlindustrie oder eine Autoindustrie aufgebaut zu haben. Aber das, was Leute wie Altman versprechen, dass der Welthunger besiegt wird, das kann man vergessen. Der Welthunger könnte heute schon beseitigt werden. Das ist ein politisches Problem, kein technisches. Wir können das jetzt machen, wenn wir es wollten. Was die KI aber in westlichen Gesellschaften bringen wird, das ist mehr Überwachung. Den Nobelpreis für Physik haben letztes Jahr John Hopfield und Geoffrey Hinton erhalten, zwei KI-Leute. Und Hinton hat vor der Entwicklung der KI gewarnt. Dazu habe ich in einem Beitrag für das Physik Journal Stellung bezogen. Diese Warnungen sind gerechtfertigt, aber nicht in dem Sinne, dass die KI klüger wird als wir. Das wird nicht passieren. Aber die KI wird zu massiver Überwachung führen. Bisher haben wir technische Prozesse mit KI überwacht. Ich habe 1994 mein erstes KI-Projekt durchgeführt. Wir haben die Fabrik eines Autozulieferers mit KI automatisiert. Das heißt, Industrieprozesse überwachen wir schon lange vollständig. Und die Gefahr ist nun, dass diese KI-Überwachung auf soziale Prozesse angewendet wird. Teilweise aus vermeintlich guten Gründen, um die Menschen zu schützen, um ihnen mehr Sicherheit zu geben. Aber so landen wir schnell bei chinesischen Verhältnissen. Wollen wir das? Will ich um der Sicherheit willen diese totale Überwachung? Oder will ich weniger Überwachung und nehme dafür mehr Unsicherheit in Kauf? Nun, ich glaube, ein Land wie Deutschland tendiert zu Sicherheit. Aber lasst uns gerne die kaufmännischen Prozesse und die technischen Prozesse mit KI überwachen, aber doch nicht die gesellschaftlichen Prozesse! Aber genau das wird passieren. Beziehungsweise, es passiert schon: Wenn ich höre, dass KI Facebook oder andere soziale Netzwerke durchforstet – das ist Überwachung gesellschaftlicher Prozesse. Diese Überwachungsmittel gehören da aber nicht hin.
V-Blog: Sie meinen auch, die großen US-Tech-Konzerne hätten sich allzu sehr in die Software-KI verliebt. In Deutschland und Europa werde aber zu anderen Formen der KI geforscht.
RO: In Deutschland und Europa findet sehr gute Forschung statt. Wir können neuronale Netze auf Quantencomputern bauen. In der Forschung dazu sind wir Weltspitze. Da muss man sich nur ansehen, was an den Fraunhofer-Instituten gemacht wird. Wir sind auch Weltspitze, wenn es darum geht, die KI in der Industrie einzusetzen. Wenn Delegationen aus China kommen, dann wollen sie sich nicht die neuronalen Netze ansehen, sondern sehen, wie wir KI in der Industrie anwenden. Da müssen wir uns nicht verstecken. Sobald es in den kommerziellen Bereich geht, werden die Technologien allerdings garantiert wieder in den USA weiterentwickelt und dort zuerst auf den Markt gebracht. Viele Dinge werden in Europa entwickelt, aber sie werden hier nicht zur kommerziellen Reife geführt. Denn, wenn Sie in Europa 10 Millionen für Ihr Projekt bekommen wollen, dann müssen Sie sich sehr anstrengen. Mit derselben Anstrengung bekommen Sie in den USA Milliardenbeträge. Aleph Alpha in Heidelberg ist dafür ein Beispiel. Eine tolle Firma, die sich mit Sprachmaschinen beschäftigt. Dafür haben sie für europäische Verhältnisse große Mittel erhalten. Aber global betrachtet ist das lächerlich. OpenAI bekommt enorme Summen und macht Verluste ohne Ende. Die großen Gelder für die Entwicklung und Forschung werden in den USA aufgebracht, weil man die marktbeherrschende Stellung halten will. Und das gelingt. Noch. Aber China wird aufholen, was man bei den Sprachmaschinen bereits erahnen kann. Und das große Geschäft mit KI auf neuromorphen Computern wird wohl wieder in den USA gemacht. Vielleicht müssen wir damit leben.
V-Blog: Herr Otte, vielen Dank für das Gespräch. ■
Ihre Privatsphäre liegt uns am Herzen – deshalb setzen wir auf volle Transparenz.
Auf unserer Webseite nutzen wir ausschließlich Matomo, ein datenschutzfreundliches Analysetool, um zu verstehen, wie unsere Seite genutzt wird. Dabei werden Ihre Daten weder für kommerzielle Zwecke verwendet noch weitergegeben und bleiben ausschließlich auf unseren Servern.
Danke, dass Sie uns mit Ihrer Einwilligung helfen!
Funktional
Immer aktiv
Die technische Speicherung oder der Zugang ist unbedingt erforderlich für den rechtmäßigen Zweck, die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Teilnehmer oder Nutzer ausdrücklich gewünscht wird, oder für den alleinigen Zweck, die Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz durchzuführen.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Präferenzen erforderlich, die nicht vom Abonnenten oder Benutzer angefordert wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt.Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Vorladung, die freiwillige Zustimmung deines Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht dazu verwendet werden, dich zu identifizieren.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.