Kategorien
Akzentfarbe: Hellblau Autor: Geert Lovink Uncategorized Verantwortungsblog

„Wir brauchen ein, zwei, viele Tausende Mastodons“

„Wir brauchen ein, zwei, viele Tausende Mastodons“

„Extinction Internet“ hat der Netztheoretiker und -aktivist Geert Lovink seine Antrittsvorlesung betitelt. Droht dem Internet also die Auslöschung? Und was ist das überhaupt, das Internet – in Zeiten der großen Plattformen und großer nationaler Firewalls? Ist das Ende des Internets noch eher vorstellbar als dessen grundlegende Veränderung?

Von Geert Lovink | 09.05.2025

Figuren, die an einem Netz herumbasteln
Figuren, die an einem Netz herumbasteln. Erstellt mit Adobe Firefly.

Geert Lovink: Der Vergleich zum Artensterben ist jedenfalls nicht angesagt. Wenn wir über Extinction Internet reden, dann reden wir über das Internet als etwas, das mehr und mehr im Hintergrund verschwindet. Um eine Auslöschung des Internets geht es insofern, dass wir nicht mehr in der Lage sind, das Internet als eigenständiges Objekt zu sehen. Es wird nicht mehr darüber geredet, dass das Internet sich in diese oder jene Richtung entwickeln soll. Und da liegt das Problem, das ich versucht habe, zu thematisieren und zu theoretisieren.

Man kann sagen, das Internet war immer abstrakt, war immer nur eine ganz bestimmte und begrenzte Sammlung von Protokollen. Das ist eine Lesart. Für Firmen und Benutzer war es immer etwas anderes. Es ist eine Oberfläche, eine Webseite, eine Sammlung von Apps, etwas, was man auf dem Smartphone installiert und benutzt und so weiter. Wahrscheinlich ist das Internet für die fünf Milliarden Menschen, die es derzeit benutzen, vor allem das, eine Sammlung von Apps auf ihrem Handy.

GL: Ja, die Auslöschung betrifft die Protokollseite, also die Ebene, auf der das Internet als Ganzes noch Gegenstand von Diskussionen um Entwicklungsrichtungen ist. Da passiert immer weniger. Vielleicht passiert sehr viel, aber wir kriegen es nicht mehr mit, es ist nicht mehr Teil der öffentlichen Aushandlung. Und das hat auch damit zu tun, dass das Internet immer stärker plattformisiert wurde. Die großen Player dieser Plattformisierung haben wichtige Positionen in den entscheidenden Internetgremien eingenommen. Google ist da der wichtigste Player. Google hat vor 20 Jahren damit angefangen, systematisch sehr wichtige Positionen einzunehmen, in der Internet Society (ISOC), in der Internet Corporation for Assigned Names and Numbers (ICANN), in der Internet Engineering Task Force (IETF) und so weiter. Die Anzahl dieser Gremien, die bestimmen, wie das Internet sich weiterentwickelt, ist ja begrenzt. Und es gab eine Phase, in der die Zivilgesellschaft und NGOs versucht haben, da mitzuspielen. Diese Versuche wurden aufgegeben.

Gleichzeitig gibt es Länder wie Russland, China und andere, die dafür sorgen, dass das globale Internet nicht mehr so global ist. Das ist die Geopolitik des Internets und die ist ziemlich festgefahren. Auch da hat Stagnation eingesetzt. Wer ist zum Beispiel in der Lage, China zu irgendwas zu bewegen? Dazu ist das Land zu groß und zu mächtig. China hat eine große Firewall errichtet und verkauft diese Technologie weltweit. Damit ist die Abschottung zu einem Produkt geworden, das China in Afrika und in anderen Teilen der Welt verkauft.

GL: Ja. Aber was dabei wichtig ist, ist, dass die Diskussion über die Visionen für das Internet lahmgelegt ist. Vorher ging es noch darum, wie kann es sich weiterentwickeln? Mit Extinction Internet meine ich die Implosion dieses Möglichkeitsraums.

GL: Ja, die Diskussionen berühren nicht mehr den visionären Bereich.

GL: Ja, und wir wissen alle, dass die Apps nicht mehr offen sind, die kann man nicht verändern. Man kann sie nur benutzen. Douglas Rushkoff hat mal gesagt, „program or be programmed“. Wenn wir nicht mehr in der Lage sind, diese Umgebungen selbst zu programmieren, werden wir programmiert. Und da sind wir angelangt.

Es kann sein, dass ich eine idealistische Sozialisierung erfahren habe, vor allem in den 1990er Jahren. Und da ist auch ein Stück weit eine Enttäuschung dieser Generation im Spiel, der ich angehöre. Extinction Internet ist sozusagen auch meine eigene Extinction, also die Auslöschung eines Diskurszusammenhangs, einer Art, über das Internet zu diskutieren. Was auch ausgelöscht zu werden droht, ist die Annahme, dass es dabei um Demokratie geht, um eine participatory culture, in der man sich nicht als Konsument betrachtet, sondern als aktiver Teilnehmer. Es dominiert längst etwas anderes. Man kann nur noch Liken, Swipen und vielleicht einen Kommentar hinterlassen.

GL: Die Plattform-Logik ist aus der Vernetzung entstanden. Was das bedeutet, müssen wir erstmal festhalten. Es gab soziale Netze, soziale Vernetzung und den Begriff der Netzgesellschaft. Diese Vernetzung hat man sich als horizontale gedacht, als eine Vernetzung von Netzen. Es gab zwar auch damals größere Knoten und kleinere, aber die Idee war, dass ein loser Zusammenhang von größeren und kleineren Netzen sich ergeben hat und sich dynamisch weiterentwickelt.

Die Plattform-Logik ist damit unvereinbar, sie ist viel stärker zentralisiert und im hegelschen Sinne eine Totalität, die auch so erfahren wird. Innerhalb einer Plattform gibt es eigentlich alle und alles. Alle sind da und alles, was gemacht werden kann, verhandelt werden kann, gesagt werden kann, produziert werden kann, findet innerhalb dieser zentralisierten Plattform statt. Das ist die Totalität der Plattformen. Die Plattform kann eigentlich im Grunde alles, was wir wünschen. Alles, was wir suchen, ist auf der Plattform und wenn es nicht da ist, wird es morgen entwickelt und angeboten, alles spielt sich innerhalb der Grenzen der Plattform ab. Das heißt, es soll keinen Anlass geben, von den Plattformen wegzugehen. Die Idee der Verbindung hat darin keinen Platz. Die Idee, dass man einen Link nach außen setzt, damit ich von System A zu System B komme, wird aktiv bekämpft. Ziel ist, die Menschen auf der Plattform zu halten.

Man kann sagen, gut, es gibt aber noch verschiedene Plattformen und das stimmt. Aber das hat damit zu tun, dass die Plattformen bestimmte Segmente des Internets geradezu monopolisiert und unter sich aufgeteilt haben. Amazon als größte Plattform bietet vor allem Produkte und Services an, Meta dominiert den Bereich des sozialen Austauschs und Google den der Wissens- und Informationsbeschaffung. Ich skizziere das jetzt nur sehr grob. Diese großen Plattformen stehen miteinander nicht im Wettbewerb. Zwischen ihnen gibt es keine Konkurrenz mehr. Konkurrenz findet innerhalb der Plattformen statt. Wenn ich auf Amazon gehe, um ein Buch zu kaufen, dann kann ich ein Buch von Suhrkamp kaufen oder eins, das im Fischer Verlag erschienen ist. Da gibt es die Konkurrenz Suhrkamp gegen Fischer, aber die findet auf Amazon statt.

GL: Ja, stimmt.

GL: Ja, denn beides hängt zusammen. Was Mark Fisher als kapitalistischen Realismus beschrieben hat, hat auch mit der Implosion des Vorstellbaren zu tun. Fisher beschreibt ein geschlossenes Universum, aus dem es keine Ausstiegsperspektive mehr gibt. Es gibt keine Perspektive für eine grundlegende Veränderung mehr. Und das hat mentale, gesundheitliche Auswirkungen, die sich bei jungen Menschen immer mehr zeigen. Seit „Sad by Design“, das Buch ist 2019 erschienen, dreht sich meine Arbeit sehr darum, diese mentalen Implosionseffekte des „platform realism“ zu beschreiben. In der Tat in Annäherung an Mark Fishers Buch, der darin den mentalen Kollaps sehr gut beschrieben hat, der eintritt, wenn eine Alternative nicht mehr vorstellbar ist.

GL: Ja, es ist leichter. Und vielleicht kommt Extinction Internet auch da her. Wenn es keine Möglichkeiten mehr gibt, sich andere Modelle vorzustellen, stürzt das ganze Gebäude ein. Und solche Ideen sind nicht in Sicht. Ich glaube an die kollektive Vorstellungskraft und wenn die nicht mehr vorhanden ist oder nicht mehr in der Lage ist, sich zu organisieren, zu äußern und Alternativen aufzubauen, kommen wir in eine Phase der Stagnation und Regressionen. Dann läuft sich alles fest.

Es gibt zwei Möglichkeiten, sich das Ende des Internets vorzustellen: Einerseits als schnellen Absturz, als einen Prozess, der sehr schnell verläuft. Das ist die Vorstellung vor allem der jungen Generation. Das zweite Szenario ist, dass dieser Absturz ein ganz, ganz langsamer und schmerzhafter Prozess ist. Und die Aufgabe meiner Generation ist, zu zeigen, dass die Stagnation jahrzehntelang dauern wird.

GL: Beide Werke sind nach wie vor wichtig. Ich habe es immer als meine Aufgabe angesehen, diese Analysen für die digitale Welt nutzbar zu machen, denn für Canetti und für Theweleit war die Medienfrage noch die klassische Frage von Massenmedien und von Repräsentation. Aber mit den sozialen Medien ist die Medienfrage eine sehr, sehr intime Frage geworden. Es reicht nicht mehr, Massenmedien wie Zeitungen zu analysieren und beispielsweise aufzuzeigen, welche Deutungen die Springerpresse verbreitet. Mit den sozialen Medien geht es nicht nur um Öffentlichkeit, sondern um den alltäglichen und intimen Austausch der Menschen, um ihr direktes soziales Umfeld, um Freunde und Familie. Da wird es sehr persönlich und das Medium wird buchstäblich auf der Haut getragen, wenn wir an das Smartphone in der Tasche denken. Und das ist ein Aspekt, den ich in eine Theorie des späten 20. Jahrhunderts einbauen möchte, um Theorien wie die von Canetti und Theweleit zu aktualisieren.

Vor allem bei Theweleit sieht man, dass er unter dem Einfluss der französischen Philosophie und Psychoanalyse die Verführungsprozesse der Macht als etwas versteht, was innerhalb des Körpers, in seinem Fall des männlichen Körpers, vor sich geht. Und das ist auch heute der Fall. Seit 2016, diesem wichtigen Umschlagpunkt mit dem Brexit, mit Trump und mit dem Erstarken des Rechtspopulismus, sieht man, dass wir eine neue Fassung der Männerphantasien brauchen, in der zum Beispiel Jordan Peterson, Nick Land und viele andere im rechten Spektrum eine wichtige Rolle als Ideengeber für junge Männer spielen.

GL: Das sind sie schon. Und dazu werden sie mehr und mehr. Da nehmen ganz regressive Tendenzen zu. Das liegt daran, dass diese Männer mittlerweile das Geld haben, die sozialen Netzwerke so zu gestalten. Denn aufgrund der Plattformlogik konnten sie die dazu nötige Macht und das Kapital anhäufen. Und jetzt fangen sie an, diese Ressourcen strategisch für ihre Zwecke einzusetzen.

GL: Mein Sohn wird bald 23 Jahre alt. Ich habe seine Generation aufwachsen sehen und bemerkt, wie offen, im naiven Sinne offen sie Verschwörungstheorien gegenübersteht. Diese Generation ist nicht rassistisch oder sexistisch, das glaube ich nicht, aber sie ist sehr offen für Verschwörungserzählungen. Und sie erfahren, dass sie in diesem Plattformknast sitzen und keine richtige Wahl haben, weil sie abhängig davon geworden sind. Sie sind nicht im medizinischen Sinne süchtig, aber sie sind mental und sozial davon abhängig. Mit negativen Folgen. Deswegen ist „brain rot“ auch das Wort des Jahres 2024 geworden. Diese mentalen Abhängigkeitsprozesse führen dazu, dass es vor allem für diese Generation nicht so einfach ist, auszusteigen. Und die Frage ist, was passiert mit der Kritik, der Erschöpfung und mit der Wut, wenn es keine Möglichkeit für eine grundlegende Veränderung gibt? Das ist ein Problem.

Ich sage nicht, dass die Beschreibung dieser Prozesse dazu führt, dass wir eine Alternative entwickeln können. Leider ist das nicht so. Das habe ich feststellen müssen und es war schmerzhaft, die Gewissheit aufzugeben, dass mit der richtigen Theorie schon der Schlüssel gefunden oder erfunden ist, um zu Veränderungen zu kommen. Meine Forschung in diesem dunklen Raum führt eigentlich zu nichts. Und das ist das eigentliche Ergebnis: die Stagnation. Sie ist das Problem. Aber es ist nicht so, dass uns die richtige Analyse aus der Stagnation herausführen wird. Und es fühlt sich manchmal ein bisschen schizophren an, dass ich mich immer noch der Analyse und der theoretischen Durchdringung der Netzkulturen widme. Aber die Hälfte meiner Zeit verwende ich für den Aufbau von Alternativen.

GL: Ja, und das ist die positive Nachricht: Es gibt sehr viele Alternativen. Es gibt sehr viele Versuche, sich anders zu organisieren. Zum Teil sind das Projekte, die vor 20, 30 Jahren begonnen wurden und mittlerweile in Vergessenheit geraten sind. Es gibt alternative Projekte, an denen Leute Jahrzehnte gearbeitet haben und die jetzt so weit sind, dass sie von vielen Menschen benutzt werden könnten.

Es gibt auch ganz neue Ansätze und darunter zähle ich den ganzen Krypto-Bereich, der in dieser Form vor 30 oder 40 Jahren nicht vorhanden war. Die Idee alternativer Wirtschaftsformen gab es schon, aber die Idee alternativer Währungen oder das Nachdenken über neue Geldformen halte ich nach wie vor für revolutionär und neu.

GL: Ja, es gibt unendlich viele größere und kleinere Beispiele. Mastodon ist nur eines, aber Mastodon ist eigentlich selbst ein Netz von Netzen, ein Protokoll. Viele begrüßen die Interoperabilität, ich auch. Denn Interoperabilität bedeutet, dass man die virtuellen Mauern der Plattformen einreißt.

Wichtig ist jetzt aber vor allem, dass solche Alternativen gelebt und belebt werden. Wir haben genug Entwürfe, die sind nicht das Problem.

GL: Die Möglichkeit gibt es durchaus. Aber man sollte zuerst darüber diskutieren, ob diese Systeme mit oder ohne Algorithmen funktionieren sollten oder funktionieren können. Kann man sich Alternativen vorstellen, die nicht mehr von Algorithmen bestimmt werden? Oder gibt es alternative Algorithmen? Darüber erfahren wir nicht viel. Kann man in dieser enormen Informationswüste, die wir jeden Tag erzeugen, überhaupt noch ohne Algorithmen navigieren? Ich möchte, dass wir diese Diskussion beginnen. Die Beantwortung dieser Frage ist nicht einfach.

Deswegen brauchen wir viele neue Experimente. Wir brauchen ein, zwei, viele Tausende Mastodons. Es geht nicht darum, dass die Leute von Facebook zu Mastodon wechseln. Es geht darum, dass wir viele Experimente starten, damit wir beobachten können, wie die Beantwortung dieser Algorithmen-Frage aussehen kann. Natürlich gibt es einen Wunsch aus den Erfahrungen der jüngsten Vergangenheit, ganz ohne Algorithmen auszukommen. Aber was heißt das? Zum Beispiel, wenn es um Suchmaschinen geht – geht das überhaupt? Ich denke eher nicht. Möchten wir im Netz personalisierte Umgebung haben? Oder wollen wir personalisierte Umgebungen bekämpfen?

GL: Das alles liegt noch vor uns. Aber man kann sich fragen, warum die Implementierung aufgegeben worden ist. Warum gibt es keine Experimente in diese Richtung? Das wundert mich. Im realexistierenden Kapitalismus kommen manche Innovationen nur sehr schleppend voran. Wir verbinden Innovation mit Geschwindigkeit, aber die ist in diesem Bereich nicht bemerkbar. Es wurde sehr viel entwickelt, aber nichts implementiert.

Was da aufgebaut wird, ist eigentlich eine Parallelwelt. Auch da ist der Glaube stark, dass das alte System einfach nicht von innen innoviert und erneuert werden kann, sondern zuvor einstürzen muss. Der Krypto-Sektor wird als Parallel-Wirtschaft für den Fall aufgebaut, dass das globale Wirtschafts- und Finanzsystem einstürzt. Das ist eigentlich das Szenario. Aber die Idee, dass neue Ansätze ganz langsam über eine experimentelle Implementierungsphase zum Mainstream werden, sehe ich nicht. Das habe ich so nicht erwartet. Ich habe mit einer anderen Dynamik gerechnet.

GL: Der Plattform-Kapitalismus läuft auf Free and Open-Source Software. Dass muss sich diese Szene erstmal eingestehen. Das ist aber tabu. Es gibt da wenige, die sich eingestehen, dass alle, Google, Microsoft, Amazon, nur wegen Free and Open-Source Software groß werden konnten. Und das heißt, dass die FOSS-Bewegung mitverantwortlich ist für die Lage, in der wir uns befinden. Sie hat die Zentralisierung und die Monopole aktiv mitaufgebaut.

Natürlich gibt es auch viele Leute, die sich dagegen gewehrt haben. Ich sage nicht, dass alle moralisch bankrott sind. Aber die öffentliche Diskussion über diese Verstrickung hat noch nicht stattgefunden. Solange das der Fall ist, glaubt man einfach, dass die kleinen, netten Initiativen irgendwann doch die Überhand bekommen. Aber das ist in den letzten 20, 25 Jahren nicht passiert. Das Gegenteil ist passiert. Und das müssen wir diskutieren und reflektieren, bevor wir weiterkommen. Man kann das nicht einfach ignorieren und weiterhin auf Free and Open-Source Software setzen. Man muss reflektieren und neue Ansätze finden, denn im Moment ist die FOSS-Bewegung moralisch bankrott. Die Prinzipien vielleicht nicht, aber es geht nicht um Prinzipien. Es geht um die schmutzige Wirklichkeit.

GL: Ja, ich bleibe da optimistisch, weil ich hier am Institut erlebe, was es heißt, wenn man über 20 Jahre die Zeit hat, sowas richtig aufzubauen. Und die vielen Leute, die direkt oder indirekt mit unserem Institute for Network Culture daran arbeiten, die erfahren das auch so.

Hannah Arendt hat betont, dass es immer die Möglichkeit gibt, neu anzufangen. Sie beschreibt sehr schön die Kraft neu anzufangen und ich denke, dass vor allem viele junge Leute das so erfahren werden. Wenn man, so wie ältere Menschen und Influencer, sehr lange daran gearbeitet hat, seine Reputation auf den existierenden Plattformen aufzubauen, dann fällt es einem schwer, sich radikal davon zu verabschieden. Für junge Leute gilt das aber nicht so. Und deswegen glaube ich, dass wir vor allem auf diese Generation achten und beobachten sollten, wie sie damit umgehen. Sie werden zwar von den mentalen Abhängigkeiten und Problemen belastet, aber ich glaube, die jungen Menschen haben die Möglichkeit, das zu überwinden.

Und das kann nur gemeinsam gelingen, als eine kollektive Anstrengung. Ich glaube nicht, dass es individuell geht. Dafür sind die zentripetalen Kräfte, um auf diesen Plattformen zu bleiben, viel zu groß.

Das Gespräch wurde am 10.01.2025 geführt.

Lovink, Geert (2025): „Wir brauchen ein, zwei, viele Tausende Mastodons“. In: Verantwortungsblog. https://zevedi.de/wir-brauchen-ein-zwei-viele-tausende-mastodons/ [09.05.2025]. https://doi.org/10.60805/dmqt-cw72.

Kategorien
Akzentfarbe: Hellblau Autor: Ralf Otte Uncategorized Verantwortungsblog

„KI wird zu massiver Überwachung führen“

„KI wird zu massiver Überwachung führen“

Steht die so genannte „Singularität“ kurz bevor? Wird die KI also die menschliche Intelligenz überflügeln – mit segensreichen oder apokalyptischen Folgen für die Menschheit? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Und welcher KI überhaupt? Im zweiten Teil der kurzen Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Rolf Otte über den KI-Hype, die Grenzen der KI sowie darüber gesprochen, was auf die Software-KI folgen könnte.

Interview mit Ralf Otte | 28.03.2025

Schematische Illustration; Blau- und Grautöne
Bild mit Adobe Firefly erstellt. Prompt: Deep Learning Code as illustration; style: cubism; colors: blue and grey tones.

Ralf Otte: In den letzten Jahren hat die KI eine exponentielle Entwicklung genommen. In immer kürzeren Abständen gab es immer mehr Fortschritt. Das hat zu großen Erwartungen und zum KI-Hype geführt. Ähnliches haben wir schon in den KI-Anfangsjahren erlebt. In den 1960er Jahren wurde vieles versprochen: dass man das Denken nachbilden kann, dass man Expertensysteme damit bauen kann. Dazu kam es seinerzeit nicht. Aber die Technik hat sich stetig weiterentwickelt. Denkprozesse wurden tatsächlich mathematisiert und überall sieht man Expertensysteme. 2022 sind wir nun in einen neuen Hype geraten, und das hat mit den Sprachmodellen zu tun.
Seit ChatGPT ist KI in der Gesellschaft angekommen: Es gibt diese KI und sie kann ganz unglaubliche Dinge. Aber gewisse Dinge kann sie nicht. Und das muss man erklären. Denn immer mehr Politiker und Vorstände glauben, mit KI können sie vieles lösen – ohne dass es so ist. Zur Zeit eines Lokführerstreiks äußerte ein Ministerpräsident beispielsweise: Wenn die Lokführer streiken, können wir doch KI die Züge fahren lassen. Es gab Autokonzerne, die versprachen, bis 2030 fahren unsere Autos vollautonom. Aber vollautonome Autos, die weltweit fahren können, werden niemals kommen. Wir werden auch keine vollautonomen Haushaltsroboter kaufen können. Das sind Dinge, die wir Ingenieure schlicht nicht bauen können.
Es gibt Grenzen der KI. Wenn man das verstanden hat, dann verliert man auch wieder die Angst vor der KI, die angeblich alles kann. Ja, die Sprachmodelle sind gut. Aber sie machen zurzeit bis zu 20 Prozent Fehler in ihren Aussagen und diese Fehlerquote wird man noch auf 10 oder 5 Prozent senken können.

RO: Die Sprachmodelle werden nie die Sprachqualitäten eines Menschen erreichen. Das ist eine prinzipielle Sache. Wenn besser kommuniziert würde, wie wir KI bauen und wie das menschliche Gehirn funktioniert, dann wäre klar, warum die KI nie an das Gehirn heranreichen wird: Im menschlichen Gehirn gibt es neuronale Netze. Wir haben ungefähr 80 Milliarden Neuronen in unserem Gehirn. Ein Neuron kann mit tausenden anderen Neuronen verbunden sein. So kommen wir auf Billionen von Synapsen, also Verbindungen zwischen den Neuronen. Und wenn man lernt, etwas begreift, dann verändern sich die synaptischen Werte. Lernen verändert also das neuronale Netz im Gehirn physisch.
Man spricht im Zusammenhang mit der aktuellen KI zwar auch von neuronalen Netzen im Computer. Aber das ist nur eine Metapher, denn es gibt keine neuronalen Mechanismen im Computer, das sind nur mathematische Gleichungen. Würde man einen Computer aufbohren, dann würde man feststellen, die KI auf einem Computer ist nur Mathematik. Nirgends findet man auch nur ein einziges Neuron.

RO: Im Gehirn laufen keine mathematischen Verfahren. Deswegen bereitet es solche Mühe, einem Menschen ein mathematisches Verfahren beizubringen. Sie brauchen zehn bis zwölf Jahre in der Schule, um die Gehirnprozesse, also physikalische und chemische Prozesse, so zu modulieren, dass sie mathematischen Operationen entsprechen. Das neuronale Netz im Gehirn bringt das nicht mit. Sie können es aber so modulieren, dass Sie nach Ende des ersten Schuljahres Zahlen addieren können. Das braucht sehr, sehr lange und das klingt nach einem Nachteil. Aber der Vorteil ist, dass das menschliche Gehirn mathematische Operationen zwar abbilden kann, aber nicht muss.
Die KI im Computer ist jedoch reine Mathematik. Wer KI programmiert, programmiert mathematische Formeln. Das hat die letztendliche Konsequenz, dass die Grenzen der Mathematik die Grenzen der KI sind. Aber die Grenzen der Mathematik sind nicht die Grenzen eines Menschen. Die Intelligenz des Menschen ist physikalisch, chemisch wie auch sozial fundiert.

RO: Ich habe dazu im Dezember letzten Jahres ein kleines Büchlein geschrieben, mit dem Titel Künstliche Intelligenz – Illusion und Wirklichkeit. Darin erläutere ich „Warum autonomes Fahren weltweit niemals Wirklichkeit wird“, so der Untertitel des Buches.
Ein Grund ist das Problem des Extrapolationsraums. Eine KI können Sie heute gut trainieren und in diesem Datenraum können Sie sie sicher anwenden. Aber wenn Sie KI-Systeme wie ChatGPT über Dinge befragen, die es nicht gelernt hat, fängt die KI oft an zu halluzinieren. In diesem Extrapolationsraum können Sie die KI nicht sicher anwenden. Und zwar prinzipiell nicht. Das Problem lässt sich auch mit einem Supercomputer nicht überwinden, weil es ein mathematisches Problem ist und kein technisches.
Ein anderes Problem ist energetisch: Ein Mensch hat 20 bis 30 Watt Leistungsaufnahme im Gehirn. NVIDIA-Chips in einem Level-3-Auto haben 4000 bis 5000 Watt Leistungsaufnahme. Die KI verbraucht über das Hundertfache an Energie. Und dann kommen noch die Aufwände der Infrastruktur hinzu. Das ist Wahnsinn. Und damit fährt das Auto nur Level 3, bei Mercedes oder BMW bedeutet das bis 60 (bald 90) km/h auf der Autobahn und bei guten Witterungsbedingungen darf man mal den Blick auch von der Fahrbahn nehmen. Allein aus energetischer Sicht lässt sich vollautonomes Fahren nicht darstellen. Wir bräuchten 100 neue Atomkraftwerke allein in Europa, wenn wir eine gewisse Anzahl von Autos mit Level 5 auf die Straße bringen würden. Teilautonomes Fahren, Level 3, ist heute schon möglich. BMW fährt Level 3, Tesla, Mercedes und Honda auch. Und Level 4 bedeutet Höchstautomatisierung. Der Mensch kann dann in 80 bis 90 Prozent der Fälle die KI fahren lassen.
Der Punkt ist: Das ist in allen Bereichen so. Die KI können Sie in 80 bis 90, teilweise 99 Prozent aller Fälle arbeiten lassen – ob in der Fabrik, im Auto, im Kraftwerk oder im Flugzeug. Aber was ist mit dem Rest? Den Rest wird die KI nicht lösen. Insofern wird eine KI niemals vollautomatisch ein Flugzeug steuern, weil die ein bis zwanzig Prozent der Problemfälle natürlich wichtig sind. Niemand würde ein Flugzeug von einer KI fliegen lassen, ohne einen Piloten an Bord zu haben. Den Autopiloten kennen wir schon lange, aber für Starts und Landungen sowie für schwierige Flugbedingungen braucht es Menschen. Und das ist ein mathematisches Erfordernis, kein technisches. Alles andere können wir gerne automatisieren, aber wir sollten nicht Milliarden rauswerfen für Automatisierungsprojekte, von denen man eigentlich schon weiß, dass sie nicht möglich sind.

RO: Wir reden von den Grenzen der mathematischen KI. Aber die KI wird weiterentwickelt, beispielsweise in eine physikalische KI, die auf neuromorphen und Quantencomputern läuft. Daran arbeite ich selbst. Ich entwickle neuronale Netze auf Quantencomputern. Auch an einer chemischen KI wird gearbeitet. Man kann Proteine nutzen, indem man deren Faltungsprozesse trainiert und zur Lösung von Aufgaben einsetzt. Es gibt auch biologische KI. Man kann Pilze zum Rechnen nutzen und in der Schweiz arbeitet beispielsweise ein Start-up mit menschlichen Nervenzellen, die an Elektroden angeschlossen werden und die man dazu bringt, Pingpong zu spielen.
In diese Richtungen geht es. Aus der mathematischen KI wird eine physikalische, chemische und biologische KI. Und diese Formen von Künstlicher Intelligenz können viel, viel mehr – beängstigend viel mehr. Das müssen wir regulieren. Dieses Forschungsfeld nicht zu regulieren ist so, als würden Sie in der Genforschung alles erlauben, jede genetische Manipulation am Menschen. Da hat aber der Gesetzgeber eine rote Linie gezogen. Und das brauchen wir auch für die KI. Ich warne nicht vor der physikalischen oder der chemischen KI, aber ich warne vor der biologischen KI, also davor, dass Pilze, Ratten oder menschliche Nervenzellen in zahlreichen Anwendungen benutzt werden.

RO: In meinem Buch Maschinenbewusstsein geht es um die Frage, wie kann Bewusstsein auf Maschinen entstehen? Und mit Bewusstsein meine ich Wahrnehmung. Die heutige KI kann nicht wahrnehmen und ich forsche an einer physikalischen KI, die ein rudimentäres Bewusstsein auf ihren maschinellen Bauelementen entwickeln kann. Man kann mathematisch zeigen, dass gewisse Bausteine, z.B. Quantencomputer, eventuell in der Lage sind, rudimentäres technisches Bewusstsein auszuprägen. Aber das ist immer noch ganz weit weg von den Wahrnehmungsfähigkeiten von Ratten oder Fliegen.

RO: Ich gebe Ihnen ein Beispiel: Sie gehen auf eine Party und Sie nehmen wahr, was dort passiert. Sie qualifizieren die Wahrnehmung in dem Sinne, dass Sie sagen, es gefällt mir hier nicht. Diese qualifizierten Wahrnehmungen nennt man bei Menschen „Gefühle“. Es gefällt Ihnen nicht und Sie gehen. Das heißt, es gibt Systeme, Menschen, Ratten und Hunde zum Beispiel, die haben nicht nur Wahrnehmungen, sondern können sie qualifizieren, sie als angenehm oder unangenehm bewerten. Die Systeme, die das können, sind alle biologische Systeme. Denn diese lebenden Systeme müssen ihre Wahrnehmung qualifizieren. Ein Kind greift einmal an die heiße Herdplatte und hat diese Wahrnehmung als äußerst unangenehm qualifiziert. Es wird sich davor hüten, diese Wahrnehmung erneut zu machen. Das heißt, die Qualifikation der Wahrnehmung sorgt dafür, dass biologische Systeme in einer komplizierten und gefahrvollen Umwelt überleben können.
Technische Systeme hingegen müssen nicht überleben, denn sie leben schließlich gar nicht – der Quantencomputer nicht, der neuromorphe Computer und der Laptop auch nicht. Das sind mineralische Systeme. Diese Systeme können wahrscheinlich zwar Bewusstsein entwickeln, insofern sie wahrnehmen können, aber sie können die Wahrnehmung nicht qualifizieren. Sie können also keine Gefühle entwickeln und auch keine Willensprozesse. Deswegen darf ich damit forschen und experimentieren.

RO: Eine KI, die intelligenter als der Mensch ist und die Menschheit auslöschen will, ist reine Science-Fiction. Eine Maschine auf mineralischer Basis wird nie etwas fühlen und damit auch nie etwas wollen. Denn „Wollen“ bedeutet, ich will meine Umgebung so verändern, dass ich angenehme Gefühle habe.
Auch hier kommen wir allerdings wieder zu den Problemen der biologischen KI. Wenn Sie menschliche Zellen oder Zellen aus dem Rattengehirn nehmen, dann bauen Sie ein biologisches System, das hat mit Sicherheit Wahrnehmungen und kann diese qualifizieren. Es kann zum Beispiel Angst haben. Ich stelle mir vor, dass die menschlichen Nervenzellen in der Petrischale Angstzustände bekommen, wenn wir sie mit elektrischen Schlägen traktieren. Denn darin besteht unter anderem das Training: Wenn sie falsche Antworten geben, dann versetzt man ihnen elektrische Schläge, bis sie richtige Antworten geben. Wir wissen nicht, ob sie Angst empfinden, aber das liegt nahe, denn es ist lebende Materie. Ein biologisches System solchen Zuständen auszusetzen, ist eventuell Quälerei. Das ist ein No-Go. Das passiert zwar auch in der Schweinezucht, aber deswegen gibt es den Tierschutz.
Es darf keine biologische KI geben, die mit elektrischen Schlägen zum Lernen gezwungen wird. Ich kann mir aber vorstellen, dass das in zehn Jahren Standard sein wird – ob mit Pilzen oder mit menschlichen Nervenzellen. Eine solche KI wäre erheblich intelligenter als alle physikalischen Systeme, weil sie Bewusstseinsprozesse und sogar Gefühle hätte. Die Lernprozesse dieser KI würden tausendmal schneller und energieeffizienter ablaufen. Wir würden aber nicht wissen, was diese biologische KI fühlt.

RO: Das ist nahezu selbsterklärend: Letztlich geht es in der Wirtschaft um Geld. Ich berate viele Unternehmen und überall, wo ich hinkomme, werden Copilot, ChatGPT oder andere Systeme eingesetzt. Das heißt, Big Tech schafft es, mit KI in die Unternehmen zu diffundieren. Sie werden sich unersetzbar machen, so wie vor 50, 60 Jahren Computer eingeführt und unersetzbar wurden. Es entstand ein Riesenmarkt. Und die KI müssen Sie mit dem Computer gleichsetzen. Jedes Unternehmen, jedes Büro soll KI-Verfahren einsetzen – das ist das Ziel eines KI-Herstellers. Und das ist auch legitim.
Das Problem ist eben, dass den Entscheidern dieser Welt vorgegaukelt wird, mit KI könnten sie nahezu alle Probleme lösen. Ich habe mit Ministern auf Landesebene zu tun und da stellen sich Minister vor, dass man die ganze Verwaltung durch KI automatisieren kann. Warum? Weil vorher Big Tech-Leute da waren und wunderbare Use Cases gezeigt haben, was mit KI alles möglich sei. Vom E-Mail-Schreiben bis zur Wohngeldvergabe würde sich alles automatisieren lassen. Und das glauben die. Die Konsequenz ist, dass KI überall reingedrückt wird, auch in Bereiche, wo wir als Ingenieure sagen, das kann nicht gut gehen.

RO: Man versucht beispielsweise, die KI in die Rechtsprozesse, in den Gerichtssaal zu bringen. Dafür sind diese Prozesse aber zu komplex, das habe ich im erwähnten Buch KI – Illusion und Wirklichkeit ausführlich gezeigt. Es lässt sich mathematisch beweisen, dass die Rechtsprozesse eine solche Komplexitätsstufe erreichen, dass die KI dort nicht einsetzbar ist. Ich habe dieses Jahr vielen Juristen die KI und deren Risiken erklärt und ihnen das mitgeteilt. Aber auf Entscheider-Ebene ist das nicht vorgedrungen. Deswegen gibt es immer noch die Vorstellung, dass Gerichtsentscheide automatisierbar seien.
Die Grenzen der KI sind den Fachleuten bekannt. Aber Big Tech hat ein Interesse am KI-Hype, weil sie Produkte und Lizenzen verkaufen wollen. Der Schaden, der dadurch entstehen wird, ist enorm. Denn in zehn Jahren wird vieles wieder rückabgewickelt werden müssen. Die vollautomatisierten Büros und Verwaltungen beispielsweise: Ich prognostiziere, sie werden nicht richtig arbeiten.

RO: Das Europäische Parlament diskutiert seit 2017, ob den smartesten Systemen Persönlichkeitsrechte eingeräumt werden sollen. Wenn autonom fahrenden Fahrzeugen oder mobilen Robotern, das sind ja die smartesten Systeme, Persönlichkeitsrechte eingeräumt werden, würde das Big Tech freuen, denn dann können sie ihre Haftung reduzieren. Denn, wenn die KI einen Unfall verursacht, vielleicht mit Todesfolge, dann haftet nicht der Hersteller, sondern die KI-Persönlichkeit. Völliger Schwachsinn, aber die Politiker diskutieren das. Und wir Fachleute müssen warnen und sagen, nein, eine KI darf niemals Persönlichkeitsrechte bekommen, denn das sind mathematische Verfahren. Wieso sollte die Mathematik haften? Der Hersteller soll haften, der das Fahrzeug oder den Roboter in den Verkehr gebracht hat.
So etwas passiert bereits. Anfang letzten Jahres gab es den Fall, dass ein Chatbot von Air Canada einem Kunden falsche Auskunft über einen Flugtarif erteilt hat. Da Air Canada ihm diesen nicht gewähren wollte, hat er dagegen geklagt. Air Canada hat versucht zu argumentieren, der Chatbot sei mit einem menschlichen Mitarbeiter zu vergleichen und das Unternehmen sei an die Auskunft nicht gebunden. Das eingeschaltete Schiedsgericht hat das nicht überzeugt und dem Kunden recht gegeben. Der europäische AI Act sieht ebenfalls eine Herstellerhaftung vor.

RO: Der AI Act hat den Begriff der Betroffenenrechte eingeführt. Das schützt Betroffene wie Sie und mich vor den Auswüchsen der KI. Und das ist gut so. Ich möchte als Betroffener nicht, dass Gesichts- und Emotionserkennung um sich greifen. Davor schützt uns der AI Act. Das begrüße ich sehr.
Das ist aber nur die eine Seite. Und die andere ist: Der AI Act greift zu massiv in die technologische Entwicklung in den Unternehmen ein. Ich gebe nur ein Beispiel: Der AI Act unterscheidet zwischen Anbietern und Betreibern. Und wenn Sie durch einen blöden Zufall vom Betreiber zum Anbieter werden, ohne dass Sie es wissen, müssen Sie über 50 Dokumente ausfüllen, statt 20. Wenn Sie in einen „Risikobereich“ kommen, weil Sie KI vielleicht in der Personalabteilung einsetzen, dann müssen Sie diese 50 Dokumente ausfüllen – daran ersticken Unternehmen. Die Konsequenz wird sein, dass viele Unternehmen KI nicht dort einsetzen, wo sie eigentlich sinnvoll eingesetzt werden könnte, denn die möglichen ökonomischen Folgen sind zu groß. Wir reden nicht über Strafzahlungen von einem oder zwei Prozent des weltweiten Umsatzes, sondern von bis zu sieben Prozent. Dazu kommt die vorgesehene Beweislastumkehr im Risikobereich. Sie müssen dann beweisen, dass Sie mit der KI Menschen nicht diskriminiert haben. Da haben Sie viel zu tun. Das ist ein überbordender Eingriff in die Entwicklung und den Einsatz der KI in den Unternehmen.

RO: Ein großes Problem, ja. Ich meine, ich will auch geschützt werden vor der Datenkrake KI, die mich sonst auf Schritt und Tritt verfolgt. Social Scoring ist ja verboten. Das ist auch gut so. Für diesen Schutz kann man die EU loben. Aber die Probleme gehen weit darüber hinaus. Es ist alles geregelt bis zum letzten Bit und Byte. Sie möchten mal eine kleine KI-Auswertung im Sales-Bereich machen, dann müssen Sie für das damit betraute Personal KI-Kompetenzen nachweisen.

RO: Als ich das 2021 geschrieben habe, habe ich an eine Aufholjagd insbesondere von afrikanischen Nationen gedacht. Denn Sie brauchen heute nur einen Computer und nicht diese große Infrastruktur, die wir in Westeuropa und mittlerweile auch in China haben. Sie brauchen nur einen klugen Geist. Und den gibt es überall auf der Welt. Kluge Geister, billige Arbeitskräfte – die gibt es in Afrika. Die Zukunft sind Digitalisierung, KI und die Auswertung von Daten mit KI. Und in diesen Bereichen können Sie große Sprünge machen, ohne zuvor eine Stahlindustrie oder eine Autoindustrie aufgebaut zu haben.
Aber das, was Leute wie Altman versprechen, dass der Welthunger besiegt wird, das kann man vergessen. Der Welthunger könnte heute schon beseitigt werden. Das ist ein politisches Problem, kein technisches. Wir können das jetzt machen, wenn wir es wollten.
Was die KI aber in westlichen Gesellschaften bringen wird, das ist mehr Überwachung. Den Nobelpreis für Physik haben letztes Jahr John Hopfield und Geoffrey Hinton erhalten, zwei KI-Leute. Und Hinton hat vor der Entwicklung der KI gewarnt. Dazu habe ich in einem Beitrag für das Physik Journal Stellung bezogen. Diese Warnungen sind gerechtfertigt, aber nicht in dem Sinne, dass die KI klüger wird als wir. Das wird nicht passieren. Aber die KI wird zu massiver Überwachung führen. Bisher haben wir technische Prozesse mit KI überwacht. Ich habe 1994 mein erstes KI-Projekt durchgeführt. Wir haben die Fabrik eines Autozulieferers mit KI automatisiert. Das heißt, Industrieprozesse überwachen wir schon lange vollständig. Und die Gefahr ist nun, dass diese KI-Überwachung auf soziale Prozesse angewendet wird. Teilweise aus vermeintlich guten Gründen, um die Menschen zu schützen, um ihnen mehr Sicherheit zu geben. Aber so landen wir schnell bei chinesischen Verhältnissen. Wollen wir das? Will ich um der Sicherheit willen diese totale Überwachung? Oder will ich weniger Überwachung und nehme dafür mehr Unsicherheit in Kauf? Nun, ich glaube, ein Land wie Deutschland tendiert zu Sicherheit.
Aber lasst uns gerne die kaufmännischen Prozesse und die technischen Prozesse mit KI überwachen, aber doch nicht die gesellschaftlichen Prozesse! Aber genau das wird passieren. Beziehungsweise, es passiert schon: Wenn ich höre, dass KI Facebook oder andere soziale Netzwerke durchforstet – das ist Überwachung gesellschaftlicher Prozesse. Diese Überwachungsmittel gehören da aber nicht hin.

RO: In Deutschland und Europa findet sehr gute Forschung statt. Wir können neuronale Netze auf Quantencomputern bauen. In der Forschung dazu sind wir Weltspitze. Da muss man sich nur ansehen, was an den Fraunhofer-Instituten gemacht wird. Wir sind auch Weltspitze, wenn es darum geht, die KI in der Industrie einzusetzen. Wenn Delegationen aus China kommen, dann wollen sie sich nicht die neuronalen Netze ansehen, sondern sehen, wie wir KI in der Industrie anwenden. Da müssen wir uns nicht verstecken.
Sobald es in den kommerziellen Bereich geht, werden die Technologien allerdings garantiert wieder in den USA weiterentwickelt und dort zuerst auf den Markt gebracht. Viele Dinge werden in Europa entwickelt, aber sie werden hier nicht zur kommerziellen Reife geführt. Denn, wenn Sie in Europa 10 Millionen für Ihr Projekt bekommen wollen, dann müssen Sie sich sehr anstrengen. Mit derselben Anstrengung bekommen Sie in den USA Milliardenbeträge. Aleph Alpha in Heidelberg ist dafür ein Beispiel. Eine tolle Firma, die sich mit Sprachmaschinen beschäftigt. Dafür haben sie für europäische Verhältnisse große Mittel erhalten. Aber global betrachtet ist das lächerlich. OpenAI bekommt enorme Summen und macht Verluste ohne Ende. Die großen Gelder für die Entwicklung und Forschung werden in den USA aufgebracht, weil man die marktbeherrschende Stellung halten will. Und das gelingt. Noch. Aber China wird aufholen, was man bei den Sprachmaschinen bereits erahnen kann. Und das große Geschäft mit KI auf neuromorphen Computern wird wohl wieder in den USA gemacht. Vielleicht müssen wir damit leben.

Das Interview wurde am 09.01.2024 geführt.

Otte, Ralf (2025): „KI wird zu massiver Überwachung führen“. In: Verantwortungsblog. https://zevedi.de/ki-wird-zu-massiver-ueberwachung-fuehren/ [28.03.2025].
https://doi.org/10.60805/d4de-2y02.