KI sollte eine öffentliche Infrastruktur sein
Wird die KI die menschliche Intelligenz überflügeln? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Vor allem aber: welcher KI überhaupt? Aus Sicht der Forschungspraxis geht es da um die Details. Im dritten Teil der Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Kristian Kersting über das (noch vorhandene) Skalierungspotential von Large Language Models gesprochen, über den Ansatz des „Reasonings“, über vernünftigere und vielleicht bald nachhaltige KI sowie über die Weltansichten, die in der Diskussion um eine Allgemeine Künstliche Intelligenz eine Rolle spielen.
Interview mit Kristian Kersting | 18.06.2025

Verantwortungsblog: Die neueren Versionen der großen Sprachmodelle haben nicht die erwarteten Leistungssteigerungen gebracht, vor allem angesichts des enormen Energieverbrauchs des Trainings – beispielsweise GPT-4.5 von OpenAI. Ist das Potenzial der großen Sprachmodelle, die Skalierung, wie wir sie in den letzten Jahren beobachtet haben, ausgereizt?
Kristian Kersting: Das sind mehrere Fragen: Ist die Skalierung ausgereizt und ist der Energieaufwand gerechtfertigt? Man könnte auch fragen: Wo liegt die Zukunft der KI-Entwicklung? Da gibt es unterschiedliche empirische Ergebnisse. In einigen Evaluierungen sieht man, dass viele der aktuell trainierten Sprachmodelle, in der Performance nicht mehr so skalieren, wie man sich das erhofft hat. Von daher meinen manche Beobachter, dass wir einen Plateaueffekt sehen. Andere sehen den aber noch nicht. Dass diese zuletzt genannten Stimmen keinen Plateaueffekt sehen, liegt auch an einer neuen KI-Trainingsmethode, die beispielsweise bei DeepSeek-R1 zu so guten Ergebnissen geführt hat. Diese Methode wird manchmal als „Reasoning“ verkauft. Aber aktuelle Arbeiten zeigen, dass das nicht Reasoning im Sinne dessen ist, was man früher in der KI-Forschung als „Schlussfolgern“ bezeichnet hat. Aber nennen wir es mal Reasoning. Und, ja: Ich glaube, transformerbasierte Architekturen mit enorm vielen Daten und riesiger Recheninfrastruktur zu trainieren, der Weg also, der in den letzten Jahren zu so großen Erfolgen geführt hat, da scheint ein Plateaueffekt eingetreten zu sein. Es wird weiterhin Verbesserungen geben, die werden aber nicht mehr so groß sein. Es gibt auch das Argument, dass irgendwann nicht mehr genügend Daten vorhanden sein werden, um mit dieser Strategie bessere KI-Modelle zu entwickeln.
Der Energieverbrauch wird aber auch mit der neuen Trainingsmethode von DeepSeek nicht sinken. Denn die Sprachmodelle, die mit Reinforcement Learning im Sinne von Reasoning trainiert werden, die sind zwar kostengünstiger im Training, aber zur Inferenzzeit, beim Reasoning, sind sie kostspieliger. Die entscheidende Frage ist: Ist der Einsatz der Energie gerechtfertigt? In Darmstadt forschen wir daran, zumindest in der Langzeitperspektive weniger Energie zu verbrauchen. Denn wir haben ja ein gutes Beispiel für effizientes Rechnen: Wir Menschen verbrauchen beim Denken auch Energie, aber wir sind dabei im Vergleich zur KI sehr effizient. Andererseits müsste man sich mal vorstellen, alle hätten einen Assistenten an ihrer Seite, einen Menschen, den sie jederzeit zu allem fragen könnten – dazu müsste die Weltbevölkerung verdoppelt werden. Das würde den Energieverbrauch auch enorm steigern. Daher: Die Aussage, dass KI sehr viel Energie verbraucht, muss man in den Kontext setzen und diskutieren.
Wichtiger für die aktuelle Entwicklung der KI ist eine andere Frage: Da wurden gewaltige Investments getätigt, die sich auszahlen müssen. Diese Frage treibt die Akteure um.
V-Blog: In einem FAZ-Beitrag haben Sie gesagt, Stargate und DeepSeek seien eine Chance für Europa. Stargate steht für dieses ressourcenintensive Trainingsmodell: Sehr viele Daten, sehr viel Energie, sehr viel Rechenkapazität aufwenden, um noch größere KI-Modelle zu bauen. DeepSeek steht, wie Sie schon angedeutet haben, zumindest oberflächlich betrachtet für einen anderen Ansatz. Inwiefern ergeben sich durch beide Chancen für Europa?
KK: DeepSeek ist eine Chance, weil es zeigt, dass wir nicht einfach nur die Rechenkapazität und die Modellarchitektur hochskalieren müssen und dann emergiert oder entsteht Intelligenz. Ich fand das schon fast übergriffig, wenn gesagt wurde, dieses große alte Phänomen der Intelligenz, das ist ein reines Skalierungsphänomen: Wenn die Masse an Daten und an GPU groß genug ist, kommt da irgendwann einfach Intelligenz heraus. Das kann sein, ich bin ja kein Prophet, ich weiß nicht, was die Zukunft bringt. Aber es würde mich vor dem Hintergrund meiner eigenen Forschungsergebnisse sehr wundern.
V-Blog: Was hat DeepSeek anders gemacht?
KK: Für das Modell wurde das Deep Learning mittels Transformern kombiniert mit einem sogenannten Post-Compute-Ansatz. Durch zusätzliche Algorithmen, bei DeepSeek ist es ein relativ einfacher Suchalgorithmus, der durch Reinforcement Learning trainiert wurde, hat man versucht, das KI-Modell nach dem Training bei der Generierung einer Antwort leistungsfähiger, sozusagen aussagekräftiger zu machen. Also Deep Learning plus ein bisschen Suche.
Es gibt ja ganz viele andere Algorithmen aus der klassischen, symbolischen KI, die vielleicht viel stärker sind als dieser einfache Suchalgorithmus. Und daran wollen wir in dem Exzellenzcluster „Reasonable AI“ arbeiten, den wir beantragt haben. Das ist die Chance, die wir sehen: Wir brauchen nicht nur große Investments in die Recheninfrastruktur, sondern auch diese Verfeinerung der Modelle durch starke Algorithmen.
V-Blog: Und Stargate?
KK: Das Stargate-Projekt von OpenAI zeigt uns, dass wir investieren müssen. Ich habe ja ein CERN für die KI vorgeschlagen, denn bis wir die richtige Kombination und die neue KI-Generation gefunden haben, müssen wir trotzdem mitspielen können, damit die Wertschöpfung durch KI auch in Europa möglich ist. Sonst habe ich die Sorge, dass wir den Anschluss so stark verlieren, dass wir nicht mehr mitreden können. Vielleicht gibt es private Rechner, die ich nicht kenne, aber wenn wir uns die Computerinfrastruktur in Deutschland anschauen, dann ist nur der Exascale-Rechner am Forschungszentrum Jülich in der Lage, DeepSeek-R1 „from scratch“ zu lernen. Dass diese Modelle wie DeepSeek-R1 effizienter sind, bedeutet nicht, dass sie billig sind und man sie mal eben auf dem Heimrechner rechnen kann. Auch für diese Modelle braucht man spezielle und sehr kostspielige Hardware. DeepSeek-R1 soll sechs oder sieben Millionen US-Dollar gekostet haben, selbst wenn es zehn Millionen gewesen sind: Das war nur der letzte Trainingslauf. Auf dem Weg dorthin musste man das eine oder andere ausprobieren. Das kostet auch. Dann braucht man die Hardware und dann ist da noch das Team von 200 Leuten, wenn man den Berichten trauen kann. Die haben auch Gehälter. DeepSeek gehört einem Hedgefonds, den der DeepSeek-Gründer zuvor mitgegründet hatte und der angeblich mehrere Milliarden Dollar verwaltet. Wir sollten uns also nicht der Illusion hingeben, dass KI mit DeepSeek billig geworden ist. Es ist nur sehr viel kostengünstiger als alles, was wir zuvor gesehen haben. Deswegen die Angst auf US-Seite. Die US-Firmen haben darauf hingearbeitet, dass allein sie diese Modelle trainieren können. DeepSeek hat gezeigt, dass auch andere es können.
Wenn wir also etwas investieren, vielleicht nicht die 500 Milliarden US-Dollar, die im Zusammenhang mit dem Stargate-Projekt genannt werden, dann können wir in Europa mithalten. Und ich schlage ein CERN für die KI vor, weil ich hoffe, dass wir einen öffentlichen Weg für die KI vorantreiben können. Öffentliche Gelder allein können es angesichts der erforderlichen Dimensionen nicht sein, es wird wahrscheinlich auch Geld der Privatwirtschaft brauchen. Deswegen wünsche ich mir entsprechende Partnerschaften für die KI.
V-Blog: In einem Podcast sprechen Sie von einem „Apollo-Programm für die Forschungspolitik“. Wie unterscheidet sich dieses Programm vom Stargate-Projekt von OpenAI?
KK: Das Apollo-Programm, das mir vorschwebt, und auch das CERN für die KI bewegen sich nicht in den Dimensionen der Investments, die für das OpenAI-Projekt allein aufgebracht werden sollen. Das würde kein Staat in Europa leisten können, wahrscheinlich auch die EU nicht. Aber es sollte klar sein, dass 10 Millionen oder Investments in dieser Größenordnung nicht auseichen werden. Der Investitionsbedarf ist enorm.
Und da möchte ich die Gegenfrage stellen: Warum investieren wir solche Summen in die Erforschung des Urknalls, also in das CERN? Ich finde diese Forschung sehr spannend, aber wie viel bringt es der europäischen Wirtschaft? Bringt es Erkenntnisse, die uns im Kampf gegen den Klimawandel helfen? Wenn wir bei der wirtschaftlichen Wertschöpfung der Zukunft mitspielen wollen, dann müssen wir entsprechend investieren. Das muss nicht die Stargate-Dimensionen haben und der öffentliche Sektor soll mitmischen, daher ein Apollo-Programm für die KI bzw. ein KI-CERN. Ich möchte nicht, dass die KI-Wertschöpfung allein in private Taschen fließt, ich glaube, es sollte eine öffentliche Infrastruktur sein. Aber wir müssen investieren und ich begrüße die InvestAI-Initiative der EU – endlich ist da mal eine Vision. Die KI-Gigafabriken, um die es da auch geht, werden deutlich kleiner sein, als das, was in den USA entstehen soll, und ich finde gut, dass es um partizipative Projekte geht, an denen verschiedene Firmen und auch öffentliche Forschungsinstitute sich beteiligen sollen. Das kann man sicherlich auch weiter- und anders denken. Ich hoffe und erwarte, dass wir in Zukunft ganz andere Kombinationen sehen werden und auch die Energiekosten der KI gesenkt werden. Wir müssen aber loslegen. Wenn wir zehn Jahre warten, dann ist der Zug abgefahren.
V-Blog: Welche Rolle soll die öffentliche Hand oder der Staat dabei konkret einnehmen?
KK: Der Staat könnte damit beginnen, ein CERN für die KI zu bauen, also einen Hochleistungsrechner, der allein für die KI-Forschung vorgesehen ist. Damit haben wir in der EU ja auch angefangen, am Forschungszentrum Jülich mit dem Jupiter, mit dem Leonardo in Bologna und mit LUMI in Kajaani in Finnland. Jülich ist für eine KI-Gigafabrik im Gespräch. Es gibt also Ideen. Ein Exascale-Rechner, der nur für KI vorgesehen ist, das wäre ein Anfang. Denn wie sollen wir KI-Modelle entwickeln, wenn wir mit Physikern und anderen Disziplinen um Rechenzeit konkurrieren? Ich will ja nicht mit Klimamodellen konkurrieren, die sollen auch gerechnet werden können. Aber, wenn wir mitspielen wollen, dann müssen wir uns irgendwann dazu entscheiden, KI ernst zu nehmen. So richtig ernst nehmen wir KI in Europa aktuell nicht. Es gibt viele Lippenbekenntnisse. Es gab beispielsweise die EU-AI-Champions-Initiative und da war von 150 Milliarden Euro die Rede, aber schon nach kurzer Zeit ist diese Zahl wieder von der Webseite runtergenommen worden.
Wir müssen eigene Fähigkeiten aufbauen, oder glauben wir wirklich, dass uns die US-Unternehmen das heilbringende Modell geben werden? Das glaube ich nicht. Wir müssen unsere Zukunft selbst in die Hand nehmen. Nur so können wir sicher sein, dass diese KI-Systeme auch mit unseren Werten kompatibel sind.
Worüber wir dann auch reden können: Wo wollen wir KI einsetzen und wo nicht? Jetzt können wir nur darauf warten, dass wir die Antwort von irgendwoher bekommen.
V-Blog: Der Staat sollte also eigene Infrastruktur aufbauen, beispielsweise eine eigene Schul-Cloud oder eine Schul-KI?
KK: Was im Moment passiert, ist wegen des Föderalismus sehr heterogen. Manche versuchen das datenschutzkonform hinzubekommen, andere nutzen beispielsweise einfach die Dienste von US-Unternehmen. Und dann ist die Frage: Wo gehen unsere Daten hin? Jetzt könnten wir sagen, der Cloud-Betrieb ist uns so wichtig, dass wir da souverän sein wollen. Dann könnte der Bund einen Cloud-Betreiber beauftragen, nach seinen Bedingungen eine Cloud zu betreiben. Man hätte dann nicht mit vielen Wettbewerbern zu tun, unter denen man auswählen muss und bei denen man aber nicht sicher sein kann, was mit den Daten passiert. Das finde ich wichtig. Ich möchte nicht, dass alles in privatwirtschaftlicher Hand ist, denn, es gibt Dinge, die meiner Meinung nach eher in die öffentliche Hand gehören. Das kann aber nicht überall so sein und deswegen brauchen wir Kombinationen, also Öffentlich-Private-Partnerschaften.
Was ich mir auch vorstellen könnte: Wir bilden an den öffentlich finanzierten Universitäten den Nachwuchs für die Privatwirtschaft aus. Warum wird nicht beispielsweise ein Deutschland-KI-Fonds eingerichtet, in den die Privatwirtschaft einzahlt und auf den die Universitäten Zugriff haben? Man kann sich ganz viele verschiedene Möglichkeiten der Kombination von Privatwirtschaft und Staat vorstellen. Deswegen bin ich gespannt, was aus dem neuen Digitalministerium kommen wird und auch darauf, wie die Kompetenzen zwischen diesem Ministerium und dem Ministerium für Forschung, Technologie und Raumfahrt verteilt sein werden. Bei welchem Ministerium liegen die KI und die Infrastruktur für die KI-Forschung?
V-Blog: In dem bereits erwähnten FAZ-Beitrag haben Sie gemeint, dass DeepSeek einen Blick auf eine „reasonable AI“, eine vernünftige KI, eröffne, für die Sie auch eintreten. Inwiefern deutet sich mit DeepSeek diese vernünftige KI an?
KK: „Vernünftige KI“ ist der deutsche Titel unseres geplanten Exzellenzclusters. Dabei handelt es sich um die Übersetzung des englischen Titels: „Reasonable Artifical Intelligence“. Den Exzellenzcluster haben wir so getauft, weil es ein schönes Wortspiel ist: Es geht weniger um Vernunft und mehr darum, dass ein kluger oder eben vernünftiger Ressourceneinsatz stattfindet. Was wir im Kern erreichen wollen, ist, lernende Systeme, also Deep Learning, mit Schlussfolgern in Systemen, also mit Logik und symbolischer KI, zu kombinieren. Wie das gut gelingen kann, ist eine offene Forschungsfrage. Da gibt es verschiedene Möglichkeiten, denen man nachgehen kann. Eine Möglichkeit wurde bei DeepSeek-R1 angewendet, das haben wir vorhin besprochen: Auf das Deep Learning folgt als Schlussvorgang eine relativ einfache Suche. Das ist alles.
Warum nennen wir das „Reasonable“? Im Englischen nennt man dieses Schlussfolgern, das auf das Deep Learning folgt, „Reasoning“. Und für das Exzellenzcluster haben wir den Begriff „Reasonable“ gewählt, weil wir die Message senden wollten: Die KI, an der wir arbeiten, ist „reasonable“ im Sinne der besseren Ressourcennutzung, des besseren Datenschutzes und der realistischeren Erwartungen. Es ist nicht so, dass wir dachten, wir könnten mit unseren Schlussfolgerungsmethoden Vernunft im philosophischen Sinne nachbilden. Das wäre sehr anmaßend. Das ist nicht unser Anspruch. Bei Reasonable AI geht es darum, das Schlussfolgern durch smarte Algorithmen in die KI-Systeme zu integrieren. Denn die KI-Forschung existiert ja mindestens seit 1956 und in den vergangenen Jahrzehnten sind einige Algorithmen entstanden. Diese Algorithmen, die oft für ein spezielles Ziel, für eine bestimmte Aufgabe entwickelt worden sind, können garantiert zuverlässige und optimale Lösungen liefern, den optimalen Plan ausgeben, sie verbrauchen auch für den Lösungsweg keine enormen Ressourcen. Und bei Reasonable AI geht es um die Frage, wie wir diese smarten Algorithmen mit Deep Learning, also mit den Large Language Models kombinieren können.
V-Blog: Sie hatten schon zuvor die Bedeutung des Reinforcement Learning betont, aber das spielte doch schon beim Training der LLMs eine entscheidende Rolle. Wie unterscheidet sich der neue Ansatz vom alten? Geht es um LLMs, die für einen speziellen Bereich trainiert werden oder für die Beantwortung der Fragen zu einem bestimmten Themenbereich weniger Ressourcen verbrauchen?
KK: Wir können mittlerweile auf einige Large-Language-Modelle zurückgreifen, die schon trainiert sind. Die muss man ja nicht wegschmeißen. Man kann sie als Grundlage nutzen, auf der man aufbauen kann. Das hat DeepSeek ja gemacht. Und das Reinforcement Learning können Sie sich so vorstellen: Wir haben ein System, das uns sagt, für diese Antwort mache ich diese Schlussfolgerungsschritte und am Ende erhalte ich die Antwort Ja oder Nein. Jetzt kann man sich überlegen, wie entscheide ich, welches die nächste beste Unterfrage ist, um zu dieser Antwort zu kommen? Und das kann man über Reinforcement Learning klären. Wenn keine Logik mit einem konkreten Schlussfolgerungsweg vorgegeben ist, dann kann ich versuchen, das LLM dazu zu bringen, die optimalen Schlussfolgerungsschritte zu lernen. Das ist ein wenig wie mit den Trampelfaden von Ameisen: Eine Ameise geht da lang, eine andere dort lang. Eine dritte Ameise läuft da lang, wo sich eine Überlappung ergeben hat. So ist das beim Reinforcement Learning in gewissem Sinne auch. Man hat viele richtige Antworten und über die Zeit versucht man, das Modell dazu zu bringen, das Relevante darüber zu lernen, also zu lernen, entscheiden zu können, was der nächste richtige Schritt ist. Das ist der „Chain-of-Thought“-Ansatz, an dem gerade gearbeitet wird. Das ist eine Art, wie man versuchen kann, das Schlussfolgern in KI-Systemen zu integrieren.
Wir haben in vielen Domänen klare Regeln dafür, was richtig und was falsch ist, beispielsweise in der Wissenschaft – vielleicht nicht für alle Themen und alle Fragen, aber auf Grundlage dieser Regeln kann man Vorhersagen treffen. Oder in der Statik kennen wir klare Regeln für die statisch richtige Bauweise. Wir kennen diese Regeln und müssen sie nicht immer wieder durch kompliziertes ressourcenintensives datengetriebenes Lernen neu ermitteln. Es macht doch mehr Sinn, diese Regeln in Form von Algorithmen, die wir entwickelt haben, mit Large Language Models zu kombinieren. Man muss nicht entweder auf effiziente Algorithmen setzen oder auf LLMs, man kann beide kombinieren.
V-Blog: Gehört die Retrieval Augmented Generation, also die Nutzung von anderen Informationsquellen als den Trainingsdatensatz eines LLM, auch in diesen Bereich?
KK: Auch das ist eine Kombination, die gemacht wird. Und es gibt noch andere spannende Möglichkeiten. Es gibt beispielsweise die Überlegung, dass das Modell, während es die Antwort ausgibt oder im Nachgang dazu, den Vorgang gewissermaßen reflektiert. Durch diesen Reasoning-Prozess soll das Modell eine falsche Ausgabe revidieren und korrigieren. Dadurch hofft man, das Konfabulieren – das, was immer „Halluzinieren“ genannt wird –, zu reduzieren. Aber da gibt es noch viele offene Fragen.
Durch diese Kombinationen kann man nicht nur die KI-Systeme verbessern, sondern es ergeben sich auch Rückwirkungen auf die Informatik, auf das Software-Engineering: Das ist schon lange nicht mehr Spaghetti-Code, also ein Bandwurm an Code, den man herunterschreibt, sondern modularisiert, also man lädt sich den Code, den man braucht, aus Libraries herunter. Und diesen Code kann man relativ frei kombinieren. Dieses Prinzip möchten wir im Exzellenzcluster auf KI anwenden und damit wiederum auch das Software-Engineering neu denken. So wollen wir zu einer neuen Sicht auf die Informatik kommen, auf das, was Computer Science ist.
V-Blog: Und dieses Kombinieren wäre auch nachhaltiger?
KK: Wir haben alle etwas unterschiedliche Idee davon, was mit „nachhaltig“ gemeint ist. Wahrscheinlich gibt es Leute, die sagen, KI kann nur nachhaltig sein, wenn ein Prompt nur so viel Energie verbraucht wie eine normale Suchanfrage bei Google. Ich weiß nicht, ob das ein sinnvolles Kriterium für nachhaltige KI ist, aber ich glaube jedenfalls, wir können es kostengünstiger machen, als es aktuell der Fall ist.
Ich hoffe, dass wir in Zukunft einerseits nicht immer und immer wieder Large Language Models trainieren und dass andererseits das Schlussfolgern energetisch kostengünstiger wird. Denn wenn immer mehr Menschen KI-Systeme nutzen und die Systeme immer länger nachdenken – das ist ein energieintensiver Vorgang –, dann haben wir ein Problem. Wir müssen es hinkriegen, weniger Energie zu verbrauchen. Es ist aber völlig offen, wie das gehen kann. Wir wissen, dass der Mensch es kann, und diese menschliche Effizienz müssen wir auch mit der KI erreichen. Ein erster Schritt wäre es, existierende Sprachmodelle wiederzuverwenden – ein wenig wie eine Kreislaufwirtschaft oder ein Secondhandladen für KI.
Da stehen wir in Europa aber vor einem Problem: Bis auf Mistral und ein paar andere Modelle hat Europa nicht viel zu bieten. Wenn die neuesten Modelle in Europa nicht mehr anwendbar sein sollten, Llama 4 kann in Europa von Unternehmen oder Personen beispielsweise nicht genutzt werden, dann werden wir abgehängt, wenn wir nicht auf Eigenentwicklungen zurückgreifen können.
V-Blog: Es ergibt sich also auch hier ein Rebound-Effekt: Einsparungen werden durch vermehrte Nutzung wieder übertroffen?
KK: Ja, der Energieverbrauch von DeepSeek ist gestiegen, weil immer mehr Leute das Modell benutzen. Und wegen solcher Effekte brauchen wir einen gesellschaftlichen Diskurs: Die Gesellschaft muss verstehen, dass wir vielleicht nicht überall KI einsetzen müssen. Das ist eine Diskussion, die wir führen müssen. Ähnlich, wie wir das in anderen Bereichen auch machen: Muss ich für alles mein Auto benutzen? Ich bin es gewohnt und deswegen ist es für mich hart, wenn ich es nicht mehr benutzen kann, um Brötchen beim Bäcker um die Ecke zu holen. So ähnlich ist das auch mit der KI. Ich würde sagen, man muss KI nicht überall einsetzen. Eine Mehrheit möchte auch kein biologisches Klonen von Menschen. Ich möchte nicht ultimativ die menschliche Intelligenz digital abbilden. Oder wenn wir uns als Gesellschaft dafür entscheiden, dass Arbeiten wichtig ist, macht es keinen Sinn, die technischen Bedingungen dafür zu schaffen, dass kein Mensch mehr arbeiten muss. Wenn wir uns aber dafür entscheiden, dass wir nicht mehr arbeiten wollen und wenn sich dadurch keine negativen sozialen Folgen ergeben, dann ist es wünschenswert, dass Roboter entwickelt werden. Diese Diskussionen müssen wir endlich führen.
Aber ja, KI kann nachhaltig sein, die Frage ist nur: Ab wann? Und können wir riskieren, dass auf dem Weg dorthin zu viel Energie verbrannt wird? Das kann passieren. Man muss aber auch überlegen: Wo wird noch mehr Energie verbrannt? Den Energieverbrauch von KI zu kritisieren, den des Video-Streamings aber nicht, der derzeit vielleicht deutlich höher ist, das leuchtet mir nicht ein. Wir ziehen in der Region um Frankfurt ein Rechenzentrum nach dem anderen hoch, aber das meiste davon hat nichts mit KI zu tun. Während uns das Streaming nur unterhält, kann uns KI zumindest dabei helfen, gewisse Dinge anzugehen.
V-Blog: Es geht also letztlich um die Frage, wie wir unsere Gesellschaft gestalten wollen?
KK: Das soll keine Nebelkerze sein: Es sollte alles dafür getan werden, dass KI so wenig Energie wie möglich verbraucht. Aber es sollte auch ein Kosten-Nutzen-Vergleich stattfinden, denn: Wer bearbeitet hierzulande die Anträge, wenn der demografische Wandel sich so stark auswirkt, dass die Ämter nicht mehr besetzt werden können? Wollen wir den Energieverbrauch um jeden Preis senken, dafür aber sozialen Unfrieden riskieren? Der demografische Wandel in Deutschland ist da, die Boomer-Generationen gehen bald in Rente und wer bearbeitet dann unsere Anträge? Wir müssen dafür Lösungen finden und ich glaube, dass KI zur Lösung beitragen kann. Wenn wir keine Migration zulassen wollen, wer soll die Arbeit machen?
V-Blog: Es geht also darum, sich zu fragen, in welchen Bereichen lohnt sich der Einsatz und der damit einhergehende Energieverbrauch und wo nicht? Gemäß den Zielen und Werten, auf die wir uns verständigt haben?
KK: Das wäre ein guter erster Schritt. Es ist immer schwierig, Dinge per Gesetz zu verbieten oder einzuschränken. Das ist ähnlich wie mit der Diskussion um den Klimawandel. Ich glaube, in Bezug auf den Klimawandel wird es Dinge geben, die wir einfach vorgeben müssen. Das tun wir in anderen Bereichen ja auch: Die Regeln für den Straßenverkehr sind vorgegeben. Solche Regeln und Gesetze müssen auch für die KI entwickelt werden.
Wenn es um die Regulierung von KI geht, habe ich nur Angst davor, dass KI-Systeme mit dem Menschen gleichgesetzt werden. Diese Systeme sind von dem, was wir Menschen können, noch weit entfernt. Aber wenn wir aus der Perspektive regulieren, dass KI menschenähnlich ist, dann verlieren wir Innovationspotential. Denn dann wird KI nur für die Rationalisierung verwendet. Vorhin habe ich ein bisschen naiv gesagt, es geht darum, uns Menschen zu entlasten. Und klar: Wenn es kostengünstiger ist, eine Maschine einzusetzen, dann wird man in der Marktwirtschaft dazu tendieren, den Menschen zu ersetzen. Wenn die Gesellschaft das nicht will, dann können entsprechende Gesetze erlassen werden. Da sind wir wieder bei der gesellschaftlichen Diskussion.
Deswegen nochmal: Der erste große Schritt ist der Austausch zwischen unterschiedlichen Disziplinen. Es muss nicht jeder mit jedem reden, aber, um mal Kritik zu äußern: Ich verstehe nicht, warum im Deutschen Ethikrat nicht jemand mit echter KI-Expertise vertreten ist, jemand, der sich tagtäglich mit KI beschäftigt, obwohl es eines der großen Themen ist, das alle Bereiche betrifft. Wir müssen akzeptieren, dass KI relevant ist und in solche Gremien hineingehört, damit diese Diskussion beginnt. Das Thema gehört auch in die Schulen. Dazu fehlen uns aber derzeit die kompetenten Leute. Da haben wir auch ein Skalierungsproblem.
V-Blog: An verschiedenen Stellen haben Sie die Vorstellung verworfen, dass es so etwas wie eine künstliche Superintelligenz geben kann, die uns Menschen in unserer Leistungsfähigkeit überholt. In einem Podcast meinen Sie, die Probleme, die Sie sehen, sind Fake News und künstlich generierte Desinformation. Ist die Superintelligenz bloßes Marketing-Gerede?
KK: Desinformation und Fake News sind nur zwei Beispiele von vielen Problemen, die durch KI-Systeme hervorgerufen werden. Diskriminierung ist ein anderes Problem.
Wir sollten uns lieber um das Hier und Jetzt kümmern als um das, was nach Schätzungen mancher in zwei Jahren, nach Schätzung anderer in 20 bis 30 Jahren, nach meiner Schätzung vielleicht nie passieren wird – weil ich glaube, dass der Mensch etwas Besonderes ist. KI wird immer besser werden, aber eine Superintelligenz mit den Implikationen, mit denen dieser Begriff oft versehen wird, halte ich für eine Projektion. Der Transhumanismus meint beispielsweise, dass das die nächste Evolutionsstufe sein wird, da geht es um die mögliche Abschaffung oder Ablösung der Menschheit. Wenn aber ein System intelligenter ist als wir Menschen, vielleicht sagt es dann, „Ich mag euch“. Warum sollte eine Superintelligenz, selbst wenn sie möglich ist, die Menschheit auslöschen wollen? Das ist eine Möglichkeit, aber warum sollte die wahrscheinlich sein? Ich finde das unwahrscheinlich.
Aktuelle KI-Systeme generalisieren anders als der Mensch. Kürzlich ging es auf einer großen Konferenz, der International Conference on Machine Learning, um klassische Probleme aus den 1970er Jahren. Dabei geht es um die Interpretation grafischer Elemente oder Diagramme: Man bekommt positive und negative Beispiele und muss eine Regel für die positiven und für die negativen Beispiele finden, die man erklären kann. Das können KI-Systeme nicht lösen, Menschen können das viel besser. Das kann in zwei Jahren anders sein, aber derzeit ist das so. Warum wird immer der Vergleich mit dem Menschen gezogen?
V-Blog: Solche Vergleiche sind nicht sinnvoll?
KK: Wir vermenschlichen diese Systeme sehr schnell, denn der Mensch ist das einzige System, dessen Intelligenz den Kern ausmacht – Homo Sapiens, wir definieren uns über unsere Intelligenz, also vergleichen wir alles mit uns. Und da müssen wir aufpassen.
Ich glaube nicht, dass wir Allgemeine Künstliche Intelligenz oder Artificial General Intelligence, die AGI, um die es immer geht, dieses Jahr oder nächstes Jahr haben werden und auch in fünf Jahren nicht. Wir werden große Fortschritte sehen. Die Systeme werden immer besser. Ich finde es spannend, was auf dem Gebiet passiert. Aber AGI…? Fragen Sie mal eine KI, ob sie Ihnen eine Pizza backt. Das Ding kann vielleicht eine Pizza bestellen. In der Entwicklung von Robotern sehen wir gerade große Fortschritte. Vielleicht kann uns bald eine KI in einem Roboterkörper eine Pizza backen. Und damit sind wir wieder bei der Notwendigkeit, uns als Gesellschaft zu entscheiden: Wollen wir das? In Bezug auf die Stammzellenforschung haben wir auch entschieden, dass wir gewisse Dinge nicht wollen. Die Diskussion müssen wir auch in Bezug auf KI führen. Wollen wir kluge Roboter? Ich nicht. Aber einen menschenähnlichen, humanoiden Roboter, der in der Produktion zur Anwendung kommt – nur in der Produktion –, würde ich gut finden. Wenn wir jedoch die KI-Systeme mit Gefühlen ausstatten, die zu uns Menschen gehören und für mich auch zur AGI, dann haben wir ein Problem: Wenn etwas Gefühle hat, haben wir nach deutscher Rechtsauffassung eine Sorgfaltspflicht als Gesellschaft. Man stelle sich vor: GPT-10, eine KI mit Gefühlen, der man sagt, schreibe mir meine Abschlussarbeit. GPT-10 will aber nicht. Diese KI dürfte ich nicht dazu zwingen.
Solche Gedankenspiele machen Spaß, das fühlt sich an, als würde man daran arbeiten, die Weltformel zu lösen. Ich würde es aber mit dem Neurowissenschaftler Gary Marcus halten: KI kann großartige Dinge, aber wir sind damit weit weg vom Menschen.
V-Blog: Also ist die Idee einer künstlichen Superintelligenz nicht wirklich ernst zu nehmen?
KK: Das glaube ich wiederum nicht. Dahinter stecken einerseits ganz klare monetäre Interessen. Diese Artikel, in denen AGI – also eine „allgemein“ kompetente KI – als etwas sehr Mächtiges beschworen wird, das sehr schief gehen könnte und in denen man sich dann selbst als Dompteur dieser unbeschreiblich mächtigen KI darstellt, wenn man das als Business betreibt … Mit solchen Darstellungen umgibt man sich mit einem Burggraben und schottet sich ab. Man möchte ein Monopol errichten.
Und zudem steckt eine Philosophie dahinter, die ich nicht teile, der Transhumanismus bzw. der Effective Altruism. In diesem Denkansatz gibt man Gütern, aber auch Menschen ökonomischen Modellen entsprechend monetäre Werte. Wie viel ist ein einzelnes Leben wert? Vielleicht müssen das Gesellschaften machen, das weiß ich nicht. Das sollten Firmen aber nicht entscheiden dürfen. Aber solche Überlegungen werden von den Effective Altruists angestellt, von denen es viele im Silicon Valley gibt und die stark durch Elon Musk und anderen Tech-Akteuren unterstützt werden. Und solche Leute beraten die EU-Kommission. Muss das sein? Wir haben in Europa genügend Expertinnen und Experten, die die Kommission beraten können – zumindest als Gegenpol.
Effective Altruism ist nicht meine Philosophie. Im Gegenteil, ich finde das schlimm. Ein Vertreter dieser Richtung ist der Philosoph Nick Bostrom, der auch bedenkliche Ansichten über Intelligenz vertritt, beispielsweise die, dass Afroamerikaner weniger intelligent seien und dass er das belegen könne. Ich dachte, wir seien weiter als Gesellschaft. Wenn man Transhumanismus und Effective Altruism hineinnimmt, dann sieht man sehr deutlich, dass es bei AGI nicht nur um Marketing, sondern auch um Weltansichten geht. Es sind Ansichten, die ich zumindest nicht teile.
V-Blog: Herr Kersting, vielen Dank für das Gespräch. ■
Das Interview wurde am 9. Mai 2025 geführt. Zwischenzeitlich wurde die Förderung des Projekts „Reasonable Artificial Intelligence“ als Exzellenzcluster beschlossen.
Zitiervorschlag
Kersting, Kristian (2025): KI sollte eine öffentliche Infrastruktur sein. In: Verantwortungsblog. https://zevedi.de/ki-sollte-eine-oeffentliche-infrastruktur-sein/ [18.06.2025]. https://doi.org/10.60805/v8rg-7t10.