„KI wird zu massiver Überwachung führen“
Steht die so genannte „Singularität“ kurz bevor? Wird die KI also die menschliche Intelligenz überflügeln – mit segensreichen oder apokalyptischen Folgen für die Menschheit? Oder kommen – ganz im Gegenteil – die Grenzen der KI in Sichtweite? Und welcher KI überhaupt? Im zweiten Teil der kurzen Reihe „Überschätzte oder unterschätzte KI?“ haben wir mit dem KI-Forscher Rolf Otte über den KI-Hype, die Grenzen der KI sowie darüber gesprochen, was auf die Software-KI folgen könnte.
Interview mit Ralf Otte | 28.03.2025

Verantwortungsblog: Der Hype um die Künstliche Intelligenz hält an, aber es mehren sich kritische Stimmen, die etwa vor dem ökologischen Fußabdruck der Technologie warnen oder davor, man überschätze ihre Leistungen. Auch Sie meinen, die Entwicklung der großen Sprachmodelle, der Large Language Models, komme an Ihre Grenzen. Worin bestehen diese Grenzen? Und warum lassen Sie sich nicht überwinden?
Ralf Otte: In den letzten Jahren hat die KI eine exponentielle Entwicklung genommen. In immer kürzeren Abständen gab es immer mehr Fortschritt. Das hat zu großen Erwartungen und zum KI-Hype geführt. Ähnliches haben wir schon in den KI-Anfangsjahren erlebt. In den 1960er Jahren wurde vieles versprochen: dass man das Denken nachbilden kann, dass man Expertensysteme damit bauen kann. Dazu kam es seinerzeit nicht. Aber die Technik hat sich stetig weiterentwickelt. Denkprozesse wurden tatsächlich mathematisiert und überall sieht man Expertensysteme. 2022 sind wir nun in einen neuen Hype geraten, und das hat mit den Sprachmodellen zu tun.
Seit ChatGPT ist KI in der Gesellschaft angekommen: Es gibt diese KI und sie kann ganz unglaubliche Dinge. Aber gewisse Dinge kann sie nicht. Und das muss man erklären. Denn immer mehr Politiker und Vorstände glauben, mit KI können sie vieles lösen – ohne dass es so ist. Zur Zeit eines Lokführerstreiks äußerte ein Ministerpräsident beispielsweise: Wenn die Lokführer streiken, können wir doch KI die Züge fahren lassen. Es gab Autokonzerne, die versprachen, bis 2030 fahren unsere Autos vollautonom. Aber vollautonome Autos, die weltweit fahren können, werden niemals kommen. Wir werden auch keine vollautonomen Haushaltsroboter kaufen können. Das sind Dinge, die wir Ingenieure schlicht nicht bauen können.
Es gibt Grenzen der KI. Wenn man das verstanden hat, dann verliert man auch wieder die Angst vor der KI, die angeblich alles kann. Ja, die Sprachmodelle sind gut. Aber sie machen zurzeit bis zu 20 Prozent Fehler in ihren Aussagen und diese Fehlerquote wird man noch auf 10 oder 5 Prozent senken können.
V-Blog: Und dann ist das Ende erreicht?
RO: Die Sprachmodelle werden nie die Sprachqualitäten eines Menschen erreichen. Das ist eine prinzipielle Sache. Wenn besser kommuniziert würde, wie wir KI bauen und wie das menschliche Gehirn funktioniert, dann wäre klar, warum die KI nie an das Gehirn heranreichen wird: Im menschlichen Gehirn gibt es neuronale Netze. Wir haben ungefähr 80 Milliarden Neuronen in unserem Gehirn. Ein Neuron kann mit tausenden anderen Neuronen verbunden sein. So kommen wir auf Billionen von Synapsen, also Verbindungen zwischen den Neuronen. Und wenn man lernt, etwas begreift, dann verändern sich die synaptischen Werte. Lernen verändert also das neuronale Netz im Gehirn physisch.
Man spricht im Zusammenhang mit der aktuellen KI zwar auch von neuronalen Netzen im Computer. Aber das ist nur eine Metapher, denn es gibt keine neuronalen Mechanismen im Computer, das sind nur mathematische Gleichungen. Würde man einen Computer aufbohren, dann würde man feststellen, die KI auf einem Computer ist nur Mathematik. Nirgends findet man auch nur ein einziges Neuron.
V-Blog: Und im Gehirn?
RO: Im Gehirn laufen keine mathematischen Verfahren. Deswegen bereitet es solche Mühe, einem Menschen ein mathematisches Verfahren beizubringen. Sie brauchen zehn bis zwölf Jahre in der Schule, um die Gehirnprozesse, also physikalische und chemische Prozesse, so zu modulieren, dass sie mathematischen Operationen entsprechen. Das neuronale Netz im Gehirn bringt das nicht mit. Sie können es aber so modulieren, dass Sie nach Ende des ersten Schuljahres Zahlen addieren können. Das braucht sehr, sehr lange und das klingt nach einem Nachteil. Aber der Vorteil ist, dass das menschliche Gehirn mathematische Operationen zwar abbilden kann, aber nicht muss.
Die KI im Computer ist jedoch reine Mathematik. Wer KI programmiert, programmiert mathematische Formeln. Das hat die letztendliche Konsequenz, dass die Grenzen der Mathematik die Grenzen der KI sind. Aber die Grenzen der Mathematik sind nicht die Grenzen eines Menschen. Die Intelligenz des Menschen ist physikalisch, chemisch wie auch sozial fundiert.
V-Blog: Weil KI diese Schwelle nicht überschreiten kann, wird autonomes Fahren, so wie es versprochen wird, nicht erreicht werden können?
RO: Ich habe dazu im Dezember letzten Jahres ein kleines Büchlein geschrieben, mit dem Titel Künstliche Intelligenz – Illusion und Wirklichkeit. Darin erläutere ich „Warum autonomes Fahren weltweit niemals Wirklichkeit wird“, so der Untertitel des Buches.
Ein Grund ist das Problem des Extrapolationsraums. Eine KI können Sie heute gut trainieren und in diesem Datenraum können Sie sie sicher anwenden. Aber wenn Sie KI-Systeme wie ChatGPT über Dinge befragen, die es nicht gelernt hat, fängt die KI oft an zu halluzinieren. In diesem Extrapolationsraum können Sie die KI nicht sicher anwenden. Und zwar prinzipiell nicht. Das Problem lässt sich auch mit einem Supercomputer nicht überwinden, weil es ein mathematisches Problem ist und kein technisches.
Ein anderes Problem ist energetisch: Ein Mensch hat 20 bis 30 Watt Leistungsaufnahme im Gehirn. NVIDIA-Chips in einem Level-3-Auto haben 4000 bis 5000 Watt Leistungsaufnahme. Die KI verbraucht über das Hundertfache an Energie. Und dann kommen noch die Aufwände der Infrastruktur hinzu. Das ist Wahnsinn. Und damit fährt das Auto nur Level 3, bei Mercedes oder BMW bedeutet das bis 60 (bald 90) km/h auf der Autobahn und bei guten Witterungsbedingungen darf man mal den Blick auch von der Fahrbahn nehmen. Allein aus energetischer Sicht lässt sich vollautonomes Fahren nicht darstellen. Wir bräuchten 100 neue Atomkraftwerke allein in Europa, wenn wir eine gewisse Anzahl von Autos mit Level 5 auf die Straße bringen würden. Teilautonomes Fahren, Level 3, ist heute schon möglich. BMW fährt Level 3, Tesla, Mercedes und Honda auch. Und Level 4 bedeutet Höchstautomatisierung. Der Mensch kann dann in 80 bis 90 Prozent der Fälle die KI fahren lassen.
Der Punkt ist: Das ist in allen Bereichen so. Die KI können Sie in 80 bis 90, teilweise 99 Prozent aller Fälle arbeiten lassen – ob in der Fabrik, im Auto, im Kraftwerk oder im Flugzeug. Aber was ist mit dem Rest? Den Rest wird die KI nicht lösen. Insofern wird eine KI niemals vollautomatisch ein Flugzeug steuern, weil die ein bis zwanzig Prozent der Problemfälle natürlich wichtig sind. Niemand würde ein Flugzeug von einer KI fliegen lassen, ohne einen Piloten an Bord zu haben. Den Autopiloten kennen wir schon lange, aber für Starts und Landungen sowie für schwierige Flugbedingungen braucht es Menschen. Und das ist ein mathematisches Erfordernis, kein technisches. Alles andere können wir gerne automatisieren, aber wir sollten nicht Milliarden rauswerfen für Automatisierungsprojekte, von denen man eigentlich schon weiß, dass sie nicht möglich sind.
V-Blog: Das ist also die Grenze der KI?
RO: Wir reden von den Grenzen der mathematischen KI. Aber die KI wird weiterentwickelt, beispielsweise in eine physikalische KI, die auf neuromorphen und Quantencomputern läuft. Daran arbeite ich selbst. Ich entwickle neuronale Netze auf Quantencomputern. Auch an einer chemischen KI wird gearbeitet. Man kann Proteine nutzen, indem man deren Faltungsprozesse trainiert und zur Lösung von Aufgaben einsetzt. Es gibt auch biologische KI. Man kann Pilze zum Rechnen nutzen und in der Schweiz arbeitet beispielsweise ein Start-up mit menschlichen Nervenzellen, die an Elektroden angeschlossen werden und die man dazu bringt, Pingpong zu spielen.
In diese Richtungen geht es. Aus der mathematischen KI wird eine physikalische, chemische und biologische KI. Und diese Formen von Künstlicher Intelligenz können viel, viel mehr – beängstigend viel mehr. Das müssen wir regulieren. Dieses Forschungsfeld nicht zu regulieren ist so, als würden Sie in der Genforschung alles erlauben, jede genetische Manipulation am Menschen. Da hat aber der Gesetzgeber eine rote Linie gezogen. Und das brauchen wir auch für die KI. Ich warne nicht vor der physikalischen oder der chemischen KI, aber ich warne vor der biologischen KI, also davor, dass Pilze, Ratten oder menschliche Nervenzellen in zahlreichen Anwendungen benutzt werden.
V-Blog: Was macht eine biologische KI so problematisch?
RO: In meinem Buch Maschinenbewusstsein geht es um die Frage, wie kann Bewusstsein auf Maschinen entstehen? Und mit Bewusstsein meine ich Wahrnehmung. Die heutige KI kann nicht wahrnehmen und ich forsche an einer physikalischen KI, die ein rudimentäres Bewusstsein auf ihren maschinellen Bauelementen entwickeln kann. Man kann mathematisch zeigen, dass gewisse Bausteine, z.B. Quantencomputer, eventuell in der Lage sind, rudimentäres technisches Bewusstsein auszuprägen. Aber das ist immer noch ganz weit weg von den Wahrnehmungsfähigkeiten von Ratten oder Fliegen.
V-Blog: Inwiefern?
RO: Ich gebe Ihnen ein Beispiel: Sie gehen auf eine Party und Sie nehmen wahr, was dort passiert. Sie qualifizieren die Wahrnehmung in dem Sinne, dass Sie sagen, es gefällt mir hier nicht. Diese qualifizierten Wahrnehmungen nennt man bei Menschen „Gefühle“. Es gefällt Ihnen nicht und Sie gehen. Das heißt, es gibt Systeme, Menschen, Ratten und Hunde zum Beispiel, die haben nicht nur Wahrnehmungen, sondern können sie qualifizieren, sie als angenehm oder unangenehm bewerten. Die Systeme, die das können, sind alle biologische Systeme. Denn diese lebenden Systeme müssen ihre Wahrnehmung qualifizieren. Ein Kind greift einmal an die heiße Herdplatte und hat diese Wahrnehmung als äußerst unangenehm qualifiziert. Es wird sich davor hüten, diese Wahrnehmung erneut zu machen. Das heißt, die Qualifikation der Wahrnehmung sorgt dafür, dass biologische Systeme in einer komplizierten und gefahrvollen Umwelt überleben können.
Technische Systeme hingegen müssen nicht überleben, denn sie leben schließlich gar nicht – der Quantencomputer nicht, der neuromorphe Computer und der Laptop auch nicht. Das sind mineralische Systeme. Diese Systeme können wahrscheinlich zwar Bewusstsein entwickeln, insofern sie wahrnehmen können, aber sie können die Wahrnehmung nicht qualifizieren. Sie können also keine Gefühle entwickeln und auch keine Willensprozesse. Deswegen darf ich damit forschen und experimentieren.
V-Blog: Es wird also keine sogenannte „Singularität“ geben?
RO: Eine KI, die intelligenter als der Mensch ist und die Menschheit auslöschen will, ist reine Science-Fiction. Eine Maschine auf mineralischer Basis wird nie etwas fühlen und damit auch nie etwas wollen. Denn „Wollen“ bedeutet, ich will meine Umgebung so verändern, dass ich angenehme Gefühle habe.
Auch hier kommen wir allerdings wieder zu den Problemen der biologischen KI. Wenn Sie menschliche Zellen oder Zellen aus dem Rattengehirn nehmen, dann bauen Sie ein biologisches System, das hat mit Sicherheit Wahrnehmungen und kann diese qualifizieren. Es kann zum Beispiel Angst haben. Ich stelle mir vor, dass die menschlichen Nervenzellen in der Petrischale Angstzustände bekommen, wenn wir sie mit elektrischen Schlägen traktieren. Denn darin besteht unter anderem das Training: Wenn sie falsche Antworten geben, dann versetzt man ihnen elektrische Schläge, bis sie richtige Antworten geben. Wir wissen nicht, ob sie Angst empfinden, aber das liegt nahe, denn es ist lebende Materie. Ein biologisches System solchen Zuständen auszusetzen, ist eventuell Quälerei. Das ist ein No-Go. Das passiert zwar auch in der Schweinezucht, aber deswegen gibt es den Tierschutz.
Es darf keine biologische KI geben, die mit elektrischen Schlägen zum Lernen gezwungen wird. Ich kann mir aber vorstellen, dass das in zehn Jahren Standard sein wird – ob mit Pilzen oder mit menschlichen Nervenzellen. Eine solche KI wäre erheblich intelligenter als alle physikalischen Systeme, weil sie Bewusstseinsprozesse und sogar Gefühle hätte. Die Lernprozesse dieser KI würden tausendmal schneller und energieeffizienter ablaufen. Wir würden aber nicht wissen, was diese biologische KI fühlt.
V-Blog: Sie kritisieren auch die großen Tech-Konzerne. Sie schreiben, dass diese Konzerne ein Interesse am KI-Hype haben.
RO: Das ist nahezu selbsterklärend: Letztlich geht es in der Wirtschaft um Geld. Ich berate viele Unternehmen und überall, wo ich hinkomme, werden Copilot, ChatGPT oder andere Systeme eingesetzt. Das heißt, Big Tech schafft es, mit KI in die Unternehmen zu diffundieren. Sie werden sich unersetzbar machen, so wie vor 50, 60 Jahren Computer eingeführt und unersetzbar wurden. Es entstand ein Riesenmarkt. Und die KI müssen Sie mit dem Computer gleichsetzen. Jedes Unternehmen, jedes Büro soll KI-Verfahren einsetzen – das ist das Ziel eines KI-Herstellers. Und das ist auch legitim.
Das Problem ist eben, dass den Entscheidern dieser Welt vorgegaukelt wird, mit KI könnten sie nahezu alle Probleme lösen. Ich habe mit Ministern auf Landesebene zu tun und da stellen sich Minister vor, dass man die ganze Verwaltung durch KI automatisieren kann. Warum? Weil vorher Big Tech-Leute da waren und wunderbare Use Cases gezeigt haben, was mit KI alles möglich sei. Vom E-Mail-Schreiben bis zur Wohngeldvergabe würde sich alles automatisieren lassen. Und das glauben die. Die Konsequenz ist, dass KI überall reingedrückt wird, auch in Bereiche, wo wir als Ingenieure sagen, das kann nicht gut gehen.
V-Blog: Welche Bereiche wären das?
RO: Man versucht beispielsweise, die KI in die Rechtsprozesse, in den Gerichtssaal zu bringen. Dafür sind diese Prozesse aber zu komplex, das habe ich im erwähnten Buch KI – Illusion und Wirklichkeit ausführlich gezeigt. Es lässt sich mathematisch beweisen, dass die Rechtsprozesse eine solche Komplexitätsstufe erreichen, dass die KI dort nicht einsetzbar ist. Ich habe dieses Jahr vielen Juristen die KI und deren Risiken erklärt und ihnen das mitgeteilt. Aber auf Entscheider-Ebene ist das nicht vorgedrungen. Deswegen gibt es immer noch die Vorstellung, dass Gerichtsentscheide automatisierbar seien.
Die Grenzen der KI sind den Fachleuten bekannt. Aber Big Tech hat ein Interesse am KI-Hype, weil sie Produkte und Lizenzen verkaufen wollen. Der Schaden, der dadurch entstehen wird, ist enorm. Denn in zehn Jahren wird vieles wieder rückabgewickelt werden müssen. Die vollautomatisierten Büros und Verwaltungen beispielsweise: Ich prognostiziere, sie werden nicht richtig arbeiten.
V-Blog: In Maschinenbewusstsein beschreiben Sie, dass auch die Diskussion um Persönlichkeitsrechte für KI Teil des Hypes ist. Warum hat Big Tech ein Interesse daran?
RO: Das Europäische Parlament diskutiert seit 2017, ob den smartesten Systemen Persönlichkeitsrechte eingeräumt werden sollen. Wenn autonom fahrenden Fahrzeugen oder mobilen Robotern, das sind ja die smartesten Systeme, Persönlichkeitsrechte eingeräumt werden, würde das Big Tech freuen, denn dann können sie ihre Haftung reduzieren. Denn, wenn die KI einen Unfall verursacht, vielleicht mit Todesfolge, dann haftet nicht der Hersteller, sondern die KI-Persönlichkeit. Völliger Schwachsinn, aber die Politiker diskutieren das. Und wir Fachleute müssen warnen und sagen, nein, eine KI darf niemals Persönlichkeitsrechte bekommen, denn das sind mathematische Verfahren. Wieso sollte die Mathematik haften? Der Hersteller soll haften, der das Fahrzeug oder den Roboter in den Verkehr gebracht hat.
So etwas passiert bereits. Anfang letzten Jahres gab es den Fall, dass ein Chatbot von Air Canada einem Kunden falsche Auskunft über einen Flugtarif erteilt hat. Da Air Canada ihm diesen nicht gewähren wollte, hat er dagegen geklagt. Air Canada hat versucht zu argumentieren, der Chatbot sei mit einem menschlichen Mitarbeiter zu vergleichen und das Unternehmen sei an die Auskunft nicht gebunden. Das eingeschaltete Schiedsgericht hat das nicht überzeugt und dem Kunden recht gegeben. Der europäische AI Act sieht ebenfalls eine Herstellerhaftung vor.
V-Blog: In der Diskussion um den AI Act wird von verschiedenen Seiten gesagt, er verhindere Innovation. Wie sehen Sie das?
RO: Der AI Act hat den Begriff der Betroffenenrechte eingeführt. Das schützt Betroffene wie Sie und mich vor den Auswüchsen der KI. Und das ist gut so. Ich möchte als Betroffener nicht, dass Gesichts- und Emotionserkennung um sich greifen. Davor schützt uns der AI Act. Das begrüße ich sehr.
Das ist aber nur die eine Seite. Und die andere ist: Der AI Act greift zu massiv in die technologische Entwicklung in den Unternehmen ein. Ich gebe nur ein Beispiel: Der AI Act unterscheidet zwischen Anbietern und Betreibern. Und wenn Sie durch einen blöden Zufall vom Betreiber zum Anbieter werden, ohne dass Sie es wissen, müssen Sie über 50 Dokumente ausfüllen, statt 20. Wenn Sie in einen „Risikobereich“ kommen, weil Sie KI vielleicht in der Personalabteilung einsetzen, dann müssen Sie diese 50 Dokumente ausfüllen – daran ersticken Unternehmen. Die Konsequenz wird sein, dass viele Unternehmen KI nicht dort einsetzen, wo sie eigentlich sinnvoll eingesetzt werden könnte, denn die möglichen ökonomischen Folgen sind zu groß. Wir reden nicht über Strafzahlungen von einem oder zwei Prozent des weltweiten Umsatzes, sondern von bis zu sieben Prozent. Dazu kommt die vorgesehene Beweislastumkehr im Risikobereich. Sie müssen dann beweisen, dass Sie mit der KI Menschen nicht diskriminiert haben. Da haben Sie viel zu tun. Das ist ein überbordender Eingriff in die Entwicklung und den Einsatz der KI in den Unternehmen.
V-Blog: Also doch ein Problem mit der Innovationsfähigkeit?
RO: Ein großes Problem, ja. Ich meine, ich will auch geschützt werden vor der Datenkrake KI, die mich sonst auf Schritt und Tritt verfolgt. Social Scoring ist ja verboten. Das ist auch gut so. Für diesen Schutz kann man die EU loben. Aber die Probleme gehen weit darüber hinaus. Es ist alles geregelt bis zum letzten Bit und Byte. Sie möchten mal eine kleine KI-Auswertung im Sales-Bereich machen, dann müssen Sie für das damit betraute Personal KI-Kompetenzen nachweisen.
V-Blog: Sam Altman und andere Player im KI-Feld zeichnen Bilder von utopischen Zukünften, die durch KI ermöglicht werden würden. In Ihrem Buch von 2021 und auch in dem von 2024 haben Sie solchen Szenarien eine Absage erteilt. Sie halten KI und Digitalisierung jedoch für Motoren für eine ökonomische Aufholjagd armer Länder. Also wird sich durch KI in unseren Gesellschaften nicht viel ändern, aber die globalen Verhältnisse werden sich durch KI erheblich verändern?
RO: Als ich das 2021 geschrieben habe, habe ich an eine Aufholjagd insbesondere von afrikanischen Nationen gedacht. Denn Sie brauchen heute nur einen Computer und nicht diese große Infrastruktur, die wir in Westeuropa und mittlerweile auch in China haben. Sie brauchen nur einen klugen Geist. Und den gibt es überall auf der Welt. Kluge Geister, billige Arbeitskräfte – die gibt es in Afrika. Die Zukunft sind Digitalisierung, KI und die Auswertung von Daten mit KI. Und in diesen Bereichen können Sie große Sprünge machen, ohne zuvor eine Stahlindustrie oder eine Autoindustrie aufgebaut zu haben.
Aber das, was Leute wie Altman versprechen, dass der Welthunger besiegt wird, das kann man vergessen. Der Welthunger könnte heute schon beseitigt werden. Das ist ein politisches Problem, kein technisches. Wir können das jetzt machen, wenn wir es wollten.
Was die KI aber in westlichen Gesellschaften bringen wird, das ist mehr Überwachung. Den Nobelpreis für Physik haben letztes Jahr John Hopfield und Geoffrey Hinton erhalten, zwei KI-Leute. Und Hinton hat vor der Entwicklung der KI gewarnt. Dazu habe ich in einem Beitrag für das Physik Journal Stellung bezogen. Diese Warnungen sind gerechtfertigt, aber nicht in dem Sinne, dass die KI klüger wird als wir. Das wird nicht passieren. Aber die KI wird zu massiver Überwachung führen. Bisher haben wir technische Prozesse mit KI überwacht. Ich habe 1994 mein erstes KI-Projekt durchgeführt. Wir haben die Fabrik eines Autozulieferers mit KI automatisiert. Das heißt, Industrieprozesse überwachen wir schon lange vollständig. Und die Gefahr ist nun, dass diese KI-Überwachung auf soziale Prozesse angewendet wird. Teilweise aus vermeintlich guten Gründen, um die Menschen zu schützen, um ihnen mehr Sicherheit zu geben. Aber so landen wir schnell bei chinesischen Verhältnissen. Wollen wir das? Will ich um der Sicherheit willen diese totale Überwachung? Oder will ich weniger Überwachung und nehme dafür mehr Unsicherheit in Kauf? Nun, ich glaube, ein Land wie Deutschland tendiert zu Sicherheit.
Aber lasst uns gerne die kaufmännischen Prozesse und die technischen Prozesse mit KI überwachen, aber doch nicht die gesellschaftlichen Prozesse! Aber genau das wird passieren. Beziehungsweise, es passiert schon: Wenn ich höre, dass KI Facebook oder andere soziale Netzwerke durchforstet – das ist Überwachung gesellschaftlicher Prozesse. Diese Überwachungsmittel gehören da aber nicht hin.
V-Blog: Sie meinen auch, die großen US-Tech-Konzerne hätten sich allzu sehr in die Software-KI verliebt. In Deutschland und Europa werde aber zu anderen Formen der KI geforscht.
RO: In Deutschland und Europa findet sehr gute Forschung statt. Wir können neuronale Netze auf Quantencomputern bauen. In der Forschung dazu sind wir Weltspitze. Da muss man sich nur ansehen, was an den Fraunhofer-Instituten gemacht wird. Wir sind auch Weltspitze, wenn es darum geht, die KI in der Industrie einzusetzen. Wenn Delegationen aus China kommen, dann wollen sie sich nicht die neuronalen Netze ansehen, sondern sehen, wie wir KI in der Industrie anwenden. Da müssen wir uns nicht verstecken.
Sobald es in den kommerziellen Bereich geht, werden die Technologien allerdings garantiert wieder in den USA weiterentwickelt und dort zuerst auf den Markt gebracht. Viele Dinge werden in Europa entwickelt, aber sie werden hier nicht zur kommerziellen Reife geführt. Denn, wenn Sie in Europa 10 Millionen für Ihr Projekt bekommen wollen, dann müssen Sie sich sehr anstrengen. Mit derselben Anstrengung bekommen Sie in den USA Milliardenbeträge. Aleph Alpha in Heidelberg ist dafür ein Beispiel. Eine tolle Firma, die sich mit Sprachmaschinen beschäftigt. Dafür haben sie für europäische Verhältnisse große Mittel erhalten. Aber global betrachtet ist das lächerlich. OpenAI bekommt enorme Summen und macht Verluste ohne Ende. Die großen Gelder für die Entwicklung und Forschung werden in den USA aufgebracht, weil man die marktbeherrschende Stellung halten will. Und das gelingt. Noch. Aber China wird aufholen, was man bei den Sprachmaschinen bereits erahnen kann. Und das große Geschäft mit KI auf neuromorphen Computern wird wohl wieder in den USA gemacht. Vielleicht müssen wir damit leben.
V-Blog: Herr Otte, vielen Dank für das Gespräch. ■
Das Interview wurde am 09.01.2024 geführt.
Zitiervorschlag
Otte, Ralf (2025): „KI wird zu massiver Überwachung führen“. In: Verantwortungsblog. https://zevedi.de/ki-wird-zu-massiver-ueberwachung-fuehren/ [28.03.2025].
https://doi.org/10.60805/d4de-2y02.