KI-geträumte Bilder – korrigierte Vergangenheit?
Mit KI-Bildgeneratoren sind nun fantastische Fabrikationen sehr viel leichter, massenförmiger und schneller zu produzieren, die langfristig wohl an jedes Bild den Zweifel an der Glaubwürdigkeit anheften werden. Die Folgen für unsere historische Erinnerung könnten fatal sein – oder bieten sie gar die Möglichkeit zu ihrer Optimierung?
Von Konstantin Schönfelder | 12.02.2025

Der Verkauf eines Gemäldes mit dem Titel „A.I. God“ bei Sotheby’s erregte großes Aufsehen, als es im November 2024 für mehr als eine Million Euro versteigert wurde. Unruhe herrschte nicht so sehr, weil der KI-Gott auf dem Bild Alan Turing zu sein scheint, sondern weil hinter dem Werk keine „echte“ Künstlerin steckt. Es ist „nur“ eine Maschine, die gewissermaßen ihrem Schöpfer ein Denkmal setzt. Eine humanoide Roboterin mit Bob-Frisur und dem Namen, ja: Ai-Da (die an die Mathematikerin Ada Lovelace erinnern soll, die als die erste Person gilt, die Computerprogramme schrieb), hatte sich dazu „entschieden“, Alan Turing für ihr künstlerisches Debüt-Motiv zu wählen.
Ai-Da jedenfalls werkelte seit 2023 an ihrem Kunstwerk, nachdem sie ein Galerist in der Nähe von Oxford zuvor ins Leben gerufen hat. In einem nicht unkomplizierten und ganz und gar humanoid angelegten Prozess der Ausgestaltung (Small 2024) kam sie zu ihrem nun verkauften Ergebnis, und reflektierte ihr eigenes Kunstwerk mit den Worten: „The key value of my work is its capacity to serve as a catalyst for dialogue about emerging technologies.“ In der Tat gibt es eine wachsende Überschneidung von KI-Technologien und dem Kunstmarkt. Auch das Auktionshaus Sotheby’s bewirbt die Aktion auf diese Weise als schöpferischen Prozess und stellt uns so vor einige komplizierte Fragen. Nach Autorschaft, Verantwortung, nach ästhetischen Prinzipien.
Der Dialog, den Ai-Da weiter vorantreiben „will“, ist in vollem Gange; und gerade die Frage, wie Ai-Da Turing „erinnert“, wie wir demgegenüber die Vergangenheit erinnern, wie sich Vergangenheit überhaupt zusammensetzt, bekommt mit generativen, künstlich intelligenten Systemen einen ganz neuen drive. Erzählt die KI Geschichte? Kann sie sie rekonstruieren, sogar korrigieren? Unter der mittlerweile allein in Deutschland unüberblickbaren Zahl von Ausstellungen des vergangenen Jahres mit, über und von KI liefern vor allem zwei Ausstellungen in Darmstadt und Heidelberg interessante Schlaglichter. Sie führen uns vor Augen, welchen Preis wir zahlen, wenn wir Geschichte mit Hilfe generativer künstlicher Intelligenz neu erzählen oder eher: erfinden.
Darmstadt: Wissenschaftlerinnen ohne „richtiges“ Bild
Im Forum der Darmstädter Schader-Stiftung war im Sommer 2024 eine Ausstellung zu sehen, die KI-generierte Bilder von Wissenschaftlerinnen zeigte. „Versäumte Bilder“1 waren es, so der Titel der Ausstellung, die folglich eigentlich schon vor ihr hätten existieren müssen. Zu sehen waren fotorealistische Abbilder von Frauen, die alle „geniale Wissenschaftlerinnen aus ganz unterschiedlichen Disziplinen“ waren, ohne aber, dass von ihren Leistungen „angemessene Fotografien“ existieren würden. Was bei ihren männlichen Pendants undenkbar sei. Es sind also „utopische“ Bilder, entworfen von einer Künstlichen Intelligenz (generiert mit dem Programm Midjourney), die Frauen aus der regionalen und internationalen Wissenschaftswelt zeigen, wie sie Nobelpreismedaillen in die Kamera halten (die sie hätten bekommen sollen), auf der Baustelle posieren oder sich vor Luxus-Autos im Hermes-Kostüm zeigen. Wir sehen die Forscherinnen, wie wir sie noch nie oder jedenfalls nicht auf diese Weise gesehen haben, und wie sie Dinge tun, die sie nie wirklich getan haben. Die Idee ist naheliegend: Der Nobelpreis wäre verdient gewesen, so etwa für Rosalind Franklin und ihre Forschung zum Verständnis der Desoxyribonukleinsäure, mit deren Beweisbildern sich später Watson und Crick den Nobelpreis für die Entdeckung der Doppelhelix-Struktur der DNA überreichen ließen, ohne auch nur ihren Namen zu nennen. Nun also wird das versäumte Bild posthum nachgestellt: Wir sehen Rosalind Franklin mit der glänzenden Nobelmedaille, noch dazu in einem höheren Alter, das sie nie erreichen konnte, denn sie starb bereits mit 37 Jahren an einer Krebserkrankung.
Insgesamt zeigte die Ausstellung 17 Bilder von mehr und weniger international bekannten Wissenschaftlerinnen. Rosalind Franklin, die amerikanische Biologin und Zoologin Rachel Louise Carson oder die deutsche Genetikerin und Botanikerin Elisabeth Schiemann. Es sind aber auch Bilder von Frauen generiert worden, die einen regionalen Fokus berücksichtigen. Einem Aufruf der Stiftung sind mehrere Institutionen der hessischen Wissenschaft gefolgt und haben Vorschläge eingereicht, die Berührungspunkte mit der Forschungslandschaft hierzulande haben: So etwa die Sozialwissenschaftlerin Erika Spiegel, die erste Schaderpreisträgerin 1993, von deren Preisverleihung es allerdings keine fotografischen Zeugnisse gibt, Jovanka Bončić-Katerinić (erste Diplomingenieurin Deutschlands) oder Judita Cofman (die erste Professorin für Mathematik an der Universität Mainz). Neben jedem künstlich intelligent erzeugten Bild wurde eine Biographie angebracht, die man sich über einen QR-Code, von der Stimme der Physikerin Lise Meitner („Mutter der Kernspaltung“), die auch eines der 17 versäumten Porträts erhalten hat, vorlesen lassen kann. Die Stimme von Meitner ist ihrerseits künstlich generiert (Eleven Labs).

Dazu werden Zusatzinformationen zur Arbeit mitgegeben. Für die „eingelesenen“ Kurzbiographien sind neben dem Verweis auf die entsprechende Software die Trainingsdaten ausgewiesen – eine Aufnahme des SWR von Lise Meitner aus dem Jahr 1953, online abrufbar und verlinkt – und für die KI-Bilder sind das Referenzfoto (das Original) genauso einsehbar wie die Prompts, die die Midjourney-Intelligenz zu ihrer Kreativleistung angeregt haben. Man merkt, dass hier wissenschaftliche Akteure und eine Wissenschaftskommunikatorin am Werk gewesen sind, in Person von Gesine Born, die mit großer Sorgfalt und Reflexion die Prozesse und Bedingungen der eigenen Arbeit offenlegen. Dazu gibt es ein Making-of-Video, das den Bildschirm bei der Arbeit an der Bilderzeugung aufzeichnet, versehen mit einigen Merksätzen wie diesem: „KI arbeitet mit dem Bildmaterial, das im Internet vorhanden ist. Je einfacher die Eingabe, desto mehr sucht die KI nach fehlenden Daten aus der eigenen Erfahrung.“ Die KI ist also so stereotyp wie das Material, auf das sie sich beruft, und bedarf deshalb einer sorgfältigen Moderation – das ist mittlerweile ja bekannt, und auch die „Versäumten Bilder“ nehmen das ernst. Man müsse demnach „gegen den Bias anprompten“. Die Ausstellung war (und ist) zudem digital aufrufbar, über die Seite des „Bilderinstituts“, das Gesine Born gegründet hat und leitet, und das sich schon seit Längerem um eine verbesserte visuelle Sichtbarkeit von wissenschaftlicher Arbeit und Arbeitenden bemüht.
Doch mit der Sichtbarkeit ist das so eine Sache. Denn in der Vergangenheit wurde es eben nicht versäumt, echte Bilder von diesen Frauen zu machen. Es gibt Bilder von Ihnen, mitunter sogar viele und auch gute. Man fand sie bereits jetzt im Netz: teils bescheiden in der Aufmachung, schwarz-weiß, aber klar und ihrer Zeit entsprechend. Versäumt worden ist vielmehr die rechtmäßige Anerkennung und Auszeichnung ihrer Leistungen, was nun mit diesen Bildern nicht nachträglich einfach wiedergutgemacht werden kann. Bei der offiziellen Eröffnung der Ausstellung wurde zwar immer wieder betont, wie sehr man mit dem Projekt nun endlich gegen „das Vergessen“ anarbeite. Doch in der künstlichen Produktion dieser Bilder entstehen ganz neue, merkwürdige pseudohistorische Festlegungen und Effekte: Die Gestalt von Elisabeth Schiemann wurde gepromptet mit „ein Foto der 20-jährigen Wissenschaftlerin Elisabeth Schiemann, lächelnd, tanzend in einer Straße in Berlin, Straßenfoto von Albert Renger Patsch“. Keines dieser Attribute ist allerdings besonders plausibel. Tanzt sie auf der Straße, weil sie zu den ersten Frauen gehörte, die 1908 in Berlin ein Studium aufnehmen durfte? Wäre das ihr Ausdruck gewesen? Und warum ein Bild einer ganz jungen Schiemann, wo eine Google-Suche etwa zahlreiche Bilder der Wissenschaftlerin in höherem Alter zeigen? Es gibt also keine wirkliche Referenz, das Bild ist fast vollständig eine Halluzination der KI. Zudem gleicht die Frau im Bild einem Poster-Model, das für die Kamera tanzt, was wohl schwer mit der Realität der wissenschaftlichen Arbeit in Übereinstimmung zu bringen ist. Ein ähnlicher Eindruck der Übersteuerung (auch aufgrund der kontingenten Festlegung der Prompts) kommt bei den hoch aufgelösten Bildern der schick inszenierten Frauen fast durchweg auf. Das scheint der Schöpferin, Gesine Born, auch völlig klar zu sein, denn sie eröffnete die Bilder-Ausstellung mit den Worten, die Bilder seien „nicht das Wichtige, sondern der Prozess, den wir alle durchlaufen sind, die Gespräche“. Allerdings schaffen ihre Werke nun auch ein praktisches Problem: Bei der Google-Bildersuche nach Schiemann, beispielsweise, taucht recht früh auch das Bild der tanzenden, 20-jährigen Frau auf, die es nie gegeben hat. Und werden künftige Nutzer das nun im Web verewigte Bild von Franklin mit Nobelpreis hinterfragen? Wer macht sich die Mühe, der (wohlgemeinten) Geschichtsklitterung auf den Grund zu gehen? Und wie gehen Maschinen mit den falschen Bildern Schiemanns um, die sie selbst in Umlauf gebracht haben? Greift KI sie nun automatisch auf?
Heidelberg: Alte Gewänder, künstliche Gerechtigkeit
Dass eine generative KI zur Verunklarung diese Grenze von Fiktion und Realität, gewünschter bzw. geträumter und dokumentierter Vergangenheit ein Stück weit untergräbt, liegt in der Natur der Sache. Das Problem spitzt sich aber gerade in gerechtigkeitssensiblen Fragen besonders zu. Bei der Frage etwa: Sind die wissenschaftlichen Leistungen weiblicher Forscherinnen angemessen repräsentiert? Oder: Mit welchen visuellen Stereotypen sehen wir uns mit Blick auf Schwarze Menschen konfrontiert? Das war eines der Themen einer Ausstellung in Heidelberg.
Die Ausstellung „Die Erfindung des Fremden in der Kunst“, die im Januar 2025 endete, versammelte Bilder und Exponate, in und mit denen historisch das Andere, Fremde, Orientalische konstruiert wurde. Es sind Ausschnitte der rassistischen, sexistischen, kolonialen europäischen Geschichte. Wie blickte Europa um 1500 auf die Amerikas? Welche europäischen Fantasien verbargen sich in den Darstellungen des Orients? So weit noch ohne KI. Doch im letzten Abschnitt sind „Weiße Blicke – Visuelle Konstruktionen von Whiteness“ das Thema, und unter ihnen die Fotoserie „Historical Correction“ von Maxine Helfman. Sie zeigt Porträts Schwarzer Personen im Stil barocker Standesportraits. „Sie bildet einen Gegenentwurf zu den historischen Bildnissen, in denen Menschen dunkler Körperfarbe als Objekte weißer Selbstinszenierung ohne Individualität erscheinen. Damit verweisen die Fotografien auf den Zusammenhang von gesellschaftlicher Autorität und Repräsentation in der Kunst: In den sozialen Eliten des Barock sind Schwarze Menschen nicht vertreten (…). Die Serie versteht sich als Korrektur historischer Ungleichheit: im ‚Empowerment‘ Schwarzer Personen durch eine weiße Fotografin klingen alte Machtgefälle zugleich unbeabsichtigt nach.“ (Wandtafel der Ausstellung, siehe auch Haehnel 2024) Es braucht freilich die KI nicht, um eine Geschichte aus der Geschichte zu erzählen, die so nicht stattgefunden hat. Aber es kommt einem in unserer KI-euphorischen Gegenwart nicht nur wie eine KI-Koproduktion vor, es hätte nicht nur eine KI-generierte Foto-Serie sein können, sondern die Kuratorin der Ausstellung verweist explizit neben den Fotografien auf diesen vermuteten, ja dadurch suggerierten Zusammenhang. Zu lesen ist der Satz, dass sich mit Hilfe von KI-generierten historisch wirkenden Fotografien Schwarzer Menschen eine historische Korrektur dieser Art bewerkstelligen lässt: „Schwarze Künstler*innen holen sich (…) Deutungshoheit zurück.“
Und ja: es lässt sich nicht bestreiten, dass diese Bilder unsere Sehgewohnheiten herausfordern. Darin scheint eine Leistung dieser Abbildungen zu bestehen: Dass sie uns auf die Gemachtheit der Geschichte hinweisen und damit die Aufforderung verbinden, sie uns auch weiterhin im Konjunktiv vorzustellen. Es hätte eine andere Geschichte sein können, und so kann es eine andere Gegenwart sein, müssen wir an einer anderen, das heißt besseren, gerechteren Zukunft arbeiten … Die Bilder überraschen und irritieren und lassen uns fast mit einem (gleichwohl) falschen Gefühl der Genugtuung zurück.

Auch hier, ähnlich, wenn auch doch ganz anders, als bei den Wissenschaftlerinnen in Darmstadt, soll diese Korrektur nachträglich für ein wenig Gerechtigkeit sorgen. Die Schicksale geschichtlich häufig namenloser, nicht erzählter, unterdrückter Menschen werden hier nun visuell angedeutet. So verständlich also dieser Wunsch und so unbestreitbar der visuelle „Effekt“ ist, so irritierend bleibt sein Ergebnis: Auf welche Weise werden die flämischen Gewänder, einst Symbol des kolonialen Reichtums, getragen von den Unterdrückten, nun Gegenstand einer subversiven Handlung? Wir sollen uns die Geschichte aus der Gegen-Perspektive vorstellen, aber im Rahmen, Stil und Outfit der kolonialen Darstellung? Die Künstlerin Helfman sagte über ihre eigene Serie in einem Interview: „We are a visual species and seeing things presented right in front of us, in a dignified (and even beautiful way) allows the brain to accept it.” (Helfman 2022) Erzählt das gleiche Bild mit einem anderen Gesicht eine andere Geschichte? Oder bräuchte es nicht ein anderes Bild, um diese zu erzählen?
Fazit
In beiden Ausstellungen wird historische Präsenz („Sichtbarkeit“) verkürzt als „bebildert“ verstanden, mit unterschiedlichen Konsequenzen. Die tatsächliche Frage am Grund der Darmstädter Ausstellung in der Schader-Stiftung bleibt: Was macht eine Wissenschaftlerin, einen Wissenschaftler sichtbar? Ein Foto der Person ist es wohl nicht, ob nun real oder künstlich erzeugt. Ausschlaggebend ist doch, wie einschlägig die Veröffentlichungen sind, wo man von wem zitiert wird, wie präsent und wirkungsvoll die Arbeit sein kann, der Ort und die Institution, an dem die Arbeit ausgeübt wird, die Preise, die einem verliehen werden usw.. Dass Frauen oder Menschen bestimmter Herkünfte von den etablierten Institutionen des Denkens lange ausgeschlossen waren und sind, sollte zugleich nicht darüber hinwegtäuschen, dass ihre nachträgliche Ins-Bild-Setzung historische Ungerechtigkeiten nicht ausgleicht. Die künstlich erzeugten Bilder haben mitunter gar einen gegenteiligen Effekt: Wenn man sieht, wie die Frauen tanzen und Preise entgegennehmen, drohen sie zu bloß freundlichen und nahbaren Mutmachergeschichten zu werden. So wird die wissenschaftliche Leistung sowie das vergebliche Ringen um Anerkennung ein zweites Mal unsichtbar gemacht.
Und auch gegen die Fotografien aus „Die Erfindung des Fremden“ lässt sich einwenden, dass es durchaus historische Bilder von Schwarzen Menschen gibt, die bestehende, weiße Narrative infrage stellen und brüchig machen. (The Conversation 2021) Sollten die „historical corrections“ nicht neu und damit neu eingeführten Problemen anstatt erfunden, gefunden und von dort aus reimaginiert werden? Mit dem neuen technologischen Mittel KI-Bildgenerator sind nun fantastische Fabrikationen sehr viel leichter, massenförmiger und schneller zu produzieren, die langfristig wohl an jedes Bild den Zweifel an der Glaubwürdigkeit anheften werden, mit fatalen Folgen für unsere historische Erinnerung.
Die versäumten Bilder von Wissenschaftlerinnen oder barocken flämischen Kaufleuten dunkler Hautfarbe sind am ehesten – so könnte man sagen: geträumte Bilder. Und sobald wir aufwachen, droht uns, wieder in unsere alte, rassistisch und sexistisch organisierte Welt zurückzufallen. So zu tun, als hätten wir diese bereits hinter uns, lässt die Hoffnung darauf eher schwinden, dergleichen könnte tatsächlich bald hinter uns liegen. ■
Anmerkungen
- Die Bilder der Ausstellung sind einsehbar auf der Seite des Bilderinstituts, https://bilderinstitut.de/versaeumte-bilder-darmstadt-1 [10.02.2025]. ↩︎
Literatur
Carrasco, Julia (2024): Die Erfindung des Fremden in der Kunst. Ausstellungskatalog, Kurpfälzisches Museum Heidelberg.
Haehnel, Birgit (2024): Weisse Blicke – Visuelle Konstruktionen von Whiteness. In Julia Carrasco (Hrsg.): Die Erfindung des Fremden in der Kunst. Petersberg: Michael Imhof, S. 149–171.
Helfman, Maxine (2022): Maxine Helfman | RECAST(e)ING THE FUTURE“ at the 60th Philadelphia Show“, https://www.flaunt.com/blog/maxine-helfman-recasteing-the-future [11.01.2025].
Small, Zachary (2024): https://www.nytimes.com/2024/11/08/arts/ai-painting-alan-turing-auction.html [10.01.2025].
TheConversation (2021): A Tool for Social Change. How Photography demonstrated the dignity of black experience. https://www.milwaukeeindependent.com/syndicated/a-tool-for-social-change-how-photography-demonstrated-the-dignity-of-the-black-experience/ [14.01.2025].
Zitiervorschlag
Schönfelder, Konstantin (2025): KI-geträumte Bilder – korrigierte Vergangenheit? In: Verantwortungsblog. https://zevedi.de/ki-getraeumte-bilder/ [12.02.2025].
https://doi.org/10.60805/5yar-vn84.