Vorsicht, bissiger Leser! Retraction Watch kämpft gegen KI-gestützte Papiermühlen
Eigentlich sind renommierte Magazine, Blogs und Zeitschriften Orte, an denen Wissenschaftlerinnen und Wissenschaftler gerne vorkommen sollten: Um ihrem Thema mehr Aufmerksamkeit zu verleihen, um Expertise zu vermitteln, um die Falschheit und Fälschbarkeit der zirkulierenden Ansichten über die Welt, gegen die wenigstens implizit angeforscht wird, ein kleines Stück zu berichtigen. Doch es gibt eine Website, die einigermaßen renommiert und ziemlich gefürchtet ist. Auf ihr möchte ein „sauber“ forschender Mensch auf gar keinen Fall auftauchen: Retraction Watch, eine Art Blacklist des wissenschaftlichen Publizierens.
Von Konstantin Schönfelder | 06.02.2026

Retraction“ beschreibt das Zurückziehen eines Artikels, etwa aufgrund gravierender Mängel, falscher Datensätze oder Plagiate. Und „watch“ steht hier programmatisch für eine Art Aufsicht. Es handelt sich bei Retraction Watch also um eine Plattform, die das wissenschaftliche Publikationssystem von ihrer Rückseite aus beobachten will und den Ausschuss in den Mittelpunkt stellt – nämlich gerade nicht die bahnbrechende Forschung, die so gern als Evidenz der Innovation ins Licht der Öffentlichkeit drängt. Ins Rampenlicht gerät hier vielmehr die in den Bahnen wissenschaftlicher Publikation zerbrochene Forschung, die, häufig sogar seitens ihrer ursprünglichen Autorinnen und Autoren als auch jener Institutionen, die diese veröffentlicht haben, unter den Teppich gekehrt werden soll.
Ein Ausgangspunkt für das Vorhaben von Retraction Watch war also das Füllen einer Leerstelle wissenschaftlichen Publizierens: Was passiert mit Studien, die falsch oder gefälscht sind? Wer macht sich die Mühe, das systematisch zu verfolgen? 16 Jahre nach dem Start von Retraction Watch im Jahr 2010 findet man hier erstaunlich reichhaltige Lektüren.
Schnüffler
Die Website begleitet und kommuniziert zunächst einmal die durchaus üblichen Fehler und Ungenauigkeiten, die im Wege eines informellen post-review, also der kritischen Nachlese eines Papers nach seiner Veröffentlichung, aufgedeckt werden können. Damit wird der Anreiz für alle hinsichtlich eines verantwortungsbewussten Einsatzes wissenschaftlicher Methodik erhöht. Das Signal: Jemand schaut sehr genau hin, liest bis in die kleinsten Details der Fußnoten mit und schlägt gerade an Stellen nach, wo vermutet wird, dass das eher zu kurz gekommen sein könnte. Man wolle keineswegs primär absichtsvolle Täuschungen eines Forschers aufdecken, das mache nicht unbedingt das Kerngeschäft aus, schreibt die Plattform in ihrem Gründungsstatement. Freilich ist die – mögliche – Absicht dennoch ein faszinierender Aspekt von gehobenem Interesse. Denn eigentlich sollte dieser täuschende Forscher ja in den eher bedächtig und aufwändig rotierenden Mühlen der wissenschaftlichen, häufig peer-reviewten Journals gut herausgefiltert werden können. Oder geht das etwa nicht? „Retractions are born of many mothers. Fraud is the most titillating reason, and mercifully the most rare, but when it happens the results can be devastating.“ (RW 2010)
Passend dazu sind viele der Beiträge auf der Webseite liebevoll mit „sleuth“ gezeichnet, sleuth bedeutet im Englischen Schnüffler oder auch Detektiv. Seit kurzem gibt es sogar ein „sleuth in residence“-Programm. Und in der Tat arbeitet die Redaktion nahezu kriminologisch, forscht im Verdeckten, mit einem Netzwerk von zahlreichen Informant:innen, die aus den untergründigen Tunneln wissenschaftlicher Forschung Informationen dazu weitergeben, wer sich wo verdächtig gemacht haben könnte. Deswegen ist diese Arbeit nicht unbedingt immer dankbar. Wenn doch alles okay war, zieht sie eher wenig Aufmerksamkeit an. Wie ein Schiedsrichter verhält sich der Schnüffler dann, der in einem fairen Spiel lieber nicht auffallen sollte. Kein Wunder also, dass Rezensenten über Retraction Watch schreiben, sie wären „unsung heroes“ (Newsguard), denn ihre Arbeit müsse ja naturgemäß „dry and boring“ (Washington Post) sein. (RW o.D.)
Schnelle KI, schlampigere Textproduktion
Doch die Verdachtsfälle häufen sich in Zeiten generativer KI. Wen wundert es? Seit dem Aufkommen von öffentlich zugänglichen LLMs wie ChatGPT im November 2022, schreiben sich Texte scheinbar wie von Geisterhand, ohne dass das immer auch geahndet würde. Es braucht also mehr Sleuths. Zahllose Beiträge präsentiert die Plattform inzwischen, die die Details des vermehrten und unzulässigen (auch ungekennzeichneten) Gebrauchs von GenAI-Hilfsmitteln nachweisen und dokumentieren. Da ist zum Beispiel ein Artikel, verfasst von chinesischen Forschern zum Thema erneuerbare Energien, der in einem umweltwissenschaftlichen Journal veröffentlicht wurde. Im Text ist am Ende des Methodenteils die Phrase „Regenerate Response“ zu lesen. Ein Button, den es bei ChatGPT einmal gegeben hat für nicht zufriedenstellende Antworten (den es in der Form allerdings derzeit nicht mehr gibt). Ein Forscher, dem das aufgefallen ist, hat auf Pubpeer, ein Forum, das sich für „post-publication peer review“ starkmacht, dreißig weitere Paper mit Makeln dieser Art markiert. Allesamt waren sie veröffentlicht in seriösen Fachjournalen, nicht etwa in sogenannten „predatory journals“, wo man so etwas vermuten würde. Der Forscher namens Guillaume Gabanac wird im Beitrag zitiert mit folgendem Gedanken über eine derartige ungekennzeichnete und fahrlässige Nutzung von künstlich intelligenten Schreibsystemen: „Computer software has been used for decades to support the authors. Just think about Grammarly or DeepL for people like me. I’m not a native English speaker, so I go to WordReference, I go sometimes to DeepL. But what I do, I look at the result and I correct the mistakes.” (RW 2023)
Springer Nature, dass das betreffende Journal Environmental Science and Pollution Research herausgibt, hat auf Nachfrage von Retraction Watch eine interne Untersuchung angekündigt. Wie aber alle Beteiligten die Spur der KI übersehen konnten, bleibt unklar. Der Sachverhalt legt die Vermutung nahe, dass niemand das Paper tatsächlich gelesen hat. So auch im Journal Science Direct, herausgegeben von der Branchengröße Elsevier, das einen Aufsatz veröffentlichte, der gar direkt mit einem KI-Überbleibsel begann: „Certainly, here is a possible introduction for your topic.“ (RW 2023b) Das ist eine Standardphrase, mit der ChatGPT seine Antworten beginnt. Hier nun im allerersten Satz!
In einem pharmazeutischen Journal (ebenso herausgegeben von Springer Nature) wird dummerweise eine Referenz im Text angegeben, die von Ivan Oransky stammt. Dummerweise deshalb, da Oransky ausgerechnet zu den Co-Gründern von Retraction Watch zählt. Der zitierte Text, der 2019 in Nature erschienen sein soll, existiert jedoch nicht. Da haben sie es den „sleuths“ leicht gemacht – die natürlich das entsprechende Paper unter die Lupe nahmen und noch einige weitere Inkohärenzen nachweisen konnten. (RW 2025a)
Überbleibsel aus den Chatverläufen mit den Bots, halluzinierte Quellen: beides recht verlässliche Indikatoren für („schlechte“) KI-Nutzung. Und eben auch an renommierten Stellen. In einem World Bank Report des Jahres 2025 mit dem Titel „Nourishing Tomorrow“ wurden mindestens 14 (!) halluzinierte Referenzen nachgewiesen. Nach Bekanntwerden des Nachweises wurde der Bericht offline genommen. Die World Bank Group erklärte sich mit: „The World Bank Group expects its researchers to uphold high professional standards, including the accurate use of sources. The paper is being removed for review and will be republished with a note clearly describing any corrections.” (RW 2025b) Und selbst in einem Ethik-Journal (ja, wirklich!) erschien ein Text zu „Whistleblowing“, der auf zahlreichen halluzinierten Literaturangaben fußte. Der finnische Forscher Erja Moore, der den Artikel aufgrund der vielen ihm bislang unentdeckten Verweise interessant fand, bekam recht schnell heraus, warum ihm in dieser Abteilung der Forschungsliteratur seines eigenen Feldes so wenig vertraut vorkam: 19 der insgesamt 29 Referenzen des Textes führten letztlich ins Nirwana. (Das Journal of Academic Ethics wird übrigens ebenso von Springer Nature herausgegeben.) (RW 2025c)
Die Liste der Beispiele wäre beliebig verlängerbar, mit großer Freude verliert man sich in den sorgfältig kuratierten Anekdoten des Blogs. Sie verraten uns einerseits etwas darüber, wie künstlich intelligente Assistenzsysteme das Verständnis von Autorschaft prägen, und dies auch im wissenschaftlichen Kontext, womöglich insbesondere in den Naturwissensschaften, wo dem Schreiben eines Aufsatzes tendenziell eine eher technische Bedeutung beigemessen wird. Dramatisch sind die KI-Folgen vor allem dort, wo der Einsatz über bloße Assistenz hinausgeht und sie insbesondere nicht als solche gekennzeichnet ist. Die Frage, wo unerlaubte Hilfe anfängt, wäre dann noch einmal eine Sache für sich: eher am Ende oder am Anfang des Arbeitsprozesses?
Die Befunde verraten aber auch etwas über den Wissenschaftsbetrieb, der solche Aufsätze autorisieren und veröffentlichen muss. In einem Beispiel der bereits erwähnten Springer Nature Gruppe wurde zuletzt gar eine Monographie zu maschinellem Lernen weit nach Veröffentlichung zurückgezogen, nachdem zahlreiche halluzinierte Fußnoten die Publikation unhaltbar gemacht haben. (RW 2025d) „Zurückgenzogen“ bleibt in solchen Fällen allerdings ein euphemistischer Ausdruck, denn viele wissenschaftliche Veröffentlichungen sind „Open Access“. Sie zirkulieren so ziemlich schnell, die Fehlinformation bleibt damit hängen. Ohnehin kann eine „retraction notice“ leicht untergehen oder ganz unbemerkt bleiben. Und auch wenn nicht „Open Access“ veröffentlicht wird, wie beim Springer-Buch zu maschinellem Lernen, kann es zum Zeitpunkt der Entscheidung über die Rücknahme bereits weite Verbreitung gefunden haben: Auf der Seite des Titels steht eine Downloadzahl von knapp 4000. Wer kann die komplexen Dynamiken in einem häufig ja dezidiert offen gestalteten Veröffentlichungssystem überblicken und zurückverfolgen? Wer zieht zurück, wenn auf Zurückgezogenes verwiesen wurde? Die Folgen sind diffus und mögen sich gar ganz grundsätzlich und fundamental auswirken. Also liest nun doch immer auch und überall der leise Zweifel mit: Welchen Publikationsorganen kann man noch trauen?
Wer liest heute noch?
Die andere Frage, die die Recherchen von Retraction provoziert, lautet: Wer liest denn überhaupt noch (gründlich)? Scheinbar ja nicht einmal jene, die den Text schreiben, korrigieren, veröffentlichen, lektorieren. Und wie ist es dann mit jenen, die Texte zitieren? Eine andere Frage: Wer kann es mit der KI aufnehmen? Die gewiss vielen überarbeiteten Peer-Reviewer, die nicht wissen, dass sie mit KI konfrontiert sind oder im Zweifel dann doch gar selbst mit ihr arbeiten? (Reddit / r/labrats 2024) Wahrscheinlich wird es wiederum nur selbst eine „gute“ KI mit der „schlechten“ KI aufnehmen können: Nature hatte im Oktober 2025 berichtet, dass mithilfe eines KI-Tools nun großflächig Studien im Bereich der Krebsforschung markiert wurden, die dem Algorithmus verdächtig vorkamen. Die Zahl, die alle Verdachtsfälle umfasst und nach gründlicher Prüfung daher geringer sein dürfte, ist trotzdem erschreckend: 250.000 Veröffentlichungen haben die KI-Tools als verdächtig markiert (von insgesamt 2,6 Millionen durchsuchten Aufsätzen). Die Texte seien in vielen Fällen von sogenannten „paper mills“ veröffentlicht, heißt es; Institutionen, die bewusst gefälschte Forschungsartikel zirkulieren und von manchen Forscher:innen zur illegitimen Politur ihrer Publikationslisten aufgesucht werden. Künstliche Intelligenz hat die Arbeit dieser Papiermühlen erheblich vereinfacht und beschleunigt. „The analysis also suggests that paper-mill activity has risen steeply over the past two decades. Only 1% of cancer-paper publications in the early 2000s were flagged by the AI tool as probably being produced by a paper mill, but this grew to more than 15% in the early 2020s, peaking in 2022 at 16.6% before declining in 2023 and 2024.” (Naddaf 2025)
In der ironisch gemeinten „Ewigen Bestenliste“, wo jene mit den meisten Retractions ganz vorn stehen, haben die Fußnotendetektive in mühseliger Arbeit übrigens einen deutschen Anästhesiologen gekürt: Joachim Boldt. Seine mittlerweile 233 zurückgenommenen Veröffentlichungen haben unter anderem im Jahr 2011 zum Verlust seiner Gießener Universitätsprofessur geführt, die er noch ganz ohne KI-Hilfe und mit „klassischer“ krimineller Energie bewältigt hat.
Peter Sloterdijk, kein unbekannter Kritiker wissenschaftlicher Publikationspraxis, erzählte in einem Vortrag zum Thema Hochstapelei einmal, wie Peter Weibel, langjähriger Leiter des Zentrums für Kunst und Medien in Karlsruhe, einen Ausstellungskatalog zugesandt bekam, dessen Einführungstext ihm sonderbar bekannt scheint. Seine Ermittlungen ergeben rasch: Er hat es hier mit seinem eigenen Text zu tun. Also ruft Weibel den ihm bekannten Kollegen an, damit dieser Stellung zu diesem Plagiat beziehe. Dem ist das Ganze äußerst peinlich und er gesteht, die Aufgabe mit einem Honorar an einen anderen Kollegen weitergegeben zu haben. Weibel kennt diesen Kollegen zufällig auch, im Telefonat mit ihm klingt dessen Antwort ähnlich: Er müsse beichten, dass er die Aufgabe einem seiner Studenten übertragen habe. Und jener findet online von einem gewissen Herrn Weibel einen nicht unpassenden Text im Internet, den er für den Katalog abliefert. „Und nie wäre der Vorgang ans Licht gekommen, wäre nicht etwas passiert, was auch im Zeitalter der vereinsamten Texte hin und wieder geschieht, dass der Autor per Zufall als einziger Leser auf sein eigenes Werk zurückkommt. Die Moral der Geschichte liegt auf der Hand: Wir müssen den Texten, die für den impliziten Nichtleser geschrieben sind, bis zuletzt die reale Lektüre androhen auf die Gefahr hin, dass uns die eleganten Piraten von heute für Hochstapler von gestern und vorgestern halten, die mit etwas drohen, dessen Wahrmachung sie nicht gewährleisten können. Man sollte am Eingang aller Fakultäten das Schild anbringen: ‚cave lectorem.‘ Für Nicht-Lateiner: Vorsicht, bissiger Leser! Und mit dieser Mahnung mag beginnen, was Wohlgesinnte die Arbeit an einer neuen Ethik des wissenschaftlichen Verhaltens nennen.“ (Sloterdijk 2012) ■
Literatur
Naddaf, Miryam (2025): AI and the future of publishing. https://www.nature.com/articles/d41586-025-02906-y [26.01.2026].
Facebook / Retraction Watch (2023b): An Elsevier paper written by ChatGPT goes viral. https://www.facebook.com/retractionwatch/photos/an-elsevier-paper-written-by-chatgpt-goes-viralhttpswwwsciencedirectcomsciencear/806660978174226/ [27.01.2026].
Reddit / r/labrats (2024): More than half of researchers now use AI for peer review. https://www.reddit.com/r/labrats/comments/1poxugz/more_than_half_of_researchers_now_use_ai_for_peer/ [29.01.2026].
Retraction Watch (o. D.): What people are saying about Retraction Watch. https://retractionwatch.com/what-people-are-saying-about-retraction-watch/ [29.01.2026].
Retraction Watch (2010): Why write a blog about retractions? https://retractionwatch.com/2010/08/03/why-write-a-blog-about-retractions/ [27.01.2026].
Retraction Watch (2023): Signs of undeclared ChatGPT use in papers mounting. https://retractionwatch.com/2023/10/06/signs-of-undeclared-chatgpt-use-in-papers-mounting/ [25.01.2026].
Retraction Watch (2025a): Springer Nature flags paper with fabricated reference to article not written by our cofounder. https://retractionwatch.com/2025/11/21/springer-nature-flags-paper-with-fabricated-reference-to-article-not-written-by-our-cofounder/ [29.01.2026].
Retraction Watch (2025b): World Bank report removed nonexistent references. https://retractionwatch.com/2025/12/19/world-bank-report-removed-nonexistent-references/ [24.01.2026].
Retraction Watch (2025c): Fake references, ChatGPT, and the Journal of Academic Ethics. https://retractionwatch.com/2025/12/02/fake-references-chatgpt-journal-academic-ethics-springer-nature-whistleblowing/[28.01.2026].
Retraction Watch (2025d): Springer Nature to retract machine learning book following Retraction Watch coverage. https://retractionwatch.com/2025/07/16/springer-nature-to-retract-machine-learning-book-following-retraction-watch-coverage/[29.01.2026].
Sloterdijk, Peter (2012): Der Heilige und der Hochstapler. https://soundcloud.com/petersloterdijk/swr2-der-heilige-und-der-hochstapler-2012 [29.01.2026].
Zitiervorschlag
Schönfelder, Konstantin (2026): Vorsicht, bissiger Leser! Retraction Watch kämpft gegen KI-gestützte Papiermühlen. In: Verantwortungsblog. https://zevedi.de/retraction-watch/ [06.02.2026]. https://doi.org/10.60805/5b50-j218.





