• Logo des ZEVEDI-Verantwortungsblogs
  • Kategorien
    Akzentfarbe: gelb (Brandl+Lenhard) Autoren: Matthias Brandl & Johannes Lenhard Uncategorized Verantwortungsblog

    Der Non-Bias-Mythos

    Viele Mythen ranken sich um die Künstliche Intelligenz. Einer davon ist der Non-Bias-Mythos: die Vorstellung, dass es vor allem mehr und bessere Daten bräuchte, um Maschinen ein vorurteilsfreies Handeln zu lehren. Doch wir sollten skeptisch sein.

    Der Non-Bias-Mythos

    Viele Mythen ranken sich um die Künstliche Intelligenz. Einer davon ist der Non-Bias-Mythos: die Vorstellung, dass es vor allem mehr und bessere Daten bräuchte, um Maschinen ein vorurteilsfreies Handeln zu lehren. Doch wir sollten skeptisch sein.

    Von Matthias Brandl & Johannes Lenhard | 06.08.2024

    Ein Turm aus Datenleitungen
    Erstellt mit Adobe Firefly. Prompt: Painting of a tower made of data cables; yellow tones.

    Sie müssen ihr Kind zur Betreuung geben, um eine wichtige Konferenz über künstliche Intelligenz zu besuchen. Ausgerechnet jetzt wird die KiTa bestreikt. Wem vertrauen sie ihr Kind an? In einem Blog über AI und Verantwortung liegt die Frage nahe, ob sie einer intelligenten Maschine vertrauen würden. Aber darauf wollen wir (vorerst) nicht hinaus. Wie wäre es stattdessen mit einer menschlichen Professorin für Sozialpädagogik? Also eine echte Expertin, sogar spezialisiert auf die Altersgruppe ihres Kindes und zudem dekoriert mit einem Wissenschaftspreis für ihren Aufsatz zur adäquaten Kurzbetreuung von Kindern. Ein kleines Problem gibt es: Die Professorin lebt in einer Jugendstil-Villa (mitsamt ihrer Bibliothek) und da sie ihren Wohn- und Arbeitsort selten verlässt, müssten sie also das Kind dort hinbringen. Ist aber nicht weit vom Workshop. Würden sie das tun?

    Sie zögern? Fügen wir also eine gehörige Dosis an Idealisierung hinzu: die Professorin hat wirklich alles gelesen, kann auf ihr angelesenes Wissen jederzeit zugreifen, ohne je etwas zu verwechseln oder zu vergessen. Sie hat zudem direkten Zugang zu allen relevanten Datenbanken mit sämtlichen Messungen und aktuellen Studienergebnissen. Wenn man so will: eine stets aktualisierte Bibliothek bietet der Professorin eine perfekte Datengrundlage für eine vorurteilslose und verantwortungsvolle Betreuung ihres Kindes. Sie zögern noch immer? Oder sie zögern jetzt erst recht? Seltsam. Oder vielleicht gar nicht seltsam. Unsere Intuition sagt uns, dass kein Buchwissen – und sei es noch so profund und aktuell – ausreicht (und vielleicht nicht einmal nötig ist), um einer Person das eigene Kind anzuvertrauen. 

    Wir denken, es gibt einen modernen Mythos, den diese Intuition offenlegt. Nämlich den Glauben, es reiche aus, die Welt gut erfassen und beschreiben zu können, um auch angemessen zu handeln. Drei Aspekte dieses Mythos möchten wir hervorheben.

    • Der Mythos nährt sich aus dem Glauben, dass die Reichhaltigkeit (räumlich und zeitlich) der Welt begrifflich von uns vollständig erfasst werden kann. Bestimmt nicht ohne Hilfe eines wissenschaftlich-technischen Apparates und vielleicht nicht jetzt, aber prinzipiell werden wir in (naher) Zukunft dazu in der Lage sein. Dieser Glaube – oder sollte man eher sagen: diese Phantasie – hält sich auch unter Wissenschaftlern hartnäckig. Der von Laplace erdachte Dämon (Laplace 1814) zeugt davon und erst kürzlich hat Stephen Wolfram (der prominente Kopf hinter der Software Mathematica) diese Idee als Antriebsfeder seines Schaffens beschrieben (Wolfram 2023).
    • Auch suggeriert der Mythos, die Frage des verantwortlichen Handelns könne über die Eigenschaften einer fundierten Beschreibung der Welt beantwortet werden. Dieser langlebige Mythos stellt also einen unmittelbaren Zusammenhang her zwischen (epistemischem) Wissen und (moralisch angemessenem) Handeln. Diese Neigung, Handeln allein aus korrekter Beschreibung abzuleiten, ist philosophisch hartnäckig, gleichzeitig erscheint sie uns auch seltsam. Bilder wie „Bücherwurm“ oder „Elfenbeinturm“ verdeutlichen das und sind in der Regel abwertend konnotiert. Darum das Beispiel der kinderhütenden, sozial isolierten Professorin. Leicht lassen sich weitere Illustrationen beibringen, wie etwa den Schriftgelehrten Peter Kien in Elias Canettis Roman „Die Blendung” (1948), der eine riesige Bibliothek besitzt und seine Kontakte mit der „realen” Welt auf seine Haushälterin verengt (unter deren aktivem Zutun). Sein Bezug allein zu Büchern lässt ihn an der Welt scheitern und Canetti präsentiert in brillanter Mitleidlosigkeit die sich entfaltende Tragödie.
    • Eine philosophische Grundlage dieses Mythos ist eine spezifische Auffassung von Sprache als Beschreibung – meisterhaft seziert in Wittgensteins Philosophischen Untersuchungen (1953: gleich ab §1). Sprache ist in dieser Vorstellung ein Instrument, das hauptsächlich dazu dient, die Welt abzubilden. Sprache so gedacht, würde dann, wenn richtig eingesetzt, ein komplettes Abbild der Welt, ihrer Gegenstände, ihrer Struktur und ihrer Dynamik ermöglichen. Diese Sprachauffassung vernachlässigt jedoch, dass sprechen und schreiben selbst raum-zeitliche Handlungen in der Welt sind. Einige Philosophen und Linguistinnen nennen das den performativen Charakter der Sprache. Sie können sich sicherlich denken, dass die Auffassung, Sprechen sei auch Handeln, die Idee, man könne aus Beschreibungen Handeln ableiten, wesentlich komplizierter macht.

    Die oben erwähnte Abbildtheorie von Sprache, die damit verbundene Hoffnung auf eine vollständige Beschreibung und die Annahme eines direkten Zusammenhangs von Beschreiben und Handeln passt zur häufig diskutierten Idee, wir müssten uns darauf konzentrieren, Maschinen ohne eine verfälschende Einseitigkeit (Bias) zu bauen. Weil richtige Beschreibung zu richtigem Handeln führe, ist die Beschreibung ohne Bias so wichtig, ja zentral. Daher könnte man den Mythos auch als Non-Bias Mythos bezeichnen. Um nicht missverstanden zu werden: Viele eingesetzte Algorithmen sind nachweislich vorurteilsgeladen (Benjamin 2019; Zweig 2019). Doch selbst wenn es so etwas wie eine vorurteilslose Beschreibung gäbe (was wir nicht glauben), bleibt für uns die Frage nach einem angemessenen, vertrauenswürdigen Handeln weiterhin ungelöst.

    Zwei Beispiele aus der aktuellen Diskussion um KI beleuchten den besagten Mythos.

    Ein interessantes Gedankenexperiment stammt von Bender und Koller (2020: 5188). Zwei Merkmale unserer beiden vorigen Beispiele (der kinderhütenden Professorin und dem Schriftgelehrten Kien) werden dabei aufgegriffen, nämlich die Situation sozialer Isolation und die Bibliothek. Mensch K. und Mensch B. leben auf verschiedenen Inseln, verbunden nur über ein Kabel, das sie miteinander telefonieren lässt. Ein extrem intelligenter Oktopus O belauscht diese Gespräche, indem er die elektrischen Signale im Kabel abhört. Im Laufe der Jahre sammelt er so etwas wie eine Bibliothek der Abfolge von (elektrischen) Mustern. Von Neugier oder Sehnsucht getrieben, schmeißt der Oktopus schließlich den Menschen B aus der Leitung und stöpselt sich selbst ein. Die Fragen des Inselbewohners K. werden jetzt unter Rückgriff auf die Muster-Bibliothek des Oktopus (statistisch, generativ) beantwortet.

    Zugegeben, das ist eine sehr konstruierte Geschichte. Doch der philosophische Kern (ähnlich wie beim Turing-Test) ist spannend: Kann O so agieren, dass der telefonierende Inselbewohner K. keinen Verdacht schöpft? Der Oktopus O weiß zwar nicht, um was es geht – schließlich beherrscht er weder die Sprache noch kann er irgendetwas vom Leben an Land wissen. Trotzdem kann er aufgrund seiner Musterbibliothek die Konversation erwartungsgemäß führen. Und in Fällen, wo die Musterbibliothek noch nicht ausgereift ist, kann er auf unverdächtige generelle Floskeln zurückgreifen wie „Das hört sich gut an“ oder „Gut gemacht“. Eines Tages aber passiert doch etwas: während des Telefonats merkt der Inselbewohner K., dass ein Bär auf ihn zukommt und er nur einige Stöcke zur Verfügung hat, um sich zu schützen. Panisch fragt er am Telefon, was er jetzt bloß tun solle. Und da, so Bender und Koller, wird ihm der Oktopus nicht angemessen antworten (und helfen) können, da die Situation nicht nur neu ist, sondern der Oktopus sich überhaupt nicht vorstellen kann, was eine solche Situation bedeutet. Folglich bekommt der Inselbewohner jetzt doch Zweifel, ob er es am anderen Ende des Telefons mit B. von der anderen Insel zu tun hat…, wenn er nicht bereits vom Bären aufgefressen wurde.

    Da haben Bender und Koller einen Punkt, meinen wir. Die Begründung ist aber vielleicht ein wenig vorschnell. Denn der Zusammenbruch der Kommunikation (in der irrigen Meinung des Inselbewohners) aufgrund der fehlenden Vorstellungskraft, oder des Nicht-in-der-gleichen-Welt-seins des Oktopus wäre vielleicht vermeidbar, wenn nur die Datenbasis viel größer wäre. Wenn der Oktopus nur genügend Instanzen ähnlicher Gespräche hätte (vielleicht auch aus anderen Telefonleitungen), so dass seine Muster-Bibliothek auch über diese Situationen statistisch ausgewertet werden kann. Könnte man dem Oktopus (oder eben der generativen KI) dann nicht zutrauen, nützliche Hinweise zu geben? Diese Annahme wiegt schwer. Sie setzt die Größe der Datenbasis in Beziehung zur Vollständigkeit der Beschreibung. Und diese Vollständigkeit muss mit enthalten, dass keine auf relevante Weise neuen Situationen entstehen. Alles (ungefähr) schon mal da gewesen. Schon oft. Die Annahme meint also, dass eine Beschreibung vorliegt, die so perfekt ist, dass sie nicht nur die Vergangenheit umfasst, sondern auch alles, was in der Zukunft geschehen kann. Wir sehen hier, wie gewaltig diese Annahme ist: Wenn die Beschreibung nur gut genug ist, kann auch die Zukunft nichts Neues bringen.

    Letztendlich geht es bei den angezapften Telefonaten, ob überlebenswichtig oder nicht, für den Oktopus O. darum, Telefonsignale aus Telefonsignalen zu erschließen, die für Menschen wie Sprechhandlungen wirken. Wir Menschen verfügen über andere Methoden um die angemessenen Sprechhandlungen zu erschließen, nämlich aus Handlungen und Praxis. Anders formuliert: Wir lernen sprechen, äußern Hilfe oder formulieren Tipps, jedoch nicht auf der Grundlage von Tausenden von Telefonaten – auch wenn das heutzutage anders scheint. Vielmehr lernen wir Sprech(handeln) in der Welt, als Praxis, als Tätigsein, Erleben und durch zwischenmenschliche Handlungen. Dieser Weg ist generischer, sozusagen datenärmer. Wir bringen auf diese Weise die Universalität der Sprache in Anschlag, ohne über eine vollständige Beschreibung zu verfügen. Das ist auch ein Kernpunkt in Wittgensteins Analysen: Wir haben keine umfängliche, gar perfekte Beschreibung unseres Sprechhandelns, werden diese auch nie haben, sondern haben eine Vielzahl an Sprachspielen und passenden Situationen auf Lager. Der Oktopus kennt diese hingegen nicht und kann sie auch aus den Telefonaten nicht ableiten, weil er unsere Praxis nicht teilt.

    Eine zweite Illustration des Mythos, dass gute Beschreibungen quasi automatisch angemessene Handlungen hervorbrächten, stammt von Brian Cantwell Smith (2019). Sein Beispiel hat uns überhaupt erst auf die Frage der Kinderbetreuung vom Anfang gebracht hat. Er schildert die Szene, in der Eltern ausgehen und ihre Kinder einem Babysitter anvertrauen. Für Smith liegt auf der Hand, dass die Eltern ihr Vertrauen nicht auf den Regeln gründen, die sie dem Babysitter geben. Wieso nicht? Selbst bei perfekter Befolgung aller vorgeschriebenen Regeln wollen Eltern bestimmt nicht hören: „Aber ich habe doch alle Regeln befolgt.” Vielmehr wollen sie, dass der Babysitter sich um die Kinder kümmert, was auch immer in der Welt oder der Wohnung passiert. Da kann es sein, dass es auch einmal sinnvoll ist, nicht den Regeln zu folgen und/oder initiativ zu werden, weil eine ungewöhnliche Situation dies für den Schutz des Kindes erfordert. Korrektheit der Regelbefolgung ist eben nicht gleich Verantwortung für das Kind. Zugegeben, wenn die Regeln alle Situationen vollständig erfassen, dann kommt es nachher in den Handlungen auf das Gleiche heraus. Aber eben nur wenn.

    In der Babysitter Geschichte tritt noch eine Besonderheit auf, insofern es um Regeln geht. Es ist aus der KI Geschichte bekannt, dass regelbasierte KI nur beschränkte Erfolge hatte, also den Einwand von Smith bestätigt. Der aktuelle Boom der KI aber beruht vor allem auf dem Einsatz von künstlichen neuronalen Netzen. Diese benötigen keine explizit formulierten Regeln und lernen statistische Muster aus sehr vielen Daten (wie im Oktopus-Beispiel). Und dass Maschinen auch ohne explizite grammatische Regeln Essays formulieren können (Large Language Models wie ChatGPT), ist durchaus verblüffend. Die Vollständigkeitsannahme und der Mythos einer perfekten Beschreibung bleiben aber, d.h. die Daten müssen die Welt so reichhaltig abdecken, dass die statistischen Muster hinreichen. Diese Annahme ist in der Tat unbehaglich und dieses Unbehagen wiederum ist ein Grund dafür, skeptisch zu sein gegenüber der kinderbetreuenden isolierten Expertin im Elfenbeinturm. Und damit erst recht einer ausschließlich mit Schriftzeichen gefütterten digitalen Maschine.

    Wir glauben, dass der hier umschriebene Mythos zwei Motive miteinander verbindet. Das erste ist eine gewisse Hybris, die sich im vorbehaltlosen Glauben an eine vollständige Beschreibung (oder Modell) äußert. Oder genauer gesagt: dem Glauben an die Möglichkeit einer vollständigen Beschreibung und an deren Macht, wenn erst genügend Daten (natürlich ohne Bias) vorhanden sind. Wir stehen diesem Motiv mit Vorsicht und Skepsis gegenüber. Diese Skepsis speist sich nicht nur aus Gedankenexperimenten, sondern auch aus vielen bekannten Fallbeispielen, wie dem in der Technikgeschichte berühmten ersten automatisierten (Luft-)Frühwarnsystem, das fälschlich einen Großangriff auf die USA gemeldet hat. Das System lag falsch, weil besondere atmosphärische Bedingungen den Mond auf scheinbar ungewöhnliche Weise am Horizont aufgehen ließen. Diese Bedingungen waren im Modell nicht vorgesehen und es hatte einen Angriff gemeldet (siehe Smith 1985). Doch natürlich haben hier Apostel der KI einen mythischen Einwand dazu: „Ja, prinzipiell ist aber eine vollständige Beschreibung möglich“.

    Dieses Hybris-Motiv ist so neu nicht. Schon bei der Geschichte um den Turmbau zu Babel brach die Kommunikation zusammen wegen vieler verschiedener Sprachen. Wenn es nur um die Beschreibung der Materialien, der Pläne und des Baus gegangen wäre, hätte der Bau ruhig weitergehen können.

    Das zweite Motiv, ist gleichzeitig der Grund, weshalb wir diesen Mythos auch als Non-Bias-Mythos bezeichnen. Der Mythos lädt ein zum Opportunismus auf demjenigen Geschäftsgebiet, das einhergeht mit der heutigen digitalen Technologie: der fleißigen Datenakkumulation. Technisch gesehen benötigen die gängigen Werkzeuge (tiefe Netzwerke) der AI eine riesige Menge an Daten, um eine unüberschaubare Menge an Parametern einzustellen. Deshalb ist das Verhalten der trainierten (angelernten) Netze in weiten Teilen nicht erklärbar. Da kommt eine philosophische Auffassung gerade recht, die sehr viele Daten fordert. Auch wenn einzelne Daten praktisch gar nicht mehr kuratiert oder betrachtet werden, passt der Non-Bias-Mythos trotzdem gut, weil der Bias auf Datenwolken (im Durchschnitt usw.) definiert ist. Krude gesagt: mehr Daten, mehr „fair“.

    Wie gesagt: Das berührt nicht unsere Überzeugung, dass im Einsatz heutiger Computermodelle gängige Vorurteile bestätigt oder gar vorangetrieben werden, sondern den Mythos, der nahelegt, durch mehr Daten könne man diesen Bias beseitigen. Wir sollten also skeptisch sein, wenn behauptet wird, die Maschine werde es letztlich richten, weil mehr Daten zu immer besseren Beschreibungen führen; Beschreibungen, die quasi automatisch zu angemessenen und fairen Entscheidungen abgeleitet/umgemünzt werden können. Unsere Überzeugung (die wir noch bei anderer Gelegenheit ausführen werden) lautet dagegen: Eine Vorstellung davon zu haben, was Verantwortung und Autonomie bedeuten, und entsprechendes Handeln in sozialen Praktiken bleiben unsere vornehmsten Werkzeuge, um mit Unvollständigkeit und Begrenztheit umzugehen.

    Bender, Emily M./Koller, Alexander (2020): Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, S. 5185-5198.

    Benjamin, Ruha (2019): Race After Technology: Abolitionist Tools for the New Jim Code.: Polity.

    Canetti, Elias (1948): Die Blendung. Roman. München: Weismann.

    Laplace, Pierre Simon (1814): Essai philosophique sur les probabilités.

    Smith, Brian Cantwell (1985): The limits of correctness. In: ACM SIGCAS Computers and Society, 14,15(1,2,3,4), S. 18-26.

    Smith, Brian Cantwell (2019): The Promise of Artificial Intelligence: Reckoning and Judgment. Cambridge, MA: The MIT Press.

    Wittgenstein, Ludwig ([1953] 1984): Philosophische Untersuchungen. Frankfurt am Main: Suhrkamp.

    Wolfram, Stephen (2023): What Is ChatGPT Doing. and Why Does It Work? In: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ [02.07.2023].

    Zweig, Katharina A. (2019): Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne.

    Brandl, Matthias & Johannes Lenhard: Der Non-Bias-Mythos. In: Verantwortungsblog. https://zevedi.de/der-non-bias-mythos/ [06.08.2024]. https://doi.org/10.60805/wh2f-7g22


    Johannes Lenhard
    hat seit 2024 die Heisenberg-Professur „Philosophy in Science and Engineering” and der RPTU Kaiserslautern inne. Er hat in Mathematik an der Universität Frankfurt promoviert (1998) und wurde in Philosophie an der Universität Bielefeld (2012) habilitiert. Von 2020 bis 2023 genoss er seine Position als forschender Philosoph am Lehrstuhl für Thermodynamik der RPTU in Kaiserslautern.

    Matthias Brandl
    ist dort wissenschaftlicher Mitarbeiter.

    Beide sind erreichbar unter: https://mv.rptu.de/fgs/phise.

  • Über den Blog
    Der ZEVEDI-Verantwortungsblog hat die Frage zum Gegenstand, wie gut es uns im Zusammenleben mit Digitaltechnologien geht. Er kommentiert die Ambivalenzen, die Steuerungsprobleme und die Vertretbarkeit des digitalen Wandels. Was an möglicherweise kritischen Technikfolgen (und Markteffekten) sollte man in den Blick nehmen und diskutieren? Wo sind Sorgen angebracht? Wie passt Digitalisierung zu Freiheit und Demokratie? Welche Regeln braucht eine digitale Gesellschaft? Wovon sollte – weil es kritisch werden könnte – die Rede sein?

    Es schreiben Autor:innen aus dem ZEVEDI-Netzwerk sowie Gäste darüber, was sie lernen und erforschen, was sie beunruhigt und was sie fasziniert.

    DOI: 10.60805/5c9w-7n74
    ISSN:  2943-9124