Kategorien
Akzentfarbe: grün Autor: Petra Gehring Uncategorized Verantwortungsblog

Versuch über das V-Wort

Versuch über das V-Wort

Man muss es schon zugeben: „Verantwortung“ ist zwar schnell gesagt, aber eigentlich kann niemand rasch mal angeben, was der Ausdruck wirklich meint. Auch die Philosophie tut sich mit dem Wort schwer. Zu wuchtig, irgendwie zeigefingerhaft – und eben: trotzdem kaum auf den Punkt zu bringen.

Von Petra Gehring | 15.05.2024

Versuchen Sie es mal. Oder suchen Sie nach einer überzeugenden Definition. Im Historischen Wörterbuch der Philosophie finden Sie die Unterscheidung einer auf Rechenschaftslegung abstellenden Form des Verantwortungsdenkens, für welches die Maßstäbe eines Gegenübers (auf die wir „antworten“ müssen) ausschlaggebend sind, von einer „ethischen“ Verantwortungsdiskussion. Letztere umfasse Aspekte wie Rollenbilder (es gibt Amts- oder berufstypische Verantwortung), die Sorge um einen Gegenstand (für den Verantwortung übernommen werden muss) sowie Verantwortlichkeiten im Großmaßstab, denn auch kollektiv kann Verantwortung entstehen (vgl. Holl u.a. 2001). Wikipedia macht es uns etwas einfacher und stellt ab auf Psychologie: Verantwortung ist die richtige Einschätzung unserer Fähigkeit, ein bestimmtes Ziel zu erreichen und uns darauf dann auch zu verpflichten – also sagen wir mal: die Fähigkeit nicht zu viel zu versprechen, eine Art planerische Kompetenz. Zudem sei Verantwortung ein „Gefühl“ (vgl. o.A. 2004).

So oder so hat der digitale Wandel die Verantwortung zum Zauberwort gemacht. Verantwortungsvoll, verantwortungsbewusst – das meint dann etwa: zentriert auf den Menschen, rechtlich abgesichert, Vermeidung unerwünschter Technikfolgen. Ethikgremien entwickeln hierzu „Prinzipien“, so nennt beispielsweise 2019 eine KI-Expertengruppe der EU „respect for Human Autonomy”, „Prevention of harm“, „Fairness”, „Explicability” und hält zuvor fest, KI habe „lawful, ethical and robust“ zu sein. Denn: „It is our individual and collective responsibility as a society to work towards ensuring that all three components help to secure Trustworthy AI” (AI-HELG 2019: 12, 5 –Hervorhebung von mir).

Auch auf Unternehmenswebseiten finden sich Bekenntnisse in Sachen Digitalverantwortung, denn „CDR“, Corporate Digital Responsibility ruft ebenfalls oft „Prinzipien“ auf. Sieben Stück sind es etwa in einem „CDR-Manifest“ von 2021, initiiert durch den (so stellt er sich vor) „Digital Transformation Influencer“ Rob Price (2021). Die Deutsche Telekom stellt auf ihrer Webseite sogar ein ganzes „Haus der Verantwortung“ vor (Deutsche Telekom 2004a). „Es ist unsere Digitale Verantwortung“, kann man dort lesen, „sich (sic!) […] an der Diskussion um Ethik zu beteiligen und die Entwicklung ethischer Rahmenbedingungen für unsere Technologien zu fördern. Unsere Werte und die bewusste Entscheidung, den Mensch in den Mittelpunkt zu stellen, geben uns die Richtung im digitalen Raum vor“ (Deutsche Telekom 2004b). Die Unternehmensberatung pwc wiederum ordnet der Verantwortung weniger die Diskussionsbeteiligung und die Förderung von Rahmenbedingungen zu, als vielmehr die Forderung, Ethik auch wirksam werden zu lassen:

„Digitale Ethik ist die strategische Ausrichtung nach dem richtigen Handeln in der Digitalisierung und Digitale Verantwortung fordert, dieses Handeln nach gesellschaftlichen, ökologischen und ökonomischen Nachhaltigkeitsanforderungen umzusetzen.“ (pwc Deutschland 2024)

Und das Beratungsunternehmen Swiss Insights, das ein digitalethisches Fairness-Label vertreibt, hält fest:

„Digitalisierung fordert von Unternehmen Wertebewusstsein und verantwortungsvolles Handeln – nur so kann die Akzeptanz der Gesellschaft für neue Technologien und Geschäftsmodelle erreicht werden.“ (Swiss Insights 2024) 

Die Reihe der Beispiele ließe sich fortsetzen. Insbesondere stellt die Rede von Verantwortung oder Verantwortungsübernahme irgendwie auch aufs Handeln ab. Von daher könnte man es glatt bei dieser Minimalbedeutung des V-Wortes lassen: Bloßes Geschehenlassen reicht nicht aus.

Bliebe „Verantwortung“ im Diskurs um Digitaltechnologie damit also kaum mehr als ein unbestimmtes Signalzeichen – wie: „Macht endlich!“ oder auch: „Bitte nicht zu krass“? Oder: „Don’t be evil“? Oder wäre der Ausdruck sogar in dieser Hinsicht leer und stünde somit lediglich für die Versicherung, derjenige, der Verantwortung beschwört, sehe zwar Gefahren, bringe aber gute Absichten mit?

Immerhin ist zumindest der Ruf nach Verantwortung kein Spaß. Nicht nur Unternehmen, sondern auch besorgte Bürgerinnen und Bürger, Medienschaffende, Wissenschaftler und auch Parlamentarierinnen setzen Hoffnungen in das Wort. Sie verbinden damit eine ähnlich dringliche Erwartung, der Digitale Wandel müsse gestaltbar sein – dürfe also nicht aus dem Ruder laufen und solle vielleicht sogar in gewissen Punkten klare Grenzen haben – wie es hinsichtlich der Biodiversitäts- und Klimakrise der Fall ist und wie es auch angesichts der Atomkraft seit Tschernobyl und Fukushima auf der Hand liegt. Fast scheint es, als könne man neuen Technologien kaum mehr etwas anderes in den Weg stellen als das V-Wort. Das nur bitte endlich mal jemand mit Macht hereinschieben soll, damit es bewirkt, was es meint. Wir sind in der Defensive – das spüren wir, wenn der Ruf nach Verantwortung erklingt.

Verantwortung werde uns „aufgezwungen“ – das ist auch die Sicht des Technikphilosophen Hans Jonas, der (noch nicht am Beispiel des Digitalen) „Furcht“ für den besseren Ratgeber hält als ein Technikvertrauen, demzufolge man das Verantwortungsproblem auf später verschieben kann. 1 Jonas macht den rigiden Vorschlag, neue Technologien müssten erst den Erweis ihrer Harmlosigkeit erbringen, bevor man sie politisch zulässt (und Neuerungen mit Restrisiko müssten zudem rückholbar bleiben). Leider schlägt auch Jonas nur Maximen vor, an die wir uns bei der Zulassung gefährlicher neuer Technologien halten sollen, hantiert aber mit dem Verantwortungsbegriff, als sei dessen Kern im Grunde klar.

Versuchen wir dennoch, digitalpolitische und digitalethische Verantwortungskonzepte zu sortieren. Recht klar lassen sich nämlich ein juristischer Zuschreibungsbegriff, demgemäß Verantwortung die Zuweisung einer rollenbedingten Zuständigkeit (mit Rechenschaftspflichten und gegebenenfalls auch Haftung) meint, von einem moralischen Selbstverpflichtungssignal unterscheiden, das gerade die Freiwilligkeit und auch das Bemühenshafte der Verantwortungsübernahme herausstellt. Im ersten Fall muss sich jemand kümmern (und auch dafür einstehen). Im zweiten Fall ist Verantwortung eine Sache der Selbstfestlegung und damit auch der guten Absicht: jemand will aus freien Stücken moralisch sein, stellt dies heraus und wirbt hinsichtlich der Glaubwürdigkeit dieses Schrittes um öffentliches Vertrauen.

In einem dritten Verständnis (und hier sind wir dann sehr dicht bei der Defensive und beim Zwang) kippt Verantwortung um und wird ein Forderungsbegriff, ein Ausdruck nämlich, der Auge-in-Auge einem potenziellen Verantwortungsträger gegenüber den Appell formuliert, jemandem – sei es den Schwächsten, sei es der Natur, sei es kommenden Generationen oder gar der Menschheit insgesamt – werde die Übernahme von Verantwortung geschuldet. Verantwortung wird in diesem dritten Fall also eingeklagt. Dabei kann entweder eine bereits bestehende Verpflichtung ins Feld geführt werden (Fall 1 – die Verantwortung existiert in unbestreitbarer Weise) oder aber die Erwartung zielt darauf ab, jemanden zum Schritt in die Verantwortung zu bewegen (Fall 2 – eine bislang noch offene Verantwortlichkeit gälte es zu übernehmen). Wer möchte, kann die erste Konstellation dem Recht zuordnen und die zweite der Moral, was allen, die Verantwortung als Forderungsbegriff nutzen wollen (Fall 3), die Machtfrage vor Augen führt: Wo Verantwortung nur „ethisch“ ist, hängt man von der Bereitschaft derjenigen ab, die man in die Pflicht nehmen will. Und auch Umfang, Dauer, Zumutbarkeit etc. von Verantwortung bleiben im Zweifel bestreitbar. Das Hauptproblem ist freilich, wo es um Verantwortung für neue Technologien geht, ein anderes. Das nämlich, dass „wir“ fast immer sowohl in der Rolle desjenigen, der Verantwortung schon hat als auch derjenigen, die sie zu übernehmen hätte, als auch in der Rolle jener sind, die Verantwortung möglichst dringlich einfordern möchten.

Anders gesagt: Nur, wo er überhaupt ein echtes, ein auf andere Weise als sich selbst zum Handeln berufenes Gegenüber findet, hat der „Ruf“ nach Verantwortung überhaupt Sinn. Die Mehrwertigkeit der Verantwortung wird zur Falle, wo Verpflichtung (Fall 1), Eigenverantwortung (Fall 2) und Inpflichtnahme (Fall 3) nicht mehr wirklich trennbar sind. Auch aus diesem Grund müssen klassische Ethiken an der Dimensionierung neuer Technologien scheitern: Die Bewältigung gesamtgesellschaftlicher Herausforderungen lassen sich umso schlechter einem Verantwortungsträger zuschreiben, je diffuser der öffentliche Diskurs die Herausforderungen eigentlich bei sich selbst zu suchen hätte und je stärker es der Konsumwillen aller ist, der die Technologieentwicklung treibt – und dies zu Lasten nicht sinnfälliger Weise der Natur (wie im Rahmen der ökologischen Frage), sondern ‚lediglich‘ zu Lasten zivilisatorischer Errungenschaften wie Bildung, Frieden oder Demokratie. Verantwortung bedarf zwar des Nachdenkens – und in der eigenen Person kann man Rollen-, Eigen- und vielleicht sogar Menschheitsverantwortung verbinden. Aber Verantwortungssemantik, die politisch etwas bewirken will, verträgt keinen Kurzschluss ihrer drei Versionen. Diese bittere Einsicht geht über Jonas hinaus, der sich noch an einen „Staatsmann“ richtet, der den Einsatz von Technik als ein „Mittel“ vor sich sieht, auf das er auch verzichten kann.2 Gebraucht werde „Macht über die Macht“ (Jonas 1979: 254) – auch das legt eher das Umsteuern eines Staatsapparates nahe als Formen der Bändigung einer Technologieentwicklung, die sich aus der Gesellschaft selbst heraus ergibt. 3

Ich schwenke zurück zum digitalethischen Feld, wo sich in der Tat das V-Wort vor allem dann bewährt, wenn es auf eine haftungsrechtliche Verantwortlichkeit abzweckt. So hat eine 2018 zunächst im Bundesministerium für Justiz und Verbraucherschutz, inzwischen beim Bundesumweltministerium und einem mit diesem kooperierenden „Institut für Verbraucherpolitik“ (vgl. ConPolicy 2024) verortete CDR-Initiative einen Kodex mit neun Prinzipien formuliert, von denen eines „Verantwortlichkeit“ heißt:

Prinzip 8: Verantwortlichkeit. Wir stellen sicher, dass die Verantwortung für die Gestaltung und den Einsatz unserer technischen Systeme in letzter Instanz bei eindeutig definierten menschlichen Verantwortungsträgern liegt.“ (Corporate Digital Responsibility Initiative 2024: 3)

Eindeutig definierte natürliche Personen – da ist Haftung nicht weit. Auch die KI-Gesetzgebung der Europäischen Union scheint den Weg einzuschlagen, einer Verantwortungsdiffusion für die Folgen der neuen Technologie durch Anmeldepflichten der Marktteilnehmer im europäischen Rechtsraum sowie durch eine hinreichend griffige Form der Herstellerhaftung entgegenwirken zu wollen. Etwas seltsam wirkt es, wenn die EU High-Level Expert Group 2019 ausdrücklich festhält, auch KI-Experten hätten sich an Recht und Gesetz zu halten:

„[I]t is the responsibility of AI practitioners to ensure that they comply with their legal obligations, both as regards horizontally applicable rules as well as domain-specific regulation.” (AI HLEG 2019: 15)

Man fragt sich: Ja was denn sonst? Immerhin aber schließt hier hinreichend deutlich ein Verantwortungsbegriff hartes Recht nicht aus, sondern ein. Auch „Accountability“, also Zurechenbarkeit konkreter Technikfolgen auf jemanden, dem man dann Verantwortlichkeit nachweisen kann, gehört zu den Anforderungen der EU4.

Ein Beispiel für eine konsequent lediglich als eine moralische Selbstbindung ausgelegte Verantwortungsübernahme liefern die 2017 formulierten, 2019 erneuerten Asilomar AI Principles des Future of Life Institute. Zu den Mitgliedern dieser Vereinigung gehören prominente Softwareentwickler und Pop-Akteure wie der auf Investitionen in transformative Technologien spezialisierte Konzernchef Elon Musk oder der technikbegeisterte Physiker Stephen Hawking. In Sachen Verantwortung springt in den Asilomar-KI-Prinzipien der neunte Leitsatz ins Auge:

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications. “ (Future of Life Institute 2017a)

Die deutsche Übersetzung lautet – durch das Entfallen der Wendung von den „Stakeholders“ – nicht ganz identisch:

„9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.“ (Future of Life Institute 2017b)

In beiden Versionen der Aussage ist deutlich: Erstens geht es um Moral, genauer sogar um „moralische Folgen“ der neuen Systeme (was auch immer das genau sein mag). Und zweitens sehen sich die Produzenten der Technologie als Beteiligte, an welche lediglich als moralische „Stakeholder“ appelliert werden kann, im Deutschen sogar als Leute, die lediglich „mitbestimmen“. Eine Allein- oder Vollverantwortung anzuerkennen, sieht anders aus.

Im März 2023 veröffentlicht das Future of Life Institute den offenen Brief Pause Giant AI Experiments, in welchem ausgerechnet im fraglichen Feld auf aggressive Weise unternehmerisch tätige KI-Entwickler die Weltöffentlichkeit vor den möglicherweise verheerenden Folgen ihre Produkte warnen und nach staatlichen Regeln sowie Kontrollen rufen:

Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.“ (Future of Life Institute 2023a)

Das klingt fast ein wenig nach Hans Jonas. Obzwar der Verantwortungsbegriff nicht fällt, handelt es sich doch um eine Geste der Bereitschaft zur Verantwortlichkeit. Die Verfasser des Briefs bringen sogar den Gesetzgeber ins Spiel, den sie um eine Art Moratorium bitten. Der Duktus der Verantwortungsübernahme kann allerdings kaum darüber hinwegtäuschen, dass mit der Adressierung des Statements etwas nicht stimmt. Eine Gruppe mächtiger Lobbyisten maßt sich hier in eigener Sache an, im Namen der Menschheit zu allen Regierungen der Welt zu sprechen – und dies um ihnen Pflichten aufzuerlegen, an die sie sich gewissermaßen selbst erinnern.5 Was ebenfalls auffällt: In keiner Weise erwägen die Verfasser des offenen Briefes, ob die mit vielen Fragezeichen geschilderte gefahrvolle Entwicklung nicht heute schon bestehendes Recht bricht. Denn KI-Systeme wie das große Sprachmodell „GPT“ sind zwar nicht völlig im Geheimen entstanden. Jedoch stellt weder die augenscheinlich bedenkenlose Beschaffung von Trainingsdaten für das System noch dessen von PR begleitete weltweite Freischaltung ein Interesse an existierenden rechtlichen Regeln unter Beweis. Vielmehr hat Open AI das Produkt freigesetzt, ohne sich um existierendes Recht zu scheren.

Den Verfassern des Briefs muss man wiederum zugutehalten: Sie nutzen das V-Wort im April 2023 in einem Empfehlungspapier Policymaking in the Pause tatsächlich im Sinne der juristischen Rechenschaftslegung und Haftung:

„Key among measures to better incentivize responsible AI development is a coherent liability framework that allows those who develop and deploy these systems to be held responsible for resulting harms.“

Der Gesetzgeber habe umgehend ein „framework for the liability for AI derived Harms” zu schaffen (vgl. Future of Life Institute 2023b: 4).

Großbegriffe, deren Bedeutungsstränge sich dauerhaft verfilzen, richten Schaden an und verkommen zur leeren Hülse. Für „Ethik“ im Ganzen mag das gelten, aber auch um die „Verantwortung“ ist es nicht gut bestellt – zumal, wenn die Vermutung zutrifft, dass sich einfach auch keine rechte Adressierung mehr für die Appellfunktion des V-Worts findet. Dabei ist der dritte Gebrauchsfall ja vielleicht der politisch wichtigste der drei: der Fall des Aufrüttelns, um Verantwortung dort zu mobilisieren, wo nicht rechtlich bereits alles klar ist.

Wird das Wort also unbrauchbar? Sollte man die verwickelte Auseinandersetzung um Digitaltechnologien besser ganz ohne Rekurs auf „Verantwortung“ führen? Es gibt in der Tat eine Verantwortungskritik, die ungefähr das besagt: Der Ausdruck bemäntele mehr schlecht als recht, dass Ethik die Falschen in die Pflicht nimmt (man bürdet der Gesellschaft und konkret den Bürgerinnen und Bürgern, etwa in der Medizin, Verantwortung auf (vgl. Illich 2019: 232 f.) während sie denjenigen, denen Recht und Moral ohnehin gleichgültig ist, zusätzliche rhetorische Spielräume bietet. Und zahlungskräftige Unternehmen machen sich diese flugs zu eigen. Mittels Ethik-PR. Ein Kritiker nicht der Digital- aber der Bioethik streicht die „Verantwortung“ aufgrund solcher Inanspruchnahme mit dem folgenden Statement aus seinem Vokabular: „Die Natur, Die Humanität, Das Leben, Die Würde der Frau, Die Menschenrechte, Der Kosmos, DieVernunft, Die Wissenschaft, Die Verantwortung, Die Moral und so fort. Alles zu Markenzeichen verkommene Ideen – Markenzeichen, mit denen sich die Oberschicht der (redenden und schreibenden) Konsumenten der Macht identifiziert. Die Macht steckt eben nicht in den Markenzeichen, aber sie wird durch den Gestus des Tragens solcher Zeichen abgesichert. […] ‚Verantwortung‘ und ‚Ethik‘ sind, so wie sie heute in Gebrauch sind, Aufkleber, die über Preis und Qualität des Beklebten nur vermeintlich etwas aussagen.“ (Patze 1988: 28)

Den gegenteiligen, aber auch auf die Verzichtbarkeit des Worts zulaufenden Weg wählt die Politik, wenn sie Verantwortung einfach mit Umsicht und Klugheit gleichsetzt. Denn damit nimmt man ihr – diesseits der geschilderten drei Stoßrichtungen des Wortes – nahezu jeglichen Stachel, den Pflichtaspekt und auch den Charakter der Handlungsaufforderung. Der Bericht der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz von 2020 wählt jedoch diesen Weg. Es wird definitionsartig angesetzt, aber schon die Überschrift – „6.2.5 Verantwortung (Gutes tun, Akteure, Zusammenarbeit)“ – löst jede Kontur auf. Die angebotene Begriffsbestimmung gibt die Verantwortung einer (ohnehin) moralischen Handlung nur noch wie eine Art Zusatz bei. Als vernünftige Vorausschau auf mögliche Folgen:

„Der Begriff der Verantwortung macht darauf aufmerksam, dass es ein wichtiges Kennzeichen einer moralischen Handlung ist, die Folgen seiner eigenen Handlung abzusehen und zu bewerten und sein Handeln dann evtl. auch zu verändern. Handeln gemäß einer klugen und vernünftigen Einschätzung der Folgen des eigenen Handelns unter Hinzuziehung von moralischen Kriterien (Werten, Normen, Prinzipien, Maximen) – das kann man mora­lisch verantwortliches Handeln nennen.“ (KI Enquete-Kommission 2020: 85)

Kann man, muss man aber nicht. Denn Verantwortung reduziert sich damit auf ein der Moralität nachgeschaltetes Zusatzkalkül.

Lässt sich das V-Wort noch retten? Es verknäuelt Bedeutungen, lässt sich zu PR-Zwecken verflachen und ist nicht wirklich durch Theorietraditionen gesichert. Es gleicht eher einer Metapher oder einem Akkord mit vielen Unter- und Nebentönen. Immerhin bleibt da die eingangs beschriebene Wucht. Das Gestische. Das Moment des Eintretens für eine Norm. Wird die Rede von der „Verantwortung“ nicht nebelhaft-allgemein verwendet, sondern mit Namen, konkreten Gefahrenlagen – und idealerweise: mit Rechtsfolgen bis hin zur Haftung auch für lange Folgenketten, die Betroffene einklagen können – verbunden, erschließt sich so etwas wie ein Ebenenwechsel: Einfach nur machen und auf den Fortschritt vertrauen, reicht dann nicht mehr.

Ebenso kommt das ins Spiel, was der Soziologe Niklas Luhmann (1984: 515 f.) als den Unterschied zwischen gegenwärtiger Zukunft und künftiger Gegenwart beschreibt: Technologen verschieben das heute Widersprüchliche auf künftige Gegenwarten, weil sie hoffen, bis dahin ließen sich die Probleme, auch dank erst noch zu erfindender neuer Technologien, irgendwie schon abarbeiten. Wir schieben heute daher einen Berg wohlmöglich unlösbarer Aufgaben vor uns her. Zudem stellen wir uns eben auch nur vor, was aus einer neuen Technologie alles an zu bewältigenden Folgen hervorgehen könnte. Wirklich wissen (und wirklich zu bewältigen haben) werden es erst die Menschen von morgen. 

Von daher … bewahren wir das V-Wort. Ja: um des Ebenenwechsels willen, sprechen wir es ab und zu aus und wiederholen es nötigenfalls auch. Solange wir nichts besseres haben, kann es eines der weniger schlechten unter den schlechten Werkzeugen sein. Und wenn wir es nicht aufgeben: vielleicht entwickelt die Verantwortung doch noch klare Konturen. Wo die Gefahr wächst, wächst auch die Präzision.

  1. Jonas hebt auf die unabsehbaren – das menschliche Entscheiden überfordernden – Folgen und Fernwirkungen neuer Technologien ab. Die tägliche Sphäre sei heute „überschattet von einem wachsenden Bereich kollektiven Tuns, in dem Täter, Tat und Wirkung nicht mehr dieselben sind wie in der Nahsphäre, und der durch die Enormität seiner Kräfte der Ethik eine neue, nie zuvor erträumte Dimension der Verantwortung aufzwingt.“ (Jonas 1979: 26)  ↩︎
  2. Vgl. Jonas 1979, S. 80: „[S]elbst zur Rettung seiner Nation darf der Staatsmann kein Mittel verwenden, das die Menschheit vernichten kann.“ ↩︎
  3. Immerhin appelliert Jonas in dem Sinne an den Überlebenswillen der breiten Bevölkerung, dass er den Bürgern das Recht auf ein im Ergebnis fatales Wegsehen von Problemen abspricht: „Über das individuelle Recht zum Selbstmord läßt sich reden, über das Recht der Menschheit zum Selbstmord nicht.“ (Jonas 1979: 80) ↩︎
  4. Vgl. noch einmal das Papier der AI Ethics High-Level Expert Group, es postuliert: „mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.“ (AI HLEG: 15). ↩︎
  5. Vorbild solcher Briefe ist das von Benjamin Russell, Albert Einstein und anderen formulierte Pugwash-Manifest vom 9. Juli 1955 für eine nuklearwaffenfreie Welt, das aber eben als Brief an öffentlichen Universitäten tätiger Grundlagenforscher geschrieben wurde und nicht etwa von (mutmaßlich am Umsatz beteiligten) Personen aus Entwicklung und Management kommerziell tätiger Tech-Unternehmen. Ebenso verlangten Russell und Einstein nicht, dass man ihnen selbst ein Verbot auferlegen sollte, sondern sie forderten den Waffenverzicht von der Politik (wie auch der Wirtschaft). ↩︎

AI HLEG [= Independant High-Level Expert Group on Artificial Intelligence der EU] (2019): Ethics Guidelines for Trustworthy AI. Brüssel: EU, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf [19.3.2024].

Deutsche Telekom (2004a): Cororate Digital Responsibility [Webseite], https://www.telekom.com/de/konzern/digitale-verantwortung/cdr [19.3.2024]

ConPolicy, Institut für Verbraucherpolitik (2024): Corporate Digital Responsibility. https://www.conpolicy.de/themen/corporate-digital-responsibility [17.3.2024]

Corporate Digital Responsibility Initiative (2024): Corporate Digital Responsibility-Kodex. Freiwillige Selbstverpflichtung mit Bericht, https://cdr-initiative.de/uploads/files/2024-01_Kodex_CDR-Initiative.pdf [19.3.2024].

Deutsche Telekom (2004b): Deutsche Telekom (2004b): Ein Blick auf unsere Handlungsfelder – Digitale Ethik. https://www.telekom.com/de/konzern/digitale-verantwortung/cdr/details/ein-blick-auf-unsere-handlungsfelder-digitale-ethik-1007518 [19.3.2024].

Future of Life Institute (2017a): Asilomar AI Principles [11.8.2017], https://futureoflife.org/open-letter/ai-principles/ [19.3.2024].

Future of Life Institute (2017b): Asilomar AI Principles [11.8.2017] https://futureoflife.org/open-letter/ai-principles-german/ [19.3.2023].

Future of Life Institute (2023a): Pause Giant AI Experiments. An open Letter [22.3.2023], https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [19.3.2024].

Future of Life Institute (2023b): Policymaking in the Pause. What can Policymakers do now to combat Risks from advanced AI Systems? [19. April 2023] https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf [17.4.2024].

Holl, Jann /Red. [Teil I] und Lenk, Hans/Maring, Matthias (2001) [Teil II]: Art. „Verantwortung“. In: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie Bd. 11. Basel: Schwabe, Sp. 566–575.

Illich, Ivan (2019): Die Substantivierung des Lebens im 19. und 20. Jahrhundert – eine Herausforderung für das 12. Jahrhundert. In: Klaus Jörk/Bernd Kaufmann/Rocque Lobo/Erica Schuchardt (Hrsg.): Was macht den Menschen krank? 18 kritische Analysen. Basel, Boston, Berlin: Birkhäuser, S. 225–234.

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Suhrkamp 1984.

KI Enquete-Kommission (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, ökologische und soziale Potenziale. In: Deutscher Bundestag: Drucksache 19/27300 vom 28.10.2020.

Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main 1985.

o.A. (2024): Art. „Verantwortung“. In: Wikipedia, https://de.wikipedia.org/wiki/Verantwortung [19.3.2024].

Patze, Bernd (1988): Markenzeichen der Macht. Wissenschaft, Ethik und DAS GANZE. In: Wechselwirkung 10, Nr. 87, S. 24–28.

Price, Rob (2021) The International CDR Manifesto. https://corporatedigitalresponsibility.net/cdr-manifesto [19.3.2024].

pwc Deutschland (2024): „Unser Verständnis von Digitaler Ethik & Verantwortung“ [Webseitentext], https://www.pwc.de/de/risk-regulatory/risk/so-lassen-sich-digitale-ethik-und-verantwortung-wirkungsvoll-verankern.html [19.3.2024].

Swiss Insights (2024): Label Data Fairness. https://swiss-insights.ch/label-data-fairness/ [19.3.2024].

Gehring, Petra (2024): Versuch über das V-Wort. In: Verantwortungsblog. https://zevedi.de/versuch-ueber-das-v-wort/ [15.05.2024].