Philosophische Grundlagen von Corporate Digital Responsibility und Responsible AI
Ein kritischer Systematisierungsvorschlag
Responsible AI, Corporate Digital Responsibility – diese und andere, auf die Verantwortungsfrage hindeutende Begriffe werden an Unternehmen, die den digitalen Wandel maßgeblich vorantreiben, nicht nur herangetragen, sie tragen sie auch vor sich her. Handelt es sich dabei um bloße Buzzwords oder halten sie der philosophischen Betrachtung stand? Was ergibt sich aus dieser Betrachtung?
Von Christian Neuhäuser | 10.10.2024

Eine wichtige Aufgabe der Philosophie besteht darin, neue soziale Entwicklungen zugleich wohlwollend und kritisch zu begleiten. In gegenwärtigen Gesellschaften sind der Ausbau einer Digitalwirtschaft und der Fortschritt künstlicher Intelligenz offensichtlich solche Entwicklungen. Im öffentlichen Diskurs wird viel über Corporate Digital Responsibility und Responsible AI gesprochen (Dörr 2000; Gehring 2023; Almeida 2024). Die Tatsache, dass die Kernbegriffe als Anglizismen erhalten bleiben, soll wie in der Wirtschaft üblich eine gewisse Dynamik und Fortschrittlichkeit zum Ausdruck bringen. Aus philosophischer Sicht interessanter ist die zentrale Rolle des Verantwortungsbegriffs. Von Verantwortung ist gerade in wirtschaftlichen Kontexten eigentlich immer dann die Rede, wenn einerseits große Gefahren ausgemacht werden und andererseits eine Regulierungslücke in dem Sinne besteht, dass gesetzliche Vorgaben diese Gefahren nicht hinreichend einhegen und manchmal auch nicht hinreichend einhegen können.
Der philosophische Beitrag zu Debatten um solche Konzepte wie Corporate Digital Responsibility und Responsible AI besteht nicht darin, den Verantwortungsbegriff als philosophischen Begriff reklamieren zu können. Verantwortung ist zuerst ein praktischer und dann ein philosophischer Begriff (Maring 2010). Der Beitrag der Philosophie besteht auch nicht in einer normativen oder gar moralischen Richterfunktion (Neuhäuser/Seidel 2022). Zwar neigen nicht wenige Philosoph:innen dazu, sich selbst diese Rolle zuzuschreiben und nicht selten wird sie auch angenommen. Aber eigentlich haben Philosoph:innen keine besonderen moralischen Hoheitsrechte. Ihre Rolle ist bescheidener und beinhaltet zweierlei: Erstens besteht sie in Systematisierungen, in denen im besten Falle detaillierte Analysen und differenzierte Phänomenbeschreibungen zusammenkommen. Das kann den Blick auf neue Herausforderungen, Chancen und Probleme schärfen. Zweitens können Philosoph:innen vor dem Hintergrund einer jahrtausendealten Tradition normative einschließlich moralischer Empfehlungen und Ratschläge liefern, die allerdings auch als solche zu verstehen sind.
Zu beidem sollen die folgenden Überlegungen zu Corporate Digital Responsibility und Responsible AI einen Beitrag liefern. Den Ausgangspunkt dafür bildet eine Explikation des Verantwortungsbegriffs als vierstellige Relation (Lenk 1991). Damit ist schlicht gemeint, dass der Verantwortungsbegriff in praktischen Kontexten sehr häufig vier Aspekte miteinander verbindet, die sich in vier Fragen formulieren lassen: 1. Wer ist verantwortlich? 2. Wofür besteht Verantwortung? 3. Was sind die normativen Maßstäbe dieser Verantwortung? 4. Wem gegenüber besteht diese Verantwortung? Es sind noch weitere Relationen denkbar, aber dies sind sicherlich die wichtigsten (Sombetzki 2014). Alle vier Fragen mithilfe einer philosophischen Methodik auf die Begriffe der Corporate Digital Responsibility und der Responsible AI anzuwenden, kann dabei helfen, diese Konzepte zu schärfen, aber auch ihre gegenwärtigen Schwächen aufzudecken. In diesem Text kann dies nicht umfassend, sondern nur beispielhaft und schlaglichtartig geschehen. Aus Platzgründen beschränken sich die folgenden Überlegungen auf die erste, dritte und vierte Frage. Dabei soll ein Augenmerk auf Lücken im gegenwärtigen Diskurs liegen.
1. Wer ist verantwortlich?
Die Formulierung „responsible AI“ legt nahe, dass die künstliche Intelligenz selbst eine Verantwortung besitzt. Unter gegenwärtigen Bedingungen spricht jedoch wenig dafür, dass KI über Verantwortungsfähigkeit verfügt (Coeckelbergh 2020). Sie kann nicht selbstständig nach normativen Kriterien verschiedene Handlungsalternativen gegeneinander abwägen, sondern nur nach vorgegebenen Regeln entscheiden. Da sie jedoch neue Algorithmen und Routinen auf der Grundlage vorgegebener Regeln entwickeln kann und die Verlaufspfade unter Umständen nicht mehr nachvollziehbar sind, entsteht eine Verantwortungslücke: KI selbst besitzt nicht die Fähigkeit, eigenverantwortlich zu entscheiden. Selbst Entwickler:innen können die Entscheidungen von KI manchmal nicht mehr nachvollziehen (Almeida 2024). Daraus entsteht eine normative Frage höherer Ordnung: Wann sind Verantwortungslücken akzeptabel und wann sind bestimmte Entwicklungen von KI, die zu solchen Lücken führen, nicht zu verantworten? In einem Kraftwerk ist eine Verantwortungslücke sicherlich nicht akzeptabel, bei personalisierter Werbung im Onlinehandel vielleicht schon. Die zentrale Frage lautet aber: Wer soll das entscheiden?
Das Konzept von Corporate Digital Responsibility soll darauf eine Antwort liefern. Die Idee ist stark an den älteren Begriff von Corporate Social Responsibility angelehnt (Dörr 2020). Der Idee zufolge haben Unternehmen dann eine Verantwortung für soziale oder eben nunmehr auch digitale Belange, die über gesetzliche Vorgaben hinausgehen. Die digitale Verantwortung geht weiter als eine Verantwortung für KI und deren Entscheidungen, schließt das aber mit ein. Hinzu kommen noch weitere wichtige Bereiche. Dazu zählen beispielsweise die Auswirkungen der Digitalisierung auf die Arbeitswelt und vor allem einen möglichen Verlust zahlreicher Arbeitsplätze. Hinzukommt auch das geringe Vertrauen von Verbraucher:innen in digitale Prozesse und insbesondere die Furcht vor Überwachung. Dazu zählen auch mögliche Auswirkungen auf die Umwelt und die Frage der Nachhaltigkeit. All diese Dinge sind unter dem Konzept Corporate Digital Responsibility zusammengefasst (Dörr 2020).
Darüber hinaus bleiben jedoch viele grundlegende Fragen offen. Die erste dieser Fragen betrifft wieder den Akteur der Verantwortung. Sind mit „Corporate“ die Unternehmen selbst gemeint oder vielmehr nur individuelle Akteure, die im Unternehmenskontext agieren, wie beispielsweise Top-Manager:innen? In der wirtschaftsnahen Literatur wird diese Frage oft gar nicht erwähnt oder nur am Rande gestreift und bleibt weitgehend ungeklärt. Doch sie ist wichtig. Denn aus philosophischer Sicht spricht viel dafür, dass Unternehmen selbst verantwortungsfähige Akteure sein können, weil sie über die dafür notwendigen Eigenschaften verfügen (List 2022). Wenn das stimmt, entsteht jedoch sofort die Folgefrage, welche Verantwortung ihnen zukommt, welche Verantwortung einzelne Akteure oder Akteurs-Gruppen haben und wie sich diese verschiedenen Verantwortlichkeiten zueinander verhalten. Bleibt diese Folgefrage ungeklärt, entsteht schnell eine Verantwortungsdiffusion. Das Konzept von Corporate Digital Responsibility läuft dann Gefahr, ähnlich wie vor einiger Zeit schon das Konzept Corporate Social Responsibility zu einem bloßen Buzz-Wort zu werden und eher dem „white washing“ zu dienen, als echte Arbeit zu leisten.
2. Was sind die
normativen Maßstäbe der Verantwortung?
Ähnlich wie bei Corporate Social Responsibility wird durch das „Digital“ in Corporate Digital Responsibility bestimmt, um welchen Verantwortungsbereich es geht. Er betrifft die Entwicklung digitaler Technologien und die sich daraus ergebenden Herausforderungen für die Gestaltung der Arbeitswelt, der Konsumsphäre und der Nachhaltigkeit, aber auch von solchen Bereichen wie Unternehmensprozessen, Zielsteuerungen und Produktdesigns (Dörr 2000; Bertelsmann Stiftung u.a. 2020). Der Begriff Responsible AI ist demgegenüber besonders vage, aber wahrscheinlich noch breiter angelegt (vgl. z.B. IBM 2024; PwC 2024a). Offen bleibt in beiden Formulierungen, welche normativen Maßstäbe für die Bestimmung von Verantwortung angelegt werden. Oft wird auf die Idee der Nachhaltigkeit als Verbindung sozialer, ökonomischer und ökologischer Belange hingewiesen. Digitale Entwicklungen sollen dann in diesen Bereich eingebunden werden. Gleichzeitig wird nach einem Business Case für die Verantwortungsübernahme gesucht. Sie soll sich also ökonomisch lohnen oder zumindest keinen ökonomischen Schaden anrichten (Dörr 2020; Bertelsmann Stiftung u.a. 2020; ConPolicy 2024).
Bei Lichte betrachtet werden dabei jedoch alle anderen Belange einem ökonomischen Maßstab untergeordnet. Das alte Prinzip von der Gewinnmaximierung bleibt so systembeherrschend. Mit echter Verantwortung hat das jedoch nur wenig zu tun. Analytisch betrachtet treffen im Wirtschaftssystem verschiedene Verantwortungsformen je nach normativem Maßstab aufeinander (Neuhäuser 2016). Dazu gehört eine rechtliche Verantwortung, sich an geltende Gesetze zu halten. Dazu gehört auch eine politische Verantwortung, zu allgemeinverbindlichen Regulierungen zu kommen, wo es sie noch gibt. Fraglos gehört dazu auch eine ökonomische Verantwortung, effizient und langfristig wirtschaftlich zu sein. Vor allem gehört dazu aber eine moralische Verantwortung, negative Pflichten nicht zu verletzen und positive Pflichten zu erfüllen (Nida-Rümelin 2011). Negative Pflichten bestehen darin, keinen Schaden anzurichten, beispielsweise durch Überwachungstechnologien oder die Verdrängung von Menschen in den ökonomischen Ruin. Positive Pflichten bestehen darin, Hilfe zu leisten, wo dies angebracht ist, beispielsweise indem auf big data beruhendes medizinisches Wissen allgemein zur Verfügung gestellt wird.
Nun haben dem üblichen Verständnis nach moralische Pflichten gegenüber anderen Verantwortlichkeiten einen Vorrang (ebd.). Mit einer rechtlichen Verantwortung stehen sie im günstigen Fall im Einklang, aber mit politischen und ökonomischen Verantwortungen gibt es häufig Konflikte. Es ist aufgrund von Marktmacht für die riesigen digitalen Unternehmen aus den USA möglich, bestimmte politische Entscheidungen einfach zu erzwingen. Aber das ist moralisch offensichtlich falsch, weil undemokratisch (Zuboff 2018). Es ist auch möglich, digital erworbenes Wissen teuer zu verkaufen, insbesondere wenn es lebensnotwendig ist. Aber auch das ist moralisch wahrscheinlich falsch, weil es etwa im medizinischen Kontext im Konflikt mit der Menschenwürde steht. Hier geht es nicht um die Frage, ob die moralischen Urteile in den Beispielen mit Sicherheit zutreffen. Das wäre ausführlich zu zeigen. Es geht allein darum, dass moralische Verantwortung einer ökonomischen und politischen Verantwortung prinzipielle Grenzen auferlegt. Genau das wird in Konzepten wie Corporate Digital Responsibility und Responsible AI systematisch übersehen. Stattdessen ist davon die Rede, dass diese Verantwortungsübernahmen freiwillig seien. Wenn damit nur gemeint wäre, dass sie rechtlich nicht vorgeschrieben sind, dann wäre das auch in Ordnung. Aber sehr häufig wird so getan, als sei sie ganz beliebig. Daher kommt auch die Überzeugung, dass sie leicht einem ökonomischen Imperativ untergeordnet werden können. Das ist jedoch ein Ausverkauf der Moral. Sie ist nämlich nicht beliebig, sondern verbindlich.
3. Wem gegenüber besteht
diese Verantwortung?
Oft wird die Frage nicht adressiert, gegenüber wem eine Verantwortung für digitales Wirtschaften und das Handeln von KI besteht. Die implizite Annahme scheint dann zu sein, dass individuelle Manager:innen rechtlich dem Rechtssystem, wirtschaftlich den Eigentümer:innen oder Märkten und politisch ihren Kolleg:innen gegenüber verantwortlich sind. Moralisch hingegen sind sie nur ihrem Gewissen verpflichtet. Vielleicht liegt das daran, dass solche Konzepte häufig im Kontext von Beratungsliteratur auftauchen und sich Berater:innen dann als gewissermaßen externalisiertes Gewissen von Manager:innen anbieten (Dörr 2020; ConPolicy 2024). Sollte sich dieser Verdacht erhärten, dann wäre das jedoch dem Vorwurf eines modernen Ablasshandels ausgesetzt. Die Berater:innen lassen sich dann vielleicht dafür bezahlen, ein gutes Gewissen zu liefern.
Wenn das Thema doch aufkommt, dann ist schnell der Stakeholder-Ansatz zur Stelle (Freeman 2010). Demgegenüber müssen alle möglichen Stakeholder eines Unternehmens oder eines KI-Handelns in einen Diskurs eingebunden sein, weil ihnen gegenüber eine Diskursverantwortung besteht. Das ist einerseits ein Fortschritt, weil dann beispielsweise die User einer KI zu Wort kommen oder die Anwohner:innen eines Unternehmensstandorts. Gleichzeitig bleiben in diesem Ansatz jedoch auch viele Fragen offen (Neuhäuser 2016). Wer entscheidet, wer Stakeholder ist? Wer entscheidet, wer wirklich gehört wird und wer nicht? Vor allem aber: Was folgt daraus? Diskursverantwortung ist, wenn überhaupt, nur Teil eines sich Verantworten-müssens. Solange Stakeholder keine wirkliche Macht haben, Manager:innen und Eigentümer:innen von digitalen Unternehmen und KI zur Verantwortung zu ziehen, haben sie auch keine echte Verantwortung. Wenn es zutrifft, dass es bei der Digitalisierung der Wirtschaft um unsere Zukunft geht, dann stellt sich daraus unmittelbar die Frage, was echte Verantwortlichkeit verlangt. Vielleicht ist das nicht weniger als eine richtige Stakeholder-Demokratie in diesem Wirtschaftssektor.
Fazit
Eine philosophische Reflexion auf den Diskurs um Corporate Digital Responsibility einschließlich Responsible AI zeigt, dass einige grundlegende Fragen weiterhin offen sind. Dabei handelt es sich nicht nur um Fragen von rein theoretischem und akademischem Interesse, sondern sie haben eine praktische und öffentliche Dimension. Die Bürger:innen haben einen Anspruch auf eine Klärung solcher Fragen wie diejenigen, wer eigentlich genau verantwortlich gemacht wird, welchen Stellenwert moralische Maßstäbe tatsächlich haben und wie die Verantwortung letztlich eingefordert wird. Diese Fragen nicht ehrlich zu beantworten, sondern wortreich zu umschiffen, schafft kein Vertrauen, sondern zerstört es. Zudem verspielt es auch guten Willen, weil sich die Menschen veräppelt vorkommen, und zwar zu Recht. ■
Literatur
Bertelsmann Stiftung/Wittenberg-Zentrum für Globale Ethik (Hg.). Unternehmensverantwortung im digitalen Wandel. Gütersloh: Bertelsmann Stiftung 2020.
Coeckelbergh, Mark (2020): Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability. In: Science and Engineering Ethics 26 (4), S. 2051-68.
de Castro Almeida, Inês (2024): Responsible AI in the Age of Generative Models: Governance, Ethics and Risk Management. o.O.: Now Next Later AI 2024.
ConPolicy: Corporate Digital Responsibility, [Webseitentext 2024] https://www.conpolicy.de/themen/corporate-digital-responsibility. [29.05.2024].
Dörr, Saskia (2020): Praxisleitfaden Corporate Digital Responsibility: Unternehmerische Verantwortung und Nachhaltigkeitsmanagement im Digitalzeitalter. Berlin: Springer Gabler 2020.
Freeman, R. Edward et al. (2010): Stakeholder Theory: The State of the Art. Cambridge: Cambridge University Press 2010.
Gehring, Petra (2023): Transparenz, Erklärbarkeit, Interpretierbarkeit, Vertrauen: Digitalethische Doppelgänger des Verantwortungsbegriffs. In: Deutsche Zeitschrift für Philosophie 71 (2023), Heft 5. S. 629-645.
IBM: What is responsible AI? [Webseitentext 2024] https://www.ibm.com/topics/responsible-ai [27.05.2024].
Lenk, Hans (1991): Zwischen Wissenschaft und Ethik. Frankfurt am Main: Suhrkamp Verlag 1991.
List, Christian (2022): Group Responsibility. In: Dana Kay Nelkin/Derk Pereboom (Hg.): The Oxford Handbook of Moral Responsibility. New York: Oxford University Press 2022; S. 131-154.
Maring, Matthias (Hg.): Verantwortung in Technik und Ökonomie. Karlsruhe: Universitätsverlag Karlsruhe 2008.
Neuhäuser, Christian/Seidel, Christian (2022) Was ist Moralismus? Über Zeigefinger und den Ort der Moral. Stuttgart: Reclam 2022.
Neuhäuser, Christian: Unternehmensverantwortung. In: Heidbrink, Ludger/Langbehn, Claus/Loh, Janina (Hg): Handbuch Verantwortung. Wiesbaden: Springer VS 2016.
Nida-Rümelin, Julian: (2011): Verantwortung. Stuttgart: Reclam Verlag 2011.
PwC: responsible AI. [Webseitentext 2024a] https://www.pwc.de/de/risk-regulatory/responsible-ai [24.05.2024].
PwC: Corporate Digital Responsibility und Digitale Ethik, [Webseitentext 2024b] https://www.pwc.de/de/nachhaltigkeit/corporate-digital-responsibility-und-digitale-ethik [29.05.2024].
Sombetzki, Janina (2014): Verantwortung als Begriff, Fähigkeit, Aufgabe. Eine Drei-Ebenen-Analyse. Wiesbaden: Springer VS.
Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt am Main/New York: Campus Verlag 2018.
Zitiervorschlag
Neuhäuser, Christian (2024): Philosophische Grundlagen von Corporate Digital Responsibility und Responsible AI. Ein kritischer Systematisierungsvorschlag. In: Verantwortungsblog. https://zevedi.de/philosophische-grundlagen-von-corporate-digital-responsibility-und-responsible-ai-ein-kritischer-systematisierungsvorschlag/ [10.10.2024]. https://doi.org/10.60805/a58k-r453