Kategorien
Akzentfarbe: Dunkelgrau Autor: Petra Gehring Uncategorized Verantwortungsblog

Immerhin noch die Menschenrechte. Die aus der Zeit gefallene Ethik der Gesellschaft für Informatik

Immerhin noch die Menschenrechte.
Die aus der Zeit gefallene Ethik der Gesellschaft für Informatik

Während viele Wissenschaftsdisziplinen seit langem Ethikstandards pflegen und auch Forschungs-Ethikkommissionen dort alle kritischen Forschungsprojekte begutachten, erwischt die Frage nach Forschungsethik die Informatik – jedenfalls in Deutschland – augenscheinlich auf dem falschen Fuß. Denn weder gibt es derzeit (für Forschungen, die sich zu Recht in jeder gesellschaftlichen Hinsicht als „disruptiv“ verstehen) informatische Ethikkommissionen noch besitzt überhaupt die Gesellschaft für Informatik Ethikstandards, in welchen etwa das Thema „KI“ vorkommt. Unsere Autorin hat nachgelesen.

Von Petra Gehring | 26.09.2024

Ein Wegweise in einem digitalisierten Raum.
Erstellt mit Adobe Firefly. Prompt: „signpost in a digital space, data streams, many directions; impressionist, minimalistic; colors: shades of gray“

Große Fachgesellschaften im Ingenieursbereich haben eine professionsethische Tradition. Man ist sich der Gefahren bewusst, für die man im Engineering Verantwortung übernimmt. So besitzen die Elektroingenieure und der Maschinenbau straffe Verhaltenskodizes, in einigen Ländern schon seit Ende des 19. Jahrhunderts. Und solche Kodizes werden auch weiterentwickelt. Ähnlich wie im medizinischen Standesrecht gibt es ein Sanktionssystem (Approbationen können entzogen werden), es gibt die Pflicht zum Whistleblowing für Zeugen von Fehlverhalten (mitsamt Schutzzusagen für Whistleblower) und mehr. Ebenso gibt es in vielen Fachdisziplinen forschungsethische Standards: Sobald Forschungsvorhaben Versuchspersonen einbeziehen, kritische Daten nutzen oder auch, wenn sogenannte „Dual Use“-Aspekte berührt werden könnten, kommt Forschungsethik ins Spiel. Fachlich einschlägige Ethikkommissionen bewerten dann Projektpläne, die die Rolle von Versuchspersonen und Datengebenden beschreiben, nicht aber eine professionsethische Pflichterfüllung einer Einzelperson.

Und in der in Deutschland so genannten Informatik, die in anderen Ländern zumeist Computer Science heißt?

„Die Gesellschaft für Informatik e.V. (GI) ist eine gemeinnützige Fachgesellschaft, die sich zum Ziel gesetzt hat, die Informatik in Deutschland zu fördern.“ So heißt es in der Wikipedia, die Homepage der GI selbst schildert es kaum anders: „Die Gesellschaft für Informatik e.V. (GI) ist mit rund 16.000 persönlichen und 250 korporativen Mitgliedern die größte und wichtigste Fachgesellschaft für Informatik im deutschsprachigen Raum und vertritt seit 1969 die Interessen der Informatikerinnen und Informatiker in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik.“ (GI 2024)

Ähnlich einer großen Ingenieursvereinigung ist man also öffentliche Interessensvertretung und wissenschaftliche Fachgesellschaft in einem. Und wer auf der Webseite nach „Ethik“ sucht, wird ebenfalls fündig: Die GI hat unter dem Titel Unsere Ethischen Leitlinien eine Art Professionsethik formuliert. Es handelt sich um ein Dokument, das in Form von Abschnitten bzw. Artikeln recht locker die humanistischen Ziele des Informatikberufs umschreibt. Überarbeitet wurde das Dokument, das von 1994 stammt, genau zweimal: in den Jahren 2004 und 2018.1 Dabei ist es kürzer geworden, und es sind nicht viel neue Themen hinzugekommen, sondern vor allem Dinge verloren gegangen. So betonte man bis 2004 die Notwendigkeit „Interdisziplinärer Diskurse“ in einem eigenen Abschnitt (§ 13). Die Fassung von 2018 thematisiert das nicht mehr. Das Adjektiv „interdisziplinär“ ist stattdessen an eine unauffällige Stelle der Präambel gerutscht.2 Ebenso ist die zuvor mehrmals aufgeführte Vorbildfunktion, die man erfüllen möchte, nur noch im Bereich „Lehren und Lernen“ erwähnt. Besonders interessant: das Schicksal des Stichwortes „Zivilcourage“. 1994 gibt es einen Abschnitt, der unter diesem Titel ermutigt, in Situationen, in denen Pflichten der GI-Mitglieder „gegenüber ihrem Arbeitgeber oder einem Kunden im Konflikt zur Verantwortung gegenüber Betroffenen stehen, mit Zivilcourage zu handeln“. (Art. 9, Fassung von 1994) Und 2004 werden die der Gesellschaft angehörigen Informatiker im betreffenden Abschnitt dazu ermuntern, falls ihre Pflichten „gegenüber Arbeitgebern oder Kundenorganisationen in Konflikt mit der Verantwortung gegenüber anderweitig Betroffenen stehen, mit Zivilcourage zu handeln“ (Art. 10, Fassung von 2004). Die geltende Fassung von 2018 zieht sich demgegenüber schlicht auf Art. 1 des Grundgesetzes zurück, womit Zivilcourage nurmehr im Falle von Grundrechtsverletzungen gefragt wäre: „Das GI-Mitglied tritt mit Mut für den Schutz und die Wahrung der Menschenwürde ein, selbst wenn Gesetze, Verträge oder andere Normen dies nicht explizit fordern oder dem gar entgegenstehen. Dies gilt auch in Situationen, in denen seine Pflichten gegenüber Auftraggebenden in Konflikt mit der Verantwortung gegenüber anderweitig Betroffenen stehen.“ (Art. 9, Fassung von 2018) Immerhin findet man jetzt – neu – einen vorsichtigen Hinweis auf Whistleblowing ergänzt: „Dies kann in begründeten Ausnahmefällen auch den öffentlichen Hinweis auf Missstände einschließen.“ (ebd.)  „Begründete Ausnahmefälle“ – das klingt allerdings so, als müsse man vor der Erwägung, zivilcouragiert zu agieren, zwecks rechtssicherer Begründung erst einmal ein Anwaltsbüro konsultieren.

Bei der Lektüre der Fassung von 2018 fällt ein – dann doch – neuer Art. 11 unter der Überschrift „Ermöglichung der Selbstbestimmung“ auf. Hier heißt es, GI-Mitglieder wirken auf die Beteiligung der „von IT-Systemen Betroffenen an der Gestaltung dieser Systeme und deren Nutzungsbedingungen hin“. Der Nachsatz, der dann folgt, ist nur ein einziger. Er lautet: „Dies gilt insbesondere für Systeme, die zur Beeinflussung, Kontrolle und Überwachung der Betroffenen verwendet werden können.“ Ganz offenkundig besagt er, im Umkehrschluss, nichts anderes, als dass mit dem Hinwirken auf die Beteiligung Betroffener etwaige ethisch-politische Bedenken von Informatikerinnen und Informatikern hinsichtlich Verhaltensbeeinflussung und Überwachung abgearbeitet und erledigt sind. Partizipation ersetzt Bewertung. Wobei nicht einmal Zustimmung der Betroffenen gefordert ist. Partizipation ersetzt aber auch die Frage nach Macht. Denn von der Professionsverantwortung für professionstypische Wissensvorsprünge – Betroffene sind Laien und können Techniken gerade nicht so tiefgreifend abschätzen wie der Experte – spricht dieser Artikel die Informatik mit einiger Nonchalance geradezu frei.

Stark verändern sich auch – abgesehen davon, dass im Dokument von 2018 die (zuvor ausführlichen) Begriffsdefinitionen verschwunden sind – über die drei existierenden Versionen hinweg die Präambeln, die den Leitlinien ein Stück weit ihren Status zuweisen. 1994 wünscht sich die GI, „daß berufsethische Konflikte Gegenstand gemeinsamen Nachdenkens und Handelns werden“; sie will „Mitglieder, die sich mit verantwortungsvollem Verhalten exponiert haben“, „unterstützen“ sowie „vor allem“ den „Diskurs über ethische Fragen in der Informatik mit der Öffentlichkeit aufnehmen und Aufklärung leisten“. Es würden zudem „Verfahren“ gebraucht, um „die Zusammenhänge zwischen individueller und kollektiver Verantwortung zu verdeutlichen“ und wohl auch für die Verantwortung selbst, was Einzelne zumeist überfordere. In diesem Sinne „binde“ sich die GI an die Leitlinien, heißt es zum Schluss.

2004 ist die Präambel um ihren letzten Absatz gekürzt: Die Sache mit den Verfahren und der individuellen und kollektiven Verantwortung fällt weg. Zu Anfang ist ein Verweis ergänzt, demzufolge man sich auf „allgemeine moralische Prinzipien, wie sie in der Allgemeinen Deklaration der Menschenrechte formuliert sind“ verpflichtet. 2018 finden wir dann an der Stelle, an der es früher um die Vielfalt von Lebensformen bzw. Lebensweisen ging (mit der das Handeln von Informatikerinnen und Informatikern „in Wechselwirkung“ stehe), einen neuen Text: „Die GI-Mitglieder setzen sich dafür ein, dass Organisationsstrukturen frei von Diskriminierung sind und berücksichtigen bei Entwurf, Herstellung, Betrieb und Verwendung von IT-Systemen die unterschiedlichen Bedürfnisse und die Diversität der Menschen.“ Die ersten beiden Versionen der Leitlinien enthielten überdies den Satz „Der offene Charakter“ „dieser Forderungen“ (1994) bzw. „der nachfolgenden Artikel“ (2004) werde „mit dem Begriff der Leitlinien unterstrichen“. 2018 finden wir hierzu einen ganz neuen, deutlich abschwächenden Kontext geschaffen: „Der offene Charakter der nachfolgenden Artikel macht deutlich, dass es keine abschließenden Handlungsanweisungen oder starren Regelwerke für moralisch gebotenes Handeln geben kann.“ (Präambel, Fassung von 2018). Hieran anschließend lässt sich eine interessante Bilanz ziehen: Während einerseits der Text der Leitlinie schrittweise immer stärker lediglich das als „ethisch“ anführt, was ohnehin geltendes Recht ist, wird andererseits unterstrichen, um Regel oder Handlungsanweisungen gehe es gerade nicht. Sondern lediglich um „moralisch gebotenes Handeln“. Entsprechend scheint auch die Frage nach Verfahren – ob nun Organisation des Dialogs mit der Gesellschaft oder so etwas wie eigene standesrechtliche Kommissionen und Instanzen – im Laufe der Zeit in den Hintergrund gerückt zu sein. War „Ethik“ in den 1990er Jahren soziale oder auch aufklärerische Verpflichtung und 2004 immerhin eine „Unterstützung“ für den Fall, dass man sich exponiert, so scheint sie 2018 im Wesentlichen auf das Bekenntnis zusammenzuschrumpfen, dass Informatikerinnen und Informatiker gewillt sind, sich an Grundrechte und einige andere der in Deutschland geltenden Gesetze zu halten.

Fragt man sich spezifisch nach der forschungsethischen Kultur der Informatik, hilft die Leitlinie kaum weiter, dabei scheint sie nach wie vor die einzige Regulation in Sachen Ethik zu sein,3 und auf deren partizipative Vergangenheit ist man auch stolz.4 Mit dem Stand „2018“ scheint man zufrieden. Dramatische Debatten über „KI“ geben der KI-Forschung – was Ethik und Qualitätssicherung angeht – interessanterweise ebenso wenig Impulse wie die breit geführte Debatte darüber, ob es im Bereich der Entwicklung von Algorithmen (nichtlernenden oder lernenden) so etwas wie Grundlagenforschung überhaupt noch gibt. LLM sind ja auch dafür ein Beispiel: OpenAI ist eine Firma, die aber für generische Forschung stand und auch öffentlich gefördert worden ist. Aus der vermeintlichen Grundlagenforschung wird nun quasi durch Umlegen eines Schalters plötzlich ein Produkt. Wenn dies so ist – und es geschieht im Fall von ChatGPT ja nicht zum ersten Mal – dann wirkt das auf die Grundlagenforschung an Algorithmen und Software, die zur Entwicklung mindestens beiträgt, zurück. Was dann eben auch ein Grund dafür ist, dass man sich in der Forschung nicht einfach drauf zurückziehen kann, dass man ja lediglich Grundlagen erforsche, und erst viel später und ganz weit weg beginne die Anwendungsrelevanz. Und damit dann auch das Kontrollinteresse der Gesellschaft.

Vergleiche zeigen, dass einerseits beispielsweise in den USA Fachgesellschaften deutlich detailliertere, strengere, häufiger aktualisierte und vor allem mit dem Hinweis auf Enforcement Procedures und Ethikkommissionen hinterlegte Ethikkodizes haben – man klicke etwa auf die Ethikinformationen der AMC.5 Auch die Förderorganisation NSF geht zum Thema ins Detail (vgl. National Academies 2022).

Andererseits scheint beispielsweise die deutsche Gesellschaft für Sprachtechnologie und Computerlinguistik gar keinen Ethikkodex zu besitzen und weist auch in Zeit großer Sprachmodelle (LLM) nicht auf eventuelle gesellschaftliche Debatten oder Konflikte hin. Dass auch die Gesellschaft für Informatik weder die neue EU-Gesetzgebung rund um Künstliche Intelligenz (Data Act, AI Act) noch die Debatte um den flächendeckenden Einsatz von KI-Tools seit der weltweiten Freischaltung von ChatGPT durch eine Aktualisierung ihrer Ethikaussagen beantwortet hat, zeigt schon das Erscheinungsdatum: Die Leitlinie wurde vor sechs Jahren zuletzt verändert.

Nun muss man nicht der Meinung sein, dass Ethikkodizes überhaupt etwas anderes sind als heiße Luft. Zumal, wenn sie sehr allgemein formuliert sind, jede Art von Regelcharakter ablehnen und auch auf Durchsetzungsinstrumente oder Sanktionsverfahren verzichten, fehlen ihnen die Merkmale, die etwa das ärztliche Standesrecht hat. Angewandte Ethik wiederum bleibt vielfach eher ein Feld des Palavers, dank welchem man sich an immer neue Tabubrüche eher gewöhnt, als disruptiver Technologieentwicklung wirklich Schranken zu setzen. Ethikkodizes verraten also vielleicht einfach nur, wie diejenigen ticken, die meinen, etwas Ethisches aufschreiben zu müssen, wobei sie kritische Aspekte dessen, was sie tun, jedoch im Grunde wenig interessieren. Sagen wir es also mal so: Auch in dieser Hinsicht – bei der Produktion einer bloß pflichtschuldigen Ethik – gehen in der deutschen Informatik die Uhren langsam. Ab und an entrümpelt man Begriffe, die aus älteren, engagierteren Zeiten kommen („fordern“, sich „mit verantwortungsvollem Handeln exponieren“, „Interdisziplinarität“, „Vorbild“ etc.). Ebenso greift man neue Buzz Words auf („frei von Diskriminierung“). Immerhin jedoch ist man stolz darauf, dass man – wie alle es tun sollten – die Würde des Menschen respektiert.

  1. Alle Dokumente findet man auf dem GI-Portal; vgl. GI 2018/2024. ↩︎
  2. Tatsächlich kann die adverbiale Wortstellung Kopfzerbrechen bereiten. In einer vernetzen Welt sei es (stets?) notwendig, „Handlungsalternativen im Hinblick auf ihre absehbaren Wirkungen und möglichen Folgen interdisziplinär zu thematisieren“ (Präambel, Fassung von 2018): Meint dies, die Foren der Thematisierung sollten interdisziplinäre sein (Dialog mit Expertinnen und Experten anderer Fachlichkeit), oder ist „interdisziplinär“ eine vom disziplinär Üblichen abweichende Weise des Thematisierens, so dass man sich etwa in verständlicher Sprache – aber nicht im Dialog mit anderen Fächern – zu den fraglichen Wirkungen und Folgen verhalten soll? Die Frage ist nicht so trivial, wie sie scheint, angesichts der unlängst rund um „KI“ mehrfach zu beobachtenden Neigung von Computerwissenschaftlern und IT-Unternehmern, sich über „Manifeste“ breit öffentlich zu äußern. Manifeste scheinen mir jedenfalls kein Dialogformat zu sein, um sich auf interdisziplinären Foren den Analysen und Ansichten anderer Wissenschaften zu stellen. ↩︎
  3. Hierzu ein Dank an die Kollegen Stefan Ullrich und Nicolas Becker, die mir im Juni 2024 auf Nachfrage per E-Mail erläutert haben, dass und wie die GI-Ethikthemen gewisse „normative Aussagen“ hier und da zwar trifft, im Prinzip aber eben doch ganz auf ihren einen, traditionsreichen Kodex setzt. ↩︎
  4. Der Entstehung des Kodex hat der daran beteiligte Wolfgang Coy einen Aufsatz gewidmet, der vor allem den ausführlichen Diskussionen ein Denkmal setzt (vgl. Coy o.D.); den Hinweis auf den Text verdanke ich wiederum Ulrich und Becker. ↩︎
  5. AMC 2021; vgl. auch die Enforcement Procedures von 2024, beschrieben unter https://ethics.acm.org/enforcement/ [9.6.2024]. Zwar hoch moralisch aber weniger spezifisch hingegen der Ethikkodex der Großvereinigung I3E (IEEE 2020). ↩︎

ACM (Association of Computing Machinery) (2021): ACM Code of Ethics and Professional Conduct. https://ethics.acm.org/ [9.6.2024]

Coy, Wolfgang (o.D.): Die ethischen Leitlinien der GI – ein langer Weg (zur dritten Version). https://gewissensbits.gi.de/ein-langer-weg/ [19.7.2024]

GI (Gesellschaft für Informatik) (2024): Über uns [Webseitentext]. https://gi.de/ueber-uns [9.6.2024]

GI (Gesellschaft für Informatik) (2018/2024): Unsere ethischen Leitlinien [Webseitentext]. https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/ [9.6.2024]

IEEE (Institute of Electrical and Electronical Engineers) (2020): Code of Ethics. https://www.ieee.org/content/dam/ieee-org/ieee/web/org/about/corporate/ieee-code-of-ethics.pdf [9.6.2024] National Academies (2022): Responsible Computing Research: Ethics and Governance of Computing Research and its Applications. https://www.nationalacademies.org/our-work/responsible-computing-research-ethics-and-governance-of-computing-research-and-its-applications [9.6.2024]

Gehring, Petra (2024): Immerhin noch die Menschenrechte. Die aus der Zeit gefallene Ethik der Gesellschaft für Informatik. In: Verantwortungsblog. https://zevedi.de/immerhin-noch-die-menschenrechte-die-aus-der-zeit-gefallene-ethik-der-gesellschaft-fuer-informatik/ [26.09.2024]. https://doi.org/10.60805/p4bz-xr52

Kategorien
Akzentfarbe: grün Autor: Petra Gehring Uncategorized Verantwortungsblog

Versuch über das V-Wort

Versuch über das V-Wort

Man muss es schon zugeben: „Verantwortung“ ist zwar schnell gesagt, aber eigentlich kann niemand rasch mal angeben, was der Ausdruck wirklich meint. Auch die Philosophie tut sich mit dem Wort schwer. Zu wuchtig, irgendwie zeigefingerhaft – und eben: trotzdem kaum auf den Punkt zu bringen.

Von Petra Gehring | 15.05.2024

Ein digital anmutender Safe.
Erstellt mit Adobe Firefly. Prompt: „illustration of safe digital technology, mechanistic; grey, green, and black colors; minimalistic, cubism“

Versuchen Sie es mal. Oder suchen Sie nach einer überzeugenden Definition. Im Historischen Wörterbuch der Philosophie finden Sie die Unterscheidung einer auf Rechenschaftslegung abstellenden Form des Verantwortungsdenkens, für welches die Maßstäbe eines Gegenübers (auf die wir „antworten“ müssen) ausschlaggebend sind, von einer „ethischen“ Verantwortungsdiskussion. Letztere umfasse Aspekte wie Rollenbilder (es gibt Amts- oder berufstypische Verantwortung), die Sorge um einen Gegenstand (für den Verantwortung übernommen werden muss) sowie Verantwortlichkeiten im Großmaßstab, denn auch kollektiv kann Verantwortung entstehen (vgl. Holl u.a. 2001). Wikipedia macht es uns etwas einfacher und stellt ab auf Psychologie: Verantwortung ist die richtige Einschätzung unserer Fähigkeit, ein bestimmtes Ziel zu erreichen und uns darauf dann auch zu verpflichten – also sagen wir mal: die Fähigkeit nicht zu viel zu versprechen, eine Art planerische Kompetenz. Zudem sei Verantwortung ein „Gefühl“ (vgl. o.A. 2004).

So oder so hat der digitale Wandel die Verantwortung zum Zauberwort gemacht. Verantwortungsvoll, verantwortungsbewusst – das meint dann etwa: zentriert auf den Menschen, rechtlich abgesichert, Vermeidung unerwünschter Technikfolgen. Ethikgremien entwickeln hierzu „Prinzipien“, so nennt beispielsweise 2019 eine KI-Expertengruppe der EU „respect for Human Autonomy”, „Prevention of harm“, „Fairness”, „Explicability” und hält zuvor fest, KI habe „lawful, ethical and robust“ zu sein. Denn: „It is our individual and collective responsibility as a society to work towards ensuring that all three components help to secure Trustworthy AI” (AI-HELG 2019: 12, 5 –Hervorhebung von mir).

Auch auf Unternehmenswebseiten finden sich Bekenntnisse in Sachen Digitalverantwortung, denn „CDR“, Corporate Digital Responsibility ruft ebenfalls oft „Prinzipien“ auf. Sieben Stück sind es etwa in einem „CDR-Manifest“ von 2021, initiiert durch den (so stellt er sich vor) „Digital Transformation Influencer“ Rob Price (2021). Die Deutsche Telekom stellt auf ihrer Webseite sogar ein ganzes „Haus der Verantwortung“ vor (Deutsche Telekom 2004a). „Es ist unsere Digitale Verantwortung“, kann man dort lesen, „sich (sic!) […] an der Diskussion um Ethik zu beteiligen und die Entwicklung ethischer Rahmenbedingungen für unsere Technologien zu fördern. Unsere Werte und die bewusste Entscheidung, den Mensch in den Mittelpunkt zu stellen, geben uns die Richtung im digitalen Raum vor“ (Deutsche Telekom 2004b). Die Unternehmensberatung pwc wiederum ordnet der Verantwortung weniger die Diskussionsbeteiligung und die Förderung von Rahmenbedingungen zu, als vielmehr die Forderung, Ethik auch wirksam werden zu lassen:

„Digitale Ethik ist die strategische Ausrichtung nach dem richtigen Handeln in der Digitalisierung und Digitale Verantwortung fordert, dieses Handeln nach gesellschaftlichen, ökologischen und ökonomischen Nachhaltigkeitsanforderungen umzusetzen.“ (pwc Deutschland 2024)

Und das Beratungsunternehmen Swiss Insights, das ein digitalethisches Fairness-Label vertreibt, hält fest:

„Digitalisierung fordert von Unternehmen Wertebewusstsein und verantwortungsvolles Handeln – nur so kann die Akzeptanz der Gesellschaft für neue Technologien und Geschäftsmodelle erreicht werden.“ (Swiss Insights 2024) 

Die Reihe der Beispiele ließe sich fortsetzen. Insbesondere stellt die Rede von Verantwortung oder Verantwortungsübernahme irgendwie auch aufs Handeln ab. Von daher könnte man es glatt bei dieser Minimalbedeutung des V-Wortes lassen: Bloßes Geschehenlassen reicht nicht aus.

Bliebe „Verantwortung“ im Diskurs um Digitaltechnologie damit also kaum mehr als ein unbestimmtes Signalzeichen – wie: „Macht endlich!“ oder auch: „Bitte nicht zu krass“? Oder: „Don’t be evil“? Oder wäre der Ausdruck sogar in dieser Hinsicht leer und stünde somit lediglich für die Versicherung, derjenige, der Verantwortung beschwört, sehe zwar Gefahren, bringe aber gute Absichten mit?

Immerhin ist zumindest der Ruf nach Verantwortung kein Spaß. Nicht nur Unternehmen, sondern auch besorgte Bürgerinnen und Bürger, Medienschaffende, Wissenschaftler und auch Parlamentarierinnen setzen Hoffnungen in das Wort. Sie verbinden damit eine ähnlich dringliche Erwartung, der Digitale Wandel müsse gestaltbar sein – dürfe also nicht aus dem Ruder laufen und solle vielleicht sogar in gewissen Punkten klare Grenzen haben – wie es hinsichtlich der Biodiversitäts- und Klimakrise der Fall ist und wie es auch angesichts der Atomkraft seit Tschernobyl und Fukushima auf der Hand liegt. Fast scheint es, als könne man neuen Technologien kaum mehr etwas anderes in den Weg stellen als das V-Wort. Das nur bitte endlich mal jemand mit Macht hereinschieben soll, damit es bewirkt, was es meint. Wir sind in der Defensive – das spüren wir, wenn der Ruf nach Verantwortung erklingt.

Verantwortung werde uns „aufgezwungen“ – das ist auch die Sicht des Technikphilosophen Hans Jonas, der (noch nicht am Beispiel des Digitalen) „Furcht“ für den besseren Ratgeber hält als ein Technikvertrauen, demzufolge man das Verantwortungsproblem auf später verschieben kann. 1 Jonas macht den rigiden Vorschlag, neue Technologien müssten erst den Erweis ihrer Harmlosigkeit erbringen, bevor man sie politisch zulässt (und Neuerungen mit Restrisiko müssten zudem rückholbar bleiben). Leider schlägt auch Jonas nur Maximen vor, an die wir uns bei der Zulassung gefährlicher neuer Technologien halten sollen, hantiert aber mit dem Verantwortungsbegriff, als sei dessen Kern im Grunde klar.

Versuchen wir dennoch, digitalpolitische und digitalethische Verantwortungskonzepte zu sortieren. Recht klar lassen sich nämlich ein juristischer Zuschreibungsbegriff, demgemäß Verantwortung die Zuweisung einer rollenbedingten Zuständigkeit (mit Rechenschaftspflichten und gegebenenfalls auch Haftung) meint, von einem moralischen Selbstverpflichtungssignal unterscheiden, das gerade die Freiwilligkeit und auch das Bemühenshafte der Verantwortungsübernahme herausstellt. Im ersten Fall muss sich jemand kümmern (und auch dafür einstehen). Im zweiten Fall ist Verantwortung eine Sache der Selbstfestlegung und damit auch der guten Absicht: jemand will aus freien Stücken moralisch sein, stellt dies heraus und wirbt hinsichtlich der Glaubwürdigkeit dieses Schrittes um öffentliches Vertrauen.

In einem dritten Verständnis (und hier sind wir dann sehr dicht bei der Defensive und beim Zwang) kippt Verantwortung um und wird ein Forderungsbegriff, ein Ausdruck nämlich, der Auge-in-Auge einem potenziellen Verantwortungsträger gegenüber den Appell formuliert, jemandem – sei es den Schwächsten, sei es der Natur, sei es kommenden Generationen oder gar der Menschheit insgesamt – werde die Übernahme von Verantwortung geschuldet. Verantwortung wird in diesem dritten Fall also eingeklagt. Dabei kann entweder eine bereits bestehende Verpflichtung ins Feld geführt werden (Fall 1 – die Verantwortung existiert in unbestreitbarer Weise) oder aber die Erwartung zielt darauf ab, jemanden zum Schritt in die Verantwortung zu bewegen (Fall 2 – eine bislang noch offene Verantwortlichkeit gälte es zu übernehmen). Wer möchte, kann die erste Konstellation dem Recht zuordnen und die zweite der Moral, was allen, die Verantwortung als Forderungsbegriff nutzen wollen (Fall 3), die Machtfrage vor Augen führt: Wo Verantwortung nur „ethisch“ ist, hängt man von der Bereitschaft derjenigen ab, die man in die Pflicht nehmen will. Und auch Umfang, Dauer, Zumutbarkeit etc. von Verantwortung bleiben im Zweifel bestreitbar. Das Hauptproblem ist freilich, wo es um Verantwortung für neue Technologien geht, ein anderes. Das nämlich, dass „wir“ fast immer sowohl in der Rolle desjenigen, der Verantwortung schon hat als auch derjenigen, die sie zu übernehmen hätte, als auch in der Rolle jener sind, die Verantwortung möglichst dringlich einfordern möchten.

Anders gesagt: Nur, wo er überhaupt ein echtes, ein auf andere Weise als sich selbst zum Handeln berufenes Gegenüber findet, hat der „Ruf“ nach Verantwortung überhaupt Sinn. Die Mehrwertigkeit der Verantwortung wird zur Falle, wo Verpflichtung (Fall 1), Eigenverantwortung (Fall 2) und Inpflichtnahme (Fall 3) nicht mehr wirklich trennbar sind. Auch aus diesem Grund müssen klassische Ethiken an der Dimensionierung neuer Technologien scheitern: Die Bewältigung gesamtgesellschaftlicher Herausforderungen lassen sich umso schlechter einem Verantwortungsträger zuschreiben, je diffuser der öffentliche Diskurs die Herausforderungen eigentlich bei sich selbst zu suchen hätte und je stärker es der Konsumwillen aller ist, der die Technologieentwicklung treibt – und dies zu Lasten nicht sinnfälliger Weise der Natur (wie im Rahmen der ökologischen Frage), sondern ‚lediglich‘ zu Lasten zivilisatorischer Errungenschaften wie Bildung, Frieden oder Demokratie. Verantwortung bedarf zwar des Nachdenkens – und in der eigenen Person kann man Rollen-, Eigen- und vielleicht sogar Menschheitsverantwortung verbinden. Aber Verantwortungssemantik, die politisch etwas bewirken will, verträgt keinen Kurzschluss ihrer drei Versionen. Diese bittere Einsicht geht über Jonas hinaus, der sich noch an einen „Staatsmann“ richtet, der den Einsatz von Technik als ein „Mittel“ vor sich sieht, auf das er auch verzichten kann.2 Gebraucht werde „Macht über die Macht“ (Jonas 1979: 254) – auch das legt eher das Umsteuern eines Staatsapparates nahe als Formen der Bändigung einer Technologieentwicklung, die sich aus der Gesellschaft selbst heraus ergibt. 3

Ich schwenke zurück zum digitalethischen Feld, wo sich in der Tat das V-Wort vor allem dann bewährt, wenn es auf eine haftungsrechtliche Verantwortlichkeit abzweckt. So hat eine 2018 zunächst im Bundesministerium für Justiz und Verbraucherschutz, inzwischen beim Bundesumweltministerium und einem mit diesem kooperierenden „Institut für Verbraucherpolitik“ (vgl. ConPolicy 2024) verortete CDR-Initiative einen Kodex mit neun Prinzipien formuliert, von denen eines „Verantwortlichkeit“ heißt:

Prinzip 8: Verantwortlichkeit. Wir stellen sicher, dass die Verantwortung für die Gestaltung und den Einsatz unserer technischen Systeme in letzter Instanz bei eindeutig definierten menschlichen Verantwortungsträgern liegt.“ (Corporate Digital Responsibility Initiative 2024: 3)

Eindeutig definierte natürliche Personen – da ist Haftung nicht weit. Auch die KI-Gesetzgebung der Europäischen Union scheint den Weg einzuschlagen, einer Verantwortungsdiffusion für die Folgen der neuen Technologie durch Anmeldepflichten der Marktteilnehmer im europäischen Rechtsraum sowie durch eine hinreichend griffige Form der Herstellerhaftung entgegenwirken zu wollen. Etwas seltsam wirkt es, wenn die EU High-Level Expert Group 2019 ausdrücklich festhält, auch KI-Experten hätten sich an Recht und Gesetz zu halten:

„[I]t is the responsibility of AI practitioners to ensure that they comply with their legal obligations, both as regards horizontally applicable rules as well as domain-specific regulation.” (AI HLEG 2019: 15)

Man fragt sich: Ja was denn sonst? Immerhin aber schließt hier hinreichend deutlich ein Verantwortungsbegriff hartes Recht nicht aus, sondern ein. Auch „Accountability“, also Zurechenbarkeit konkreter Technikfolgen auf jemanden, dem man dann Verantwortlichkeit nachweisen kann, gehört zu den Anforderungen der EU4.

Ein Beispiel für eine konsequent lediglich als eine moralische Selbstbindung ausgelegte Verantwortungsübernahme liefern die 2017 formulierten, 2019 erneuerten Asilomar AI Principles des Future of Life Institute. Zu den Mitgliedern dieser Vereinigung gehören prominente Softwareentwickler und Pop-Akteure wie der auf Investitionen in transformative Technologien spezialisierte Konzernchef Elon Musk oder der technikbegeisterte Physiker Stephen Hawking. In Sachen Verantwortung springt in den Asilomar-KI-Prinzipien der neunte Leitsatz ins Auge:

9) Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications. “ (Future of Life Institute 2017a)

Die deutsche Übersetzung lautet – durch das Entfallen der Wendung von den „Stakeholders“ – nicht ganz identisch:

„9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.“ (Future of Life Institute 2017b)

In beiden Versionen der Aussage ist deutlich: Erstens geht es um Moral, genauer sogar um „moralische Folgen“ der neuen Systeme (was auch immer das genau sein mag). Und zweitens sehen sich die Produzenten der Technologie als Beteiligte, an welche lediglich als moralische „Stakeholder“ appelliert werden kann, im Deutschen sogar als Leute, die lediglich „mitbestimmen“. Eine Allein- oder Vollverantwortung anzuerkennen, sieht anders aus.

Im März 2023 veröffentlicht das Future of Life Institute den offenen Brief Pause Giant AI Experiments, in welchem ausgerechnet im fraglichen Feld auf aggressive Weise unternehmerisch tätige KI-Entwickler die Weltöffentlichkeit vor den möglicherweise verheerenden Folgen ihre Produkte warnen und nach staatlichen Regeln sowie Kontrollen rufen:

Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.“ (Future of Life Institute 2023a)

Das klingt fast ein wenig nach Hans Jonas. Obzwar der Verantwortungsbegriff nicht fällt, handelt es sich doch um eine Geste der Bereitschaft zur Verantwortlichkeit. Die Verfasser des Briefs bringen sogar den Gesetzgeber ins Spiel, den sie um eine Art Moratorium bitten. Der Duktus der Verantwortungsübernahme kann allerdings kaum darüber hinwegtäuschen, dass mit der Adressierung des Statements etwas nicht stimmt. Eine Gruppe mächtiger Lobbyisten maßt sich hier in eigener Sache an, im Namen der Menschheit zu allen Regierungen der Welt zu sprechen – und dies um ihnen Pflichten aufzuerlegen, an die sie sich gewissermaßen selbst erinnern.5 Was ebenfalls auffällt: In keiner Weise erwägen die Verfasser des offenen Briefes, ob die mit vielen Fragezeichen geschilderte gefahrvolle Entwicklung nicht heute schon bestehendes Recht bricht. Denn KI-Systeme wie das große Sprachmodell „GPT“ sind zwar nicht völlig im Geheimen entstanden. Jedoch stellt weder die augenscheinlich bedenkenlose Beschaffung von Trainingsdaten für das System noch dessen von PR begleitete weltweite Freischaltung ein Interesse an existierenden rechtlichen Regeln unter Beweis. Vielmehr hat Open AI das Produkt freigesetzt, ohne sich um existierendes Recht zu scheren.

Den Verfassern des Briefs muss man wiederum zugutehalten: Sie nutzen das V-Wort im April 2023 in einem Empfehlungspapier Policymaking in the Pause tatsächlich im Sinne der juristischen Rechenschaftslegung und Haftung:

„Key among measures to better incentivize responsible AI development is a coherent liability framework that allows those who develop and deploy these systems to be held responsible for resulting harms.“

Der Gesetzgeber habe umgehend ein „framework for the liability for AI derived Harms” zu schaffen (vgl. Future of Life Institute 2023b: 4).

Großbegriffe, deren Bedeutungsstränge sich dauerhaft verfilzen, richten Schaden an und verkommen zur leeren Hülse. Für „Ethik“ im Ganzen mag das gelten, aber auch um die „Verantwortung“ ist es nicht gut bestellt – zumal, wenn die Vermutung zutrifft, dass sich einfach auch keine rechte Adressierung mehr für die Appellfunktion des V-Worts findet. Dabei ist der dritte Gebrauchsfall ja vielleicht der politisch wichtigste der drei: der Fall des Aufrüttelns, um Verantwortung dort zu mobilisieren, wo nicht rechtlich bereits alles klar ist.

Wird das Wort also unbrauchbar? Sollte man die verwickelte Auseinandersetzung um Digitaltechnologien besser ganz ohne Rekurs auf „Verantwortung“ führen? Es gibt in der Tat eine Verantwortungskritik, die ungefähr das besagt: Der Ausdruck bemäntele mehr schlecht als recht, dass Ethik die Falschen in die Pflicht nimmt (man bürdet der Gesellschaft und konkret den Bürgerinnen und Bürgern, etwa in der Medizin, Verantwortung auf (vgl. Illich 2019: 232 f.) während sie denjenigen, denen Recht und Moral ohnehin gleichgültig ist, zusätzliche rhetorische Spielräume bietet. Und zahlungskräftige Unternehmen machen sich diese flugs zu eigen. Mittels Ethik-PR. Ein Kritiker nicht der Digital- aber der Bioethik streicht die „Verantwortung“ aufgrund solcher Inanspruchnahme mit dem folgenden Statement aus seinem Vokabular: „Die Natur, Die Humanität, Das Leben, Die Würde der Frau, Die Menschenrechte, Der Kosmos, DieVernunft, Die Wissenschaft, Die Verantwortung, Die Moral und so fort. Alles zu Markenzeichen verkommene Ideen – Markenzeichen, mit denen sich die Oberschicht der (redenden und schreibenden) Konsumenten der Macht identifiziert. Die Macht steckt eben nicht in den Markenzeichen, aber sie wird durch den Gestus des Tragens solcher Zeichen abgesichert. […] ‚Verantwortung‘ und ‚Ethik‘ sind, so wie sie heute in Gebrauch sind, Aufkleber, die über Preis und Qualität des Beklebten nur vermeintlich etwas aussagen.“ (Patze 1988: 28)

Den gegenteiligen, aber auch auf die Verzichtbarkeit des Worts zulaufenden Weg wählt die Politik, wenn sie Verantwortung einfach mit Umsicht und Klugheit gleichsetzt. Denn damit nimmt man ihr – diesseits der geschilderten drei Stoßrichtungen des Wortes – nahezu jeglichen Stachel, den Pflichtaspekt und auch den Charakter der Handlungsaufforderung. Der Bericht der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz von 2020 wählt jedoch diesen Weg. Es wird definitionsartig angesetzt, aber schon die Überschrift – „6.2.5 Verantwortung (Gutes tun, Akteure, Zusammenarbeit)“ – löst jede Kontur auf. Die angebotene Begriffsbestimmung gibt die Verantwortung einer (ohnehin) moralischen Handlung nur noch wie eine Art Zusatz bei. Als vernünftige Vorausschau auf mögliche Folgen:

„Der Begriff der Verantwortung macht darauf aufmerksam, dass es ein wichtiges Kennzeichen einer moralischen Handlung ist, die Folgen seiner eigenen Handlung abzusehen und zu bewerten und sein Handeln dann evtl. auch zu verändern. Handeln gemäß einer klugen und vernünftigen Einschätzung der Folgen des eigenen Handelns unter Hinzuziehung von moralischen Kriterien (Werten, Normen, Prinzipien, Maximen) – das kann man mora­lisch verantwortliches Handeln nennen.“ (KI Enquete-Kommission 2020: 85)

Kann man, muss man aber nicht. Denn Verantwortung reduziert sich damit auf ein der Moralität nachgeschaltetes Zusatzkalkül.

Lässt sich das V-Wort noch retten? Es verknäuelt Bedeutungen, lässt sich zu PR-Zwecken verflachen und ist nicht wirklich durch Theorietraditionen gesichert. Es gleicht eher einer Metapher oder einem Akkord mit vielen Unter- und Nebentönen. Immerhin bleibt da die eingangs beschriebene Wucht. Das Gestische. Das Moment des Eintretens für eine Norm. Wird die Rede von der „Verantwortung“ nicht nebelhaft-allgemein verwendet, sondern mit Namen, konkreten Gefahrenlagen – und idealerweise: mit Rechtsfolgen bis hin zur Haftung auch für lange Folgenketten, die Betroffene einklagen können – verbunden, erschließt sich so etwas wie ein Ebenenwechsel: Einfach nur machen und auf den Fortschritt vertrauen, reicht dann nicht mehr.

Ebenso kommt das ins Spiel, was der Soziologe Niklas Luhmann (1984: 515 f.) als den Unterschied zwischen gegenwärtiger Zukunft und künftiger Gegenwart beschreibt: Technologen verschieben das heute Widersprüchliche auf künftige Gegenwarten, weil sie hoffen, bis dahin ließen sich die Probleme, auch dank erst noch zu erfindender neuer Technologien, irgendwie schon abarbeiten. Wir schieben heute daher einen Berg wohlmöglich unlösbarer Aufgaben vor uns her. Zudem stellen wir uns eben auch nur vor, was aus einer neuen Technologie alles an zu bewältigenden Folgen hervorgehen könnte. Wirklich wissen (und wirklich zu bewältigen haben) werden es erst die Menschen von morgen. 

Von daher … bewahren wir das V-Wort. Ja: um des Ebenenwechsels willen, sprechen wir es ab und zu aus und wiederholen es nötigenfalls auch. Solange wir nichts besseres haben, kann es eines der weniger schlechten unter den schlechten Werkzeugen sein. Und wenn wir es nicht aufgeben: vielleicht entwickelt die Verantwortung doch noch klare Konturen. Wo die Gefahr wächst, wächst auch die Präzision.

  1. Jonas hebt auf die unabsehbaren – das menschliche Entscheiden überfordernden – Folgen und Fernwirkungen neuer Technologien ab. Die tägliche Sphäre sei heute „überschattet von einem wachsenden Bereich kollektiven Tuns, in dem Täter, Tat und Wirkung nicht mehr dieselben sind wie in der Nahsphäre, und der durch die Enormität seiner Kräfte der Ethik eine neue, nie zuvor erträumte Dimension der Verantwortung aufzwingt.“ (Jonas 1979: 26)  ↩︎
  2. Vgl. Jonas 1979, S. 80: „[S]elbst zur Rettung seiner Nation darf der Staatsmann kein Mittel verwenden, das die Menschheit vernichten kann.“ ↩︎
  3. Immerhin appelliert Jonas in dem Sinne an den Überlebenswillen der breiten Bevölkerung, dass er den Bürgern das Recht auf ein im Ergebnis fatales Wegsehen von Problemen abspricht: „Über das individuelle Recht zum Selbstmord läßt sich reden, über das Recht der Menschheit zum Selbstmord nicht.“ (Jonas 1979: 80) ↩︎
  4. Vgl. noch einmal das Papier der AI Ethics High-Level Expert Group, es postuliert: „mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.“ (AI HLEG: 15). ↩︎
  5. Vorbild solcher Briefe ist das von Benjamin Russell, Albert Einstein und anderen formulierte Pugwash-Manifest vom 9. Juli 1955 für eine nuklearwaffenfreie Welt, das aber eben als Brief an öffentlichen Universitäten tätiger Grundlagenforscher geschrieben wurde und nicht etwa von (mutmaßlich am Umsatz beteiligten) Personen aus Entwicklung und Management kommerziell tätiger Tech-Unternehmen. Ebenso verlangten Russell und Einstein nicht, dass man ihnen selbst ein Verbot auferlegen sollte, sondern sie forderten den Waffenverzicht von der Politik (wie auch der Wirtschaft). ↩︎

AI HLEG [= Independant High-Level Expert Group on Artificial Intelligence der EU] (2019): Ethics Guidelines for Trustworthy AI. Brüssel: EU, https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf [19.3.2024].

Deutsche Telekom (2004a): Cororate Digital Responsibility [Webseite], https://www.telekom.com/de/konzern/digitale-verantwortung/cdr [19.3.2024].

ConPolicy, Institut für Verbraucherpolitik (2024): Corporate Digital Responsibility, https://www.conpolicy.de/themen/corporate-digital-responsibility [17.3.2024].

Corporate Digital Responsibility Initiative (2024): Corporate Digital Responsibility-Kodex. Freiwillige Selbstverpflichtung mit Bericht, https://cdr-initiative.de/uploads/files/2024-01_Kodex_CDR-Initiative.pdf [19.3.2024].

Deutsche Telekom (2004b): Deutsche Telekom (2004b): Ein Blick auf unsere Handlungsfelder – Digitale Ethik. https://www.telekom.com/de/konzern/digitale-verantwortung/cdr/details/ein-blick-auf-unsere-handlungsfelder-digitale-ethik-1007518 [19.3.2024].

Future of Life Institute (2017a): Asilomar AI Principles [11.8.2017], https://futureoflife.org/open-letter/ai-principles/ [19.3.2024].

Future of Life Institute (2017b): Asilomar AI Principles [11.8.2017] https://futureoflife.org/open-letter/ai-principles-german/ [19.3.2023].

Future of Life Institute (2023a): Pause Giant AI Experiments. An open Letter [22.3.2023], https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [19.3.2024].

Future of Life Institute (2023b): Policymaking in the Pause. What can Policymakers do now to combat Risks from advanced AI Systems? [19. April 2023] https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf [17.4.2024].

Holl, Jann /Red. [Teil I] und Lenk, Hans/Maring, Matthias (2001) [Teil II]: Art. „Verantwortung“. In: Joachim Ritter/Karlfried Gründer/Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie Bd. 11. Basel: Schwabe, Sp. 566–575.

Illich, Ivan (2019): Die Substantivierung des Lebens im 19. und 20. Jahrhundert – eine Herausforderung für das 12. Jahrhundert. In: Klaus Jörk/Bernd Kaufmann/Rocque Lobo/Erica Schuchardt (Hrsg.): Was macht den Menschen krank? 18 kritische Analysen. Basel, Boston, Berlin: Birkhäuser, S. 225–234.

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt am Main: Suhrkamp 1984.

KI Enquete-Kommission (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, ökologische und soziale Potenziale. In: Deutscher Bundestag: Drucksache 19/27300 vom 28.10.2020.

Luhmann, Niklas (1984): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main 1985.

o.A. (2024): Art. „Verantwortung“. In: Wikipedia, https://de.wikipedia.org/wiki/Verantwortung [19.3.2024].

Patze, Bernd (1988): Markenzeichen der Macht. Wissenschaft, Ethik und DAS GANZE. In: Wechselwirkung 10, Nr. 87, S. 24–28.

Price, Rob (2021) The International CDR Manifesto. https://corporatedigitalresponsibility.net/cdr-manifesto [19.3.2024].

pwc Deutschland (2024): „Unser Verständnis von Digitaler Ethik & Verantwortung“ [Webseitentext], https://www.pwc.de/de/risk-regulatory/risk/so-lassen-sich-digitale-ethik-und-verantwortung-wirkungsvoll-verankern.html [19.3.2024].

Swiss Insights (2024): Label Data Fairness. https://swiss-insights.ch/label-data-fairness/ [19.3.2024].

Gehring, Petra (2024): Versuch über das V-Wort. In: Verantwortungsblog. https://zevedi.de/versuch-ueber-das-v-wort/ [15.05.2024].
https://doi.org/10.60805/0cv4-e997