• Kategorien
    Autor: Philipp Mahlow und Katharina Mosene eFin-Blog Farbe: gelb

    Der Human in the Loop bei der automatisierten Kreditvergabe – Menschliche Expertise für größere Fairness

    Algorithmen bestimmen zunehmend, wer einen Kredit erhält. Menschliche Akteur:innen – Kreditnehmende ebenso wie Mitarbeitende der Kreditinstitute – bleiben jedoch zumindest punktuell Teil des Entscheidungsprozesses. Eine Studie des Humboldt-Institituts für Internet und Gesellschaft (HIIG) hat dies genauer untersucht: Wie genau laufen die Entscheidungsprozesse ab? Und wie transparent sind sie für die Beteiligten? Wo droht Diskriminierung?

    Der Human in the Loop bei der automatisierten Kreditvergabe – Menschliche Expertise für größere Fairness

    Ein Beitrag von Philipp Mahlow und Katharina Mosene

    15. April 2025

    Im digitalen Zeitalter sind automatisierte Prozesse, bei denen Entscheidungen teilweise oder ganz ohne menschliches Zutun fallen, immer mehr Usus. Sie basieren auf Algorithmen, Künstlicher Intelligenz (KI) oder regelbasierten Systemen und finden etwa im Gesundheitswesen oder in der Finanzwelt Anwendung – dort auch bei der Kreditvergabe. Die erste Fallstudie unseres Forschungsprojektes Human in the Loop? Autonomie und Automation in sozio-technischen Systemen untersucht genau diesen Bereich: Wie arbeiten bei der Kreditvergabe automatisierte Prozesse und menschliche Akteur:innen im Rahmen der Entscheidungsfindung zusammen? Wer hat die Aufsicht? Wer sichert die Qualität der Entscheidungen?

    Bei einer solchen Kreditvergabe geht es darum, Anträge effizient und fair zu  bewerten. Zunächst analysieren Algorithmen Daten wie Einkommen, Kredithistorie, bestehende Schulden und Rückzahlungsverhalten. Diese erste Prüfung übernehmen in der Regel Drittanbieter, z.B. Kreditauskunfteien. Ihre Kredit-Scores fließen in ein bankinternes Ampel-Modell ein, das das Kreditausfallsrisiko berechnet. Liegt dieses innerhalb eines vordefinierten Rahmens, folgt eine sofortige Zusage- oder Ablehnungsempfehlung. In nicht eindeutigen Fällen prüfen Risikoanalyst:innen die Finanzdaten  und treffen ggf. eine abweichende Entscheidung.

    Das Zusammenspiel von Mensch und Maschine kann mithin erhebliche Vorteile bringen. Automatisierte Systeme verarbeiten große Datenmengen schnell und konsistent, während menschliche Entscheidungen für Flexibilität sorgen und die Berücksichtigung individueller Umstände gewährleisten. Automatisierung reduziert gleichwohl emotionale oder subjektive Einflüsse, was zu einer objektiveren Kreditvergabe beitragen kann. Menschen wiederum können Fehlbewertungen korrigieren, indem sie Aspekte einbeziehen, die Algorithmen übersehen, wie plötzliche Einkommensveränderungen durch Elterngeld oder alternative Sicherheiten wie Eigentum. So wird verhindert, dass die Definition zu strikter Regeln im System zu ungerechtfertigten Ablehnungen führt. Damit das Zusammenspiel aber tatsächlich zu fairen und fundierten Entscheidungen führt, müssen die verwendeten Algorithmen kritisch hinterfragt, Verzerrungen identifiziert und menschliche Bewertungen gezielt eingesetzt werden. Nur so bleibt das System wirtschaftlich effizient und gleichzeitig sozial gerecht.

    Aus der Vogelperspektive: Ein Mann steht in der Mitte eines Spielfeldkreises, Kopf über ein Device geneigt und wirft einen langen Schatten über den Spielfeldkreis hinaus

    Die Kernfrage unseres, am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) angesiedelten Projektes Human in the Loop? Autonomie und Automation in sozio-technischen Systemen  ist daher: Wie können Mensch und Maschine sinnvoll zusammenarbeiten, sodass die Vorteile der Automatisierung genutzt werden, ohne dass dabei wichtige menschliche Kompetenzen und Werte verloren gehen? Gefördert von der Stiftung Mercator, beleuchten wir diese Thematik  anhand verschiedener Fallstudien. In diesem Blogbeitrag greifen wir zentrale Erkenntnisse aus einem Praxisbericht zur Fallstudie Kreditvergabe auf, in dem wir analysieren, wie Kreditentscheidungen – von der ersten Beratung bis zur Risikobewertung – in der Praxis gestaltet werden und welche Bedeutung menschliche Expertise und Automatisierung in diesem Umfeld hat.

    Es ist wichtig festzuhalten, dass die aktuell auf breiter Basis eingesetzten Verfahren überwiegend auf regelbasierten Systemen mit starren Wenn-Dann-Regeln beruhen. Moderne, also lernfähige KI-Lösungen kommen derzeit bei der Kreditwürdigkeitsprüfung meist hingegen noch keine zum Einsatz. Stattdessen nutzen Banken deterministische Systeme, die von menschlicher Erfahrung und Expertise ergänzt werden. Gerade in Sonderfällen, in denen automatisierte Verfahren an ihre Grenzen stoßen, bleibt der menschliche Beitrag daher unverzichtbar.

    Die Humans in the Loop: Front-Desk-Mitarbeitende und Risiko-Analyst:innen

    Die Vorstellung eines einzelnen „Human in the Loop“ – also einer einzelnen Person, die ein automatisiertes System überwacht und kontrolliert – entspricht in der Kreditvergabe nicht der Realität. Innerhalb der Bank gibt es immer mehrere Personen, die an unterschiedlichen Stellen in den Entscheidungsprozess eingebunden sind. Oft werden Ergebnisse automatisierter Systeme von ihnen nicht nur passiv kontrolliert, sondern sie greifen aktiv und gestaltend in den Entscheidungsprozess ein. Ein zentraler Befund des Projektes ist, dass die menschlichen Akteur*innen in der Kreditvergabe sehr unterschiedliche Funktionen übernehmen, Dabei lassen sich aber zwei besonders hervorheben:

    1. Front-Desk-Mitarbeitende als erste Schnittstelle

    Die erste Anlaufstelle für Kund:innen sind die Front-Desk-Mitarbeitenden, die Kreditanträge entgegennehmen und Kund:innen durch den Antragsprozess führen. Ihre Aufgaben gehen weit über die reine Datenaufnahme hinaus. Sie beraten und unterstützen Antragsteller:innen, helfen dabei, Eingabefehler zu vermeiden, und leiten im Zweifelsfall Anträge an Risiko-Analyst:innen weiter. In der Praxis erfolgt die Kreditwürdigkeitsprüfung häufig über ein Ampelsystem: Ein grünes Signal führt zu einer positiven Kreditentscheidung, ein rotes zu einer Ablehnung. Bei einem gelben Signal, also einer unklaren Empfehlung, wird der Fall an die Risiko-Analyst:innen weitergegeben. Front-Desk-Mitarbeitende verfügen dabei zwar über Einblicke in den Credit-Score und andere relevante Daten, haben aber in Fällen mit eindeutiger Datengrundlage keinen eigenen Entscheidungsspielraum. Ihre Rolle ist also vor allem beratend und koordinierend – und nur in Ausnahmefällen entscheidend, wenn es um individuelle Sonderlösungen geht.

    Ein Beispiel aus unseren Interviews verdeutlicht diesen Aspekt:

    „Das hat bei mir auch schon funktioniert: Eltern in der Elternzeit. Rückblickend hätte ich nie gedacht, dass wir eine Immobilienfinanzierung überhaupt umsetzen könnten. Doch dann traf ich auf eine Sachbearbeiterin, die meinte: ‚Das ist nachvollziehbar. Erledigen Sie das einfach manuell.‘ Solange ein menschlicher Faktor mitspielt, sind auch Entscheidungen abseits des Standards möglich.“
     

    – René Stephan, Geschäftskundenbetreuer

    2. Risiko-Analyst:innen als Expert:innen in der Bonitätsprüfung

    Insbesondere wenn das automatisierte System ein gelbes Signal ausgibt, also eine uneindeutige Empfehlung, übernehmen Risiko-Analyst:innen die Prüfung von Kreditanträgen. Sie überprüfen dann diesen Einzelfall und treffen die finale Entscheidung über die Kreditvergabe. Diese Expert:innen besitzen ein tiefes Verständnis für Finanzdaten und haben oft langjährige Erfahrung in der Bewertung von Kreditanträgen. Damit sind sie in der Lage, Abweichungen von standardisierten Bewertungen zu erkennen und gegebenenfalls manuell zu korrigieren.

    „Natürlich nutzen wir ein Ratingsystem, um die Bonität zu bewerten. Das ist regulatorisch vorgegeben. Am Ende des Tages trifft aber der Mensch die Entscheidung.“
     

    – Expert:in für Credit Risk Management

    Durch ihre Expertise tragen Risiko-Analyst:innen so maßgeblich zur Vermeidung von Fehlentscheidungen bei und gewährleisten, dass individuelle Lebensumstände, die von standardisierten Systemen nicht angemessen gewertet werden können, in die finale Entscheidung einfließen.

    Einflussfaktoren auf die menschliche Entscheidungsfindung

    Sowohl Front-Desk-Mitarbeitende als auch Risiko-Analyst:innen treffen ihre Entscheidungen aber nicht im luftleeren Raum. Ihre Einschätzungen werden von einer Vielzahl an Faktoren geprägt – von wirtschaftlichen Rahmenbedingungen über interne Vorgaben der Kreditinstitute bis hin zu individuellen Erfahrungen und Einschätzungen. Wir haben diese Faktoren, die die Entscheidungsqualität beeinflussen, insbesondere aus diversen Stakeholderinterviews geschlussfolgert. Sie lassen sich in drei Dimensionen einteilen:

    Grafik "Einflussfaktoren im Kredivergabesystem"

    1. Externe Einflussfaktoren

    Zu den externen Faktoren zählen diverse gesellschaftliche, wirtschaftliche und rechtliche Rahmenbedingungen. Der Fachkräftemangel, die ökonomischen Ziele der Banken und gesetzliche Vorgaben wie das Allgemeine Gleichbehandlungsgesetz (AGG) beeinflussen den Entscheidungsprozess und mithin Umfang, Transparenz, Fairness und Qualität der Entscheidung und des Prozesses.Auch die Datenqualität, also die Vollständigkeit und Nachvollziehbarkeit der Datensätze, mit denen automatisierte Systeme trainiert und die von externen Auskunfteien wie der Schufa bereitgestellt werden, spielen eine entscheidende Rolle.

    2. Einflussfaktoren auf der Ebene der Akteur:innen

    Mehrere Faktoren beeinflussen auch auf Ebene der handelnden Personen die Qualität der Kreditentscheidungen: ihr Rollen- und Berufsverständnis, der persönliche Kontakt und der verfügbare Entscheidungsspielraum. Vorurteile gegenüber spezifischen Lebensumständen oder subjektive Einschätzungen einzelner Mitarbeitender können die objektive Bewertung beeinträchtigen. Zugleich betonen Expert:innen, dass bei Kreditvergaben die menschliche Fähigkeit, Sonderfälle und individuelle Lebenssituationen zu erfassen, einen großen Mehrwert darstellt.

    3. Technische Einflussfaktoren

    Auch die verfügbare Technik prägt, wie Menschen Entscheidungen fällen. Maßgeblich sind dabei die Datenbasis, die Transparenz und Nachvollziehbarkeit des Systems und das Interface-Design, also die Gestaltung von Benutzeroberflächen und die Frage, ob sie eine intuitive, effiziente und ästhetisch ansprechende Interaktion zwischen Mensch und Maschine ermöglichen. Ein schlecht gestaltetes Interface kann etwa dazu führen, dass Nutzer:innen wichtige Informationen übersehen oder falsch einpflegen. Ebenso essenziell ist die Transparenz der Algorithmen – damit Mitarbeitende verstehen, wie und warum das System zu einer bestimmten Empfehlung kommt und diese gegebenenfalls hinterfragen können. Hinzu kommt, welche Fehlerkultur ein Unternehmen im Umgang mit automatisierten Prozessen pflegt.

    Herausforderungen im Zusammenspiel von Mensch und Maschine

    Wie lässt sich nun aber sicherstellen, dass automatisierte Prozesse tatsächlich fair und nachvollziehbar bleiben? Wo entstehen Risiken, und welche Maßnahmen sind notwendig, um sie zu minimieren? Unsere Analyse im Praxisbericht offenbart mehrere Herausforderungen, die es zu adressieren gilt:

    Kommunikationsprobleme & fehlendes Gesamtprozesswissen

    Eine der zentralen Herausforderungen liegt darin, dass weder einzelne Akteure noch Institutionen den gesamten automatisierten Entscheidungsprozess vollständig überblicken. Das unzureichende Verständnis der Systemarchitektur – also, wie Entscheidungen im Einzelfall entstehen, welche Algorithmen zum Einsatz kommen und wie die Daten fließen – führt dazu, dass wichtige Zusammenhänge schwer zu erkennen sind. Dies wird insbesondere dann problematisch, wenn menschliche Eingriffe notwendig wären, um Sonderfälle zu korrigieren.

    Transparenzdefizite

    Ein weiterer Kritikpunkt ist die mangelnde Transparenz – sowohl bei den Kreditinstituten als auch bei Wirtschaftsauskunfteien wie der Schufa oder der Creditreform. Verbraucher:innen erfahren oft kaum, warum eine Kreditentscheidung gefällt wurde. Das erschwert es ihnen, ihre eigene Bonität realistisch einzuschätzen und notwendige Anpassungen vorzunehmen. Gleichzeitig haben auch die Mitarbeitenden häufig nicht genügend Informationen zur Funktionsweise des automatisierten Systems, was Unsicherheiten und potenzielle Fehlbewertungen begünstigt.

    Diskriminierung und Biases

    Auch das Thema Diskriminierung spielt im Kontext der Kreditvergabe eine wichtige Rolle. Die aktuellen Gesetze, etwa das Allgemeine Gleichbehandlungsgesetz, schützen Verbraucher:innen nicht ausreichend vor ungerechter Benachteiligung. Es fehlen zudem wirksame Mechanismen, um Diskriminierungsvorwürfe effektiv vor Gericht zu prüfen. Dabei klafft eine Lücke zwischen der theoretischen Neutralität von Algorithmen und der Praxis, in der sie, ihr Bau und ihre Funktionsweise von menschlichen Vorurteilen und Erfahrungswerten beeinflusst sind.

    Unsicherheit im Umgang mit Automatisierungstechnologien

    Viele der involvierten Mitarbeitenden verfügen nicht über ein ausreichendes technisches Verständnis der eingesetzten Systeme. In unseren Interviews zeigte sich, dass einigen Mitarbeitenden unklar ist, ob im Rahmen der Kreditvergabe regelbasierte Systeme oder KI-basierte Anwendungen verwendet werden – und welche Begrenzungen diese Systeme jeweils haben. Dieses fehlende technische Know-how birgt die Gefahr, dass Empfehlungen des Systems unkritisch übernommen oder – im umgekehrten Fall – zu stark hinterfragt werden.

    Handlungsanregungen für eine verbesserte Kreditvergabe

    Auf Basis dieser Erkenntnisse formulieren wir im Praxisbericht konkrete Anregungen, wie die Rolle des „Human in the Loop“ gestärkt und der gesamte Entscheidungsprozess verbessert werden kann:

    1. Erweiterung des Allgemeinen Gleichbehandlungsgesetzes (AGG)

    Um Diskriminierung im Kreditvergabesektor effektiver zu bekämpfen, sollte der gesetzliche Rahmen erweitert werden. Würde das AGG auf Verbraucherkredite ausgeweitet, könnten betroffene Personen leichter gerichtlich gegen ungerechtfertigte Ablehnungen vorgehen, etwa durch eine Beweislastumkehr und verstärkte Unterstützung durch Antidiskriminierungsverbände. Dadurch würden Banken stärker motiviert, diskriminierungssensible Prozesse zu implementieren.

    2. Erhöhung der Transparenz

    Mehr Transparenz seitens der Kreditinstitute und der Auskunfteien wäre hilfreich. Verbraucher:innen sollten in leicht verständlicher Sprache über die entscheidungsrelevanten Faktoren informiert werden. Ab 2026 dürfte das aufgrund der Überarbeitung der Europäischen Verbraucherkrediterichtlinie auch rechtlich verpflichtend sein. Zudem könnten Banken die interne Kommunikation verbessern, damit alle Beteiligten – von der Beratung am Schalter bis zur Risikoanalyse – die Entscheidungslogiken aber auch Grenzen des Systems klar verstehen.

    3. Verbesserung der Finanzbildung

    Neben institutionellen Maßnahmen spielt auch die individuelle Aufklärung der Verbraucher:innen eine wichtige Rolle. Zielgerichtete Bildungsangebote können helfen, dass Antragsteller:innen ihre Kreditwürdigkeit realistischer einschätzen und ihre Finanzdaten korrekt in den Antragsprozess einbringen. Interaktive Erklärformate oder gezielte Schulungen bieten sich an, um den Umgang mit Kreditentscheidungen verständlich und alltagstauglich zu vermitteln

    4. Fort- und Weiterbildung für Mitarbeitende

    Um die Effektivität der menschlichen Beteiligung zu steigern, sollten insbesondere Front-Desk-Mitarbeitende und Risiko-Analyst:innen regelmäßig in technischen und prozessualen Fragen geschult werden. Dabei gilt es, nicht nur das technische Verständnis der eingesetzten Systeme zu vermitteln, sondern auch die Fähigkeit, deren Limitationen kritisch zu hinterfragen.

    5. Benutzerfreundliche Gestaltung der Antragsprozesse

    Die zunehmende Automatisierung auch der Antragsstellung darf nicht dazu führen, dass entsprechende Kompetenzen der Verbraucher:innen zusehends für Erfolg oder Misserfolg ihres Antrags notwendig und diese zu ihrer Verantwortung werden. Intuitive, barrierearme Antrags-Interfaces und die Verfügbarkeit persönlicher Ansprechpartner:innen sind wichtige Bausteine, um sicherzustellen, dass auch Menschen ohne tiefgehende technische Kenntnisse einen erfolgreichen Kreditantrag stellen können. Beides würde im Zusammenspiel sicherstellen, dass individuelle Lebensumstände adäquat erfasst werden und Sonderfälle nicht durch starre, automatisierte Prozesse  durchs Raster fallen

    Ausblick: Menschliche Expertise als Garantie für faire Entscheidungen

    Die Automatisierung in der Kreditvergabe kann Prozesse beschleunigen und Fehlerquellen reduzieren. Doch gerade in einem sensiblen Bereich, der direkte Auswirkungen auf das Leben der Menschen hat, bleibt menschliche Expertise unverzichtbar. Unsere Fallstudie zeigt deutlich: nur die Kombination aus menschlichem Urteilsvermögen und automatisierter Datenverarbeitung schafft echten Mehrwert – vorausgesetzt, man versteht die jeweiligen Einflussfaktoren und steuert diese gezielt

    Zwar sind regelbasierte automatisierte Systeme mittlerweile Standard, aber der Mensch bleibt ein unverzichtbarer Teil des Entscheidungsprozesses. Fachwissen und Erfahrung von Mitarbeitenden ergänzen, was Algorithmen nicht leisten können. Gerade in Sonderfällen machen diese schwer quantifizierbaren Informationen und der menschliche Faktor den Unterschied zwischen mechanischer und verantwortungsvoller Entscheidung.

    Gleichzeitig offenbart unsere Untersuchung aber auch deutliche Herausforderungen: Es mangelt häufig an einem umfassenden Verständnis der Prozesse und an Transparenz – sowohl gegenüber den Kund:innen als auch innerhalb der Banken. Fehlende Kommunikationswege und unzureichende technische Kenntnisse können dazu führen, dass automatisierte Empfehlungen falsch interpretiert oder umgesetzt werden. Zudem bergen Diskriminierung und Biases Risiken, die bei zunehmender Automatisierung dingend adressiert werden müssen.

    Automatisierung darf kein Selbstzweck sein, sondern muss als Werkzeug verstanden werden, das – richtig eingesetzt – die menschliche Urteilskraft ergänzt und stärkt. Nur so können Banken und Kreditinstitute auch in Zukunft eine verantwortungsvolle und diskriminierungsfreie Kreditvergabe gewährleisten.

    Zum kompletten Bericht: Züger, T., Mahlow, P., Mosene, K., & Pothmann, D. (2025),  Praxisbericht: Human in the Loop im Feld der Kreditvergabe [Praxisbericht für den Sektor Finanzdienstleistung], Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG).

    Weitergehende Informationen zum HIIG-Forschungsprojekt Human in the Loop? Autonomie und Automation in sozio-technischen Systemen

    Zurück zur Startseite des Blogs

    Zum Diskursprojekt Demokratiefragen des digitalisierten Finanzsektors


    Portraitfoto Philipp Mahlow

    Philipp Mahlow ist wissenschaftlicher Mitarbeiter im Forschungsprojekt Human in the Loop? am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). Bereits während seines Studiums der Rechtswissenschaften an der Universität zu Köln spezialisierte er sich auf die Innovationsregulierung, insbesondere im Hinblick auf künstlich intelligente Systeme. Aktuell promoviert er an der Universität Innsbruck zu Voraussetzungen an die Erklärbarkeit von KI-Systemen. Zudem referiert er über verschiedene Auswirkungen der Europäischen KI-Regulierung.

    Portraitfoto Katharina Mosene

    Katharina Mosene ist Co-Projektkoordinatorin und wissenschaftliche Mitarbeiterin des Forschungsprojekts Human in the Loop am HIIG. Als Politikwissenschaftlerin setzt sich Katharina Mosene dafür ein, intersektionale feministische Ansätze im Bereich der Internet Governance zu integrieren. Ihr Fokus liegt auf der Identifizierung von tradierten Vorurteilen (Biases) im Bereich der Künstlichen Intelligenz sowie auf ethischen Fragen beim Einsatz von Algorithmen in Wirtschaft und Gesellschaft.

    Am Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut ist sie zudem für strategische Forschungs- und Veranstaltungs-Kooperationen zuständig, außerdem ist sie Gleichstellungsbeauftragte des Instituts. Neben ihrem freiberuflichen Engagement im Bereich Cyber Security, Digitale Bildung und kritische Medienbildung ist sie Gründungsmitglied von netzforma* e.V. – Verein für feministische Netzpolitik.

  • ÜBER DEN BLOG
    Im Diskursprojekt eFin & Demokratie» beobachten und diskutieren wir den digitalen Wandel in Sachen „Geld“. Das Finanz- und Staatswesen wird davon ebenso erfasst wie unser aller Alltag und Miteinander. Unser Blog versucht, die Umwälzungen zu verstehen und die Debatte zu fördern - auch als Teil unserer Demokratie. Es schreiben Mitarbeiter:innen des Projekts und Gäste in freier und diverser Form darüber, was sie lernen und erforschen, was sie beunruhigt und was sie fasziniert. Wir freuen uns über Kommentare unter efin@zevedi.de.