Finanzindustrie muss das Problem geschlechtsspezifischer Voreingenommenheit in Algorithmen angehen

  • Finastra veröffentlicht Fünf-Punkte-Plan zur Beseitigung algorithmischer Voreingenommenheit bei der Kreditvergabe an Verbraucher
  • Neuer KPMG-Bericht, der von Finastra in Auftrag gegeben wurde, untersucht den globalen Markt für Verbraucherkredite und die Auswirkungen von algorithmischen Vorurteilen in der Gesellschaft
  • Finastra fordert die Finanzindustrie auf, das Problem anzugehen und gemeinsam eine Lösung zu entwickeln

London, 4. März 2021 – Finastra, eines der weltweit größten Fintechs, fordert die globale Finanzindustrie auf, gegen algorithmische Voreingenommenheit vorzugehen, von denen wahrscheinlich täglich Millionen von Menschen betroffen sind. Das Fintech, das Finanzinstitutionen aller Größenordnungen, darunter 90 der 100 größten Banken der Welt, mit wichtiger Technologie versorgt, beauftragte kürzlich das Beratungsunternehmen KPMG, das Thema in den Bereichen Bankwesen, Kreditvergabe und Versicherung zu untersuchen und zu prüfen, welche Auswirkungen Kreditentscheidungen auf bestimmte Menschen und Gruppen haben, die mithilfe fortschrittlicher Technologien getroffen wurden. Als Reaktion auf die Ergebnisse hat Finastra einen Fünf-Punkte-Plan veröffentlicht, um algorithmische Voreingenommenheit zu identifizieren und zu beseitigen. Das Fintech möchte die Finanzindustrie damit auffordern, gemeinsam Maßnahmen zu ergreifen, um sich für mehr Gerechtigkeit in der Gesellschaft einzusetzen.

 

In den letzten zehn Jahren wurde die Finanzwelt durch die Einführung von künstlicher Intelligenz (KI), insbesondere dem maschinellen Lernen, zunehmend digitalisiert. Effizienzen wurden gesteigert und Prozesse automatisiert. Die Pandemie hat den Einsatz der neuen Technologien noch beschleunigt. Und obwohl dies klare Vorteile mit sich bringt, können die Algorithmen, auf denen die neuen Technologien beruhen, nur so „fair“ und unvoreingenommen funktionieren wie die Datensätze, die zu ihrer Erstellung verwendet werden. Die Industrie muss prüfen, ob die in der Gesellschaft bestehenden Vorurteile durch das Konzept und den Einsatz der neuen Technologien wiederholt werden.

Um das Problem besser zu verstehen, beauftragte Finastra KPMG mit der Erstellung eines Berichts, der die Marktgröße für Verbraucherkredite und die möglichen Auswirkungen algorithmischer Voreingenommenheit untersucht. Im Jahr 2020 betrug das Volumen der beantragten Verbraucherkredite und -transaktionen (Kreditkarten, andere Verbraucherkredite und Hypotheken-/Hauskredite) über:

  • 110 Mrd. $ in den USA
  • 270 Mrd. HK$ in Hongkong
  • 440 Mrd. £ im Vereinigten Königreich
  • 280 Mrd. € in Frankreich
  • 110 Mrd. SG$ in Singapur

Sowohl die Bereitstellung als auch die Kosten dieser Kredite für die Verbraucher, z. B. die erhobenen Zinssätze, werden in vielen Fällen von den verwendeten Algorithmen bestimmt.

„Wenn die Finanzindustrie es sich nicht zur Priorität macht, das Problem von Vorurteilen in Algorithmen zu lösen, wird KI zu einem Katalysator, der zu zunehmend negativen Auswirkungen dieser Benachteiligungen auf das Leben der Menschen führt. Finastra hat nicht alle Antworten, aber wir glauben, dass die Branche zunächst erkennen muss, dass es ein Problem mit algorithmisch bedingten Benachteiligungen gibt – nur dann können wir gemeinsam an einer Lösung arbeiten. Wir werden mit unseren Partnern und unserem Ökosystem zusammenarbeiten, um den notwendigen Wandel in der Branche voranzutreiben – gemeinsam können wir die Finanzbranche neu definieren und für alle zugänglich machen. Das Ziel von Finastra ist es, sicherzustellen, dass Finanztechnologie in jeder Hinsicht fair ist, indem sie bei der Kreditvergabe gleiche Voraussetzungen schafft“, erklärt Simon Paris, CEO von Finastra.

Dr. Leanne Allen, Director bei KPMG Financial Services Tech Consulting, erklärt: „Das Vertrauen der Verbraucher und der Öffentlichkeit ist ein kritischer Erfolgsfaktor für Finanzdienstleistungen. Die Ergebnisse unseres Berichts für Finastra machen deutlich, dass Anbieter bei der Entwicklung, Erstellung und Implementierung von Algorithmen sorgfältig vorgehen müssen. Innovation sollte auch ethisch vertretbar sein. Der Bericht fasst aktuelle Erkenntnisse zu algorithmischen Vorurteilen zusammen und zeigt zudem die Auswirkungen von voreingenommenen Entscheidungen auf. In unserer digitalen und datengesteuerten Welt ist es von entscheidender Bedeutung, Vorurteile zu vermeiden. Wenn wir dies nicht tun, besteht die Gefahr, dass wir Verbrauchern, die auf bestimmte Dienste angewiesen sind, ernsthaften finanziellen Schaden zufügen.“

Finastra will dieses Problem angehen und hat mit KPMG einen Fünf-Punkte-Plan entwickelt, der dazu beitragen soll, die Finanzwelt neu zu definieren.

1.) Aktualisierung von Finastras Entwicklervereinbarung: Finastra hat seine Entwicklerbedingungen für FusionFabric.cloud, seine offene Plattform und Marktplatz für Entwickler, aktualisiert. Von Entwicklern und Partnern wird erwartet, dass sie algorithmische Vorurteile berücksichtigen. Finastra behält es sich vor, jede neue Anwendung auf algorithmische Benachteiligung zu überprüfen.

2.) Schaffung neuer Proof-of-Concept-Technologien: FinEqual hat ein digitales Tool, das eine vorurteilsfreie Kreditvergabe ermöglicht, entwickelt, um Nutzern eine Technologie an die Hand zu geben, mit der sie algorithmisch bedingte Benachteiligung in ihren Unternehmen beseitigen können. Finastra befindet sich derzeit im Proof-of-Concept-Stadium und will die Lösungen von FinEqual in den nächsten 18 Monaten für Kunden verfügbar machen.

3.) Hacking for good: Finastra verpflichtet sich, dass alle zukünftigen Hacks einen Fokus auf Inklusion haben. Um dies zu unterstützen, wird Finastra einen globalen Hacking-Wettbewerb als Teil seiner „Hack to the Future“-Reihe starten, um weibliche Talente in der Branche ins Rampenlicht zu rücken, indem ausgewogene, von Frauen geführte Teams gefunden und ausgezeichnet werden, die die Grenzen von KI und maschinellem Lernen ausloten.

4.) Gleichberechtigung am Arbeitsplatz: Innerhalb der Organisation setzt Finastra sein Vorhaben auf ein Verhältnis von 50:50 zwischen Männern und Frauen zu kommen, fort. Dies beinhaltet die Erhöhung des Frauenanteils unter den Top-200-Führungskräften und Ingenieuren von 30% auf 40% bis 2025 und auf 50% bis 2030.

5.) Zusammenarbeit mit Regulierungsbehörden: Finastra hat sich verpflichtet, KI-Voreingenommenheit zu beseitigen. Das Unternehmen arbeitet eng mit Aufsichtsbehörden in mehreren Märkten zusammen und fordert als Technologieführer die Finanzdienstleistungsbranche auf, die Auswirkungen von algorithmisch bedingter Benachteiligung zur Kenntnis zu nehmen.

Der vollständige Bericht von KPMG kann auf Anfrage direkt zugeschickt werden oder ist auf der Finastra-Website zu finden.

Beteiligen Sie sich an der Konversation im Vorfeld des Internationalen Frauentags mit #OpenByDefault #ChooseToChallenge.

#OpenByDefault – Finastra arbeitet daran, eine Zukunft zu schaffen, in der Finanzen für alle offen sind. Beginnend mit dem Internationalen Frauentag wird sich die „Open By Default“-Bewegung in den von Finastra organisierten Veranstaltungen, Markeninhalten und Marketingstrategien widerspiegeln.