Künstliche Intelligenz

Temenos will die Blackbox der Banken-KI öffnen

Uhr

Der Genfer Bankensoftware-Anbieter Temenos erwirbt Logical Glue, Hersteller einer erklärbaren KI-Plattform. Was steckt hinter dem Konzept?

(Source: Dambo/pixabay.com)
(Source: Dambo/pixabay.com)

Der Genfer Bankensoftware-Hersteller Temenos hat die Übernahme von Logical Glue bekannt gegeben, einem in London ansässigen Anbieter einer erweiterbaren Plattform für künstliche Intelligenz. Die Transaktion hat einen Wert von 12 Millionen Pfund (rund 14,7 Millionen Franken). Die Logical Glue-Plattform wird ab sofort in die Cloud-Plattform von Temenos integriert. Die Technologie wird für eine Vielzahl von Anwendungen eingesetzt, darunter Bonitätsprüfung, Robotik-Beratung, intelligente Preisgestaltung, Produktempfehlungen oder Echtzeit-Betrugserkennung.

Die Lösung ermöglicht es zum Beispiel, Banken mithilfe der Plattform zu erklären, warum eine bestimmte Entscheidung durch KI-Bonitätsmodelle getroffen wurde. "Durch die Integration von KI und maschinellem Lernen in seine Produkte wird Temenos die Einführung von erklärbaren Modellen beschleunigen, die neue KI-Anwendungsfälle stärken, um optimale Kundenerlebnisse zu schaffen und manuelle Prozesse mit Selbstlernfunktionen zu automatisieren", sagt das in Genf ansässige Unternehmen.

KI-Modelle aus ihren Blackboxen entfernen

Das Konzept der erklärbaren KI wird immer wichtiger, es hat sogar ein eigenes Akronym: XAI (für explainable AI). Wie die von Logical Glue entwickelte Plattform ist XAI in der Lage, das Vertrauen der Öffentlichkeit und der Nutzer in künstliche Intelligenz zu stärken. XAI "beschreibt ein System, in dem die Aktionen einer KI für den Menschen leicht verständlich sind", wie Intel es definiert.

Die Systeme erklären, wie eine KI die Entscheidung getroffen oder sich für eine bestimmte Lösung entschieden hat", erklärt Patrick Darmon, Director von Accenture Applied Intelligence in Frankreich und den Benelux-Staaten. Er ergänzt, dass in regulierten Branchen wie Finanzdienstleistungen diese Erklärungsfähigkeit eine Compliance-Herausforderung ist. Ziel ist es daher, maschinelles Lernen und Deep-Learning-Systeme zu entwickeln, die nicht mehr nach dem Black-Box-Ansatz arbeiten.

Erklärte KI für die amerikanische Armee

"Die erklärbare KI ist auch wichtig, um Fehler und Abweichungen in den Daten zu erkennen, die zu falschen oder unfairen Entscheidungen führen können", so Intel. Die Fähigkeit, Entscheidungen der künstlichen Intelligenz zu erklären, entwickelt sich zu einem entscheidenden Thema, zum Beispiel im militärischen Bereich. Das weiss auch Darpa. Die US-Agentur für fortgeschrittene Rüstungsforschung hat ein Programm lanciert, um besser erklärbare Modelle für das maschinelle Lernen zu entwickeln und gleichzeitig ein hohes Mass an Lernleistung zu gewährleisten.

Ziel ist es auch, den menschlichen Nutzern zu ermöglichen, die neue Generation von "künstlich intelligenten Partnern" zu verstehen, ihnen zu vertrauen und sie effektiv zu handhaben. Zu diesem Zweck will Darpa Modelle mit Mensch-Maschine-Schnittstellen entwickeln, die KI-Modelle in verständliche und nutzbare Erklärungen für den Endverbraucher umsetzen können (siehe Abbildung unten).

(Source: Darpa)

Webcode
DPF8_145843