Vor allem in der Finanzbranche ist ein zuverlässiges Datenmanagement eine entscheidende Säule für den Geschäftserfolg. Denn Finanzen sind Vertrauenssache. Die Anforderungen an das effiziente Handling sensibler Daten sind jedoch hoch und erstrecken sich über diverse Bereiche, wie zum Beispiel Compliance, Gesamtbanksteuerung, Customer Experience, Cloud oder auch Risikomanagement.
Auch im Hinblick auf ein Management Information System sind Datenverfügbarkeit und -qualität elementar für strategische Entscheidungen. Den Schlüsselfaktor für eine effiziente Datennutzung bildet die IT-Architektur im Unternehmen. Hierbei ist die Frage zu beantworten, ob Data Warehouse, Data Lake, Data Mesh oder Data Fabric die besten verfügbaren Ansätze sind oder gar eine Kombination verschiedener Architekturen Vorteile bietet.
Zuerst einmal sollte sich jedes Finanzinstitut für die Wahl der geeigneten Datenarchitektur Klarheit über seinen aktuellen Status quo verschaffen und ein Ziel vorgeben, das mithilfe eines Datenmanagement-Ansatzes realisiert werden soll. Ebenfalls von großer Bedeutung ist die Frage, ob zukünftig weiterhin Legacy-Systeme betrieben werden oder eine komplett neue IT-Umgebung eingesetzt werden soll – immer mit Blick auf die Kosten und Risiken beider Optionen. Der folgende Überblick dient als Entscheidungshilfe.
Data Lake – viel Volumen, wenig Strategie beim Datenmanagement
Als Data Lake bezeichnen IT-Experten eine Speicherumgebung, in der enorme Mengen an strukturierten, halbstrukturierten und unstrukturierten Daten gespeichert sind. Daraus können Informationen für Geschäftsanalysen, maschinelles Lernen (ML) und andere umfassende Anwendungen herangezogen zu werden.
Nachdem sie in der Vergangenheit den State of the Art bildeten, haftet ihnen inzwischen vielfach der Ruf sogenannter Data Swamps an – deutsch Datensümpfe. Der Grund: Das Fehlen einer Strategie, mit der Daten in die Architektur eingepflegt wurden, erschwerte es erheblich, verwertbare Einsichten für die Kundenakquise oder Marktanalysen zu gewinnen.
Datenmanagement mit Data Warehouse – Performance schwankend
Unter einem Data Warehouse (DWH) ist eine optimierte, zentrale Datenbank zu verstehen, die eine nahezu unbegrenzte Vielfalt von Analysen ermöglicht. Zu diesem Zweck werden Daten aus mehreren, in der Regel heterogenen Quellen durch das DWH zusammengeführt. Ein leistungsfähiges Data Warehouse ist keine Seltenheit, doch nimmt die Performance mit zunehmendem Datenvolumen ab.
Auch die für ein effizientes Datenmanagement so wichtige Fähigkeit, Daten aus allen Quellen und jeglichen Datenformats zu verarbeiten ist begrenzt – das gilt insbesondere für unstrukturierte Daten. In puncto Flexibilität und Agilität hat der Ansatz ebenfalls das Nachsehen. Ältere On-Premise-Umgebungen lassen sich gegebenenfalls für ein effizientes Datenmanagement nicht integrieren und unter Umständen droht ein Vendor-Lock-in.
Data Mesh – hohe Ressourcenbindung und Silobildung
Data Mesh bezeichnet eine dezentralisierte Datenarchitektur, innerhalb derer die Daten nach Unternehmensbereichen organisiert werden, beispielsweise Marketing, Vertrieb, Kundenservice und Asset Management. Die Verantwortlichen in den Abteilungen kennen die Domänendaten und können daher Richtlinien für die Datenverwaltung bezüglich Dokumentation, Qualität und Zugriff festlegen. Zu beachten ist jedoch, dass diese Art des Datenmanagements erhebliche Ressourcen beansprucht und der Bildung von Datensilos Vorschub leistet.
Enterprise Data Fabric – Datenmanagement in Echtzeit
Einen ganz neuen architektonischen Ansatz, der den Zugriff auf Datenbestände im gesamten Unternehmen beschleunigt und vereinfacht, bildet beim Datenmanagement das Enterprise Data Fabric. Damit lassen sich Daten vernetzen und in Echtzeit analysieren, die innerhalb des gesamten Unternehmens verstreut sind.
Unternehmen, die den Ansatz nutzen, sind in der Lage, die Anwendung ihrer bereits existierenden Applikationen und Daten fortzusetzen. Das Prinzip: Im laufenden Betrieb werden Daten on demand abgerufen, integriert, harmonisiert und ausgewertet. Ziel ist es, verschiedene Geschäftsinitiativen effektiv zu unterstützen und innerhalb kurzer Zeit wertvolle Erkenntnisse zu gewinnen, ohne dass Datenspeicher von Grund auf neu aufgebaut werden müssen.
Hohe Skalierbarkeit sorgt dafür, dass dies auch bei großen Datenmengen gelingt. Zur Automatisierung wichtiger Prozesse wie Datenintegration, Data Engineering und Governance trägt eine Datenschicht zwischen der Geschäftsapplikation und dem Datenbestand bei. Auf dieser Basis operiert das Data Fabric ressourcenschonender als der Data-Mesh-Ansatz.
Datenmanagement: Vorteile und Funktionsweise gängiger Architekturen
Als gängige Umgebung für ein effektives Datenmanagement ist der Data Lake allen anderen Architekturen untergeordnet. Er wird ähnlich wie das Data Warehouse oftmals als Zulieferer für die neueren Ansätze Data Fabric und Data Mesh genutzt. Finanzinstitute, die einen Data Lake aufgebaut und mit Daten befüllt haben, haben die Option, ein Data Fabric zwischen der Geschäftsseite und dem Data Lake zu implementieren. Das schafft die Möglichkeit, Daten und zugehörige Metadaten einfacher in geschäftlich verwertbare Informationen zu transformieren.
Ein Data Fabric punktet insbesondere mit seiner Vielseitigkeit und Flexibilität, denn mit dem Ansatz fällt es leicht, verschiedene Quellen zu integrieren und anwendungsspezifisch zu verwenden. Eine robuste Datenbasis liefert Finanzinstituten die ideale Grundlage, um künstliche Intelligenz und Machine Learning anzuwenden. Elementar ist diese auch im Tagesgeschäft.
Regulatorische Meldungen stellen hohe Anforderungen an die Konsistenz und Korrektheit von Daten. Durch den Data Fabric Ansatz lassen sich die Meldungen mittels übergreifend nutzbarer Daten einfacher und zügiger erstellen. Ein hoher Ressourceneinsatz für Themen wie Basel III, CRR oder AnaCredit gehört somit der Vergangenheit an. Ad-hoc-Anfragen der Bankenaufsicht können zudem schneller beantwortet und Compliance-Verstöße vermieden werden. Reaktionen auf Marktentwicklungen in Echtzeit lassen sich dank zeitnah bereitgestellter Risiko- und Analysedaten veranlassen. Erleichtert wird zudem die Entscheidungsfindung in Fachabteilungen, da jederzeit aktuelle Informationen zur Risikobewertung verfügbar sind. Zusätzlich wird durch ein Data Fabric der nahtlose Zugriff auf Daten mithilfe einer nutzerbezogenen Rechteverwaltung ermöglicht. Limitierter Datenzugriff ist damit ein für allemal passé.
Ein Data Fabric unterstützt Finanzinstitute dabei, die Kosten und Komplexität ihrer Datenverarbeitung zu reduzieren und wertvolle Einblicke zu generieren, die für Wettbewerbsvorteile sorgen. Hinzu kommt, dass Investitionssicherheit gewahrt bleibt, da sich vorhandene Technologien weiterhin nutzen lassen. Schlüsseleigenschaften wie Flexibilität, Skalierbarkeit und Interoperabilität stellen sicher, dass Unternehmen der Finanzbranche durch den Einsatz eines Data Fabrics zukunftsfähig und Geschäftsmodelle rentabel bleiben.