Wer ein neues IT-Projekt startet, will dafür die jeweils besten Technologien (Best-of-Breed) einsetzen. Dieser Ansatz ist nachvollziehbar, kann aber dazu führen, dass sich große Mengen an Daten auf verschiedene Systeme, Anwendungen und Module mit unterschiedlichen Technologien und Zugängen verteilen. Und das erschwert den Datenzugriff sowie insbesondere eine unternehmensweit konsistente Echtzeitansicht. Vor allem die Nutzung von Cloud-Services kann Redundanzen verursachen, wenn die Cloud-Funktionen ein spezifisches Speicherformat erfordern – und aus eben diesem Grund der Datenbestand eine Duplizierung benötigt. Ob es sich dabei dann beispielsweise um Transaktionsservices, Analytics oder Maschinelles Lernen (ML) handelt – für jeden Dienst muss der Datenbestand zunächst synchronisiert werden. Die Datenduplizierung verhindert den Echtzeitblick, kostet Zeit und hat hohe Latenzen und Performance-Einbußen zur Folge.
Vor diesem Problem stand auch ein weltweit führendes US-amerikanisches Fintech-Unternehmen, das mit einem bekannten Cloud-Anbieter zusammenarbeitete. Angesichts des wachsenden Datenvolumens und der damit verbundenen Komplexität suchte das Fintech eine Lösung, mit der sich Daten effizienter verwalten und verteilen lassen. Zudem müssen für Anwendungen wie die Vermögensverwaltung Daten aus vielen verschiedenen Kontoabwicklungssystemen konsolidiert werden. Gefragt war daher eine konsistente Echtzeitansicht der Vermögenswerte und Verpflichtungen der Kunden, die die Mitarbeiter befähigt, innerhalb von Sekunden belastbare Antworten zu liefern.
Weniger Redundanzen reduzieren das Datenvolumen
Das Unternehmen entschied sich für unsere Datenplattform InterSystems IRIS®, da hier die auszuwertenden Daten über ein sogenanntes Smart Data Fabric übergreifend verfügbar gemacht werden. Dabei verbindet ein Datennetz (Data Fabric) als eine virtuelle Schicht die Datensilos in einer Single Source of Truth. Diese Integrationsebene greift bei Bedarf auf die Daten zu, wandelt sie um und harmonisiert sie, um sie für vielfältige Geschäftsanwendungen nutzbar zu machen. Dank integrierter Funktionen für prädiktive und präskriptive Echtzeitanalysen müssen Daten nicht verschoben oder dupliziert werden, um sie in Cloud-Anwendungen nutzen zu können. Das Datenvolumen lässt sich dadurch reduzieren und somit auch der Zeit- und Kostenaufwand.
Durch InterSystems IRIS und das Smart Data Fabric profitiert das Fintech-Unternehmen zudem von einer hohen Datenqualität: Das System akzeptiert grundsätzlich nur strukturierte Informationen, die speziellen Qualitätsanforderungen entsprechen. Um ihre Nachverfolgbarkeit sicherzustellen, werden sie unter anderem unter Angabe von Erstellungsdatum, Größe und Absender klassifiziert. Über spezielle Konnektoren lassen sich auch Daten, die in einem oder mehreren Data Warehouses liegen, problemlos an InterSystems IRIS anbinden.
Hohe Integrationsfähigkeit
Datenbanken, Funktionen für Datenmodellierung und Analytics sowie die Vernetzung über Adapter und Bibliotheken sind bereits in die Plattform integriert, also direkt nutzbar. Entscheidend ist, dass alle Funktionen über offene Schnittstellen und Konnektoren miteinander vernetzt sind. Denn das beschleunigt den Zugriff auf Daten und Anwendungen und reduziert Redundanzen. Im Gegensatz zur Nutzung von Lösungen unterschiedlicher Anbieter, die miteinander verbunden werden müssen, lässt sich durch InterSystems IRIS die Entwicklungszeit bis zum erfolgreichen Einsatz erheblich verkürzen. Ein weiterer Vorteil ist die Persistenz der Daten und generelle Robustheit der Datenplattform, denn die Wiederherstellung einer ausgefallenen In-Memory-Datenbank kann viel Zeit kosten.
Dank der offenen Schnittstellen lassen sich auch weitere Anwendungen anderer Hersteller an die Plattform anbinden. Ganz gleich ob es sich beispielsweise um eine bewährte Analytics-Lösung von Anbietern wie Tableau oder Qlik handelt, oder ein besonders leistungsfähiges ML-Tool – jede dieser Anwendungen kann problemlos angebunden werden. InterSystems IRIS läuft zudem sowohl in Cloud-Umgebungen verschiedener Anbieter, kann aber auch On-Premise oder in einem hybriden Modell genutzt werden. Damit reduziert sich die Gefahr eines sogenannten Vendor-Lock-Ins, der sich aus der Nutzung von einzelnen Cloud-Providern ergeben kann.
Schnellere Analysen, geringere Infrastrukturkosten
Die Smart Data Fabric-Architektur hat es dem Fintech-Unternehmen ermöglicht, eine 360-Grad-Datenstrategie umzusetzen: Die Zusammenführung und Vereinheitlichung von Daten aus verschiedenen Quellen erleichtert den Datenzugriff und beschleunigt die Analysen. Die Anwender können bei Bedarf auf Live-Daten aus verschiedenen Quellen zugreifen und somit wertvolle Erkenntnisse gewinnen – von der 360-Grad-Sicht auf Kunden bis hin zu Risikomanagement und Betrugserkennung. Gleichzeitig werden betriebliche Funktionen konsolidiert, Latenzen und Datensilos überbrückt und auf diese Weise die Infrastrukturkosten reduziert.
Das FinTech-Unternehmen ist heute in der Lage, auf das Fünffache des früheren Datenvolumens zu skalieren, täglich zwei Millionen Transaktionen zu verarbeiten und Daten von bis zu sieben Jahren zu speichern. Auch der Performance-Gewinn ist enorm: Die Leistung stieg um das Neunfache, während die Daten gerade einmal ein Drittel des bisherigen Platzes beanspruchen – ein angesichts der hohen und weiter steigenden Speicherkosten nicht zu unterschätzender Aspekt.
Lesen Sie hier die Details des geschilderten Anwendungsfalls -
Broadridge Financial Solutions.