Eine internationale Studie unter Entscheidungsträgern in der Vermögensverwaltung zeigt, dass ein effizientes Datenmanagement und ein ganzheitlicher Blick auf alle vorhandenen Daten unerlässlich sind, um steigenden Anforderungen im Hinblick auf regulatorische Vorgaben, gesetzliche Neuerungen und Kundenerwartungen gerecht zu werden.
Noch nie wurden Finanzdienstleister so genau unter die Lupe genommen wie heute. Die Aufsichtsbehörden achten auf immer mehr Aspekte der Geschäftstätigkeit – von systemischen Risiken bis hin zu Greenwashing. Neben den zahlreichen Änderungen der Europäischen Finanzmarktrichtlinie (Markets in Financial Instruments Directive, MiFID) beschäftigen sich die Behörden verstärkt mit den Risiken, die von der Buy-Side für die Marktstabilität ausgehen. Die Geschäfte von Hedgefonds werden penibler geprüft, und Asset Manager müssen häufiger Berichte über alle Bereiche hinweg liefern – von der Liquidität bis hin zu Derivatpositionen. Auch das Thema ESG (Environmental, Social, Governance) gewinnt zunehmend an Bedeutung. Im Sinne der Governance müssen Fonds heute Merkmale einer grünen oder nachhaltigen Anlage aufweisen.
Aber nicht nur von Seiten der Aufsichtsbehörden steigt der Druck auf Vermögensverwalter. Auch die Kunden fordern zunehmend ein differenziertes, aktives Management anstelle passiver Anlagemöglichkeiten. Was für den Asset Manager zwar lukrativer sein kann, aber auch zeitaufwändiger ist. Hinzu kommt ein sich verschärfendes Wettbewerbsumfeld durch innovative FinTechs, inflationsbedingt sinkende Liquidität der Kunden oder auch steigende Kosten durch beispielsweise Gehälter. Dies erhöht den Druck auf die Fonds-Performance und macht eine Senkung der Gesamtkosten erforderlich.
Genaue, zuverlässige Daten – die zentrale Herausforderung
Vor diesem Hintergrund müssen Vermögensverwalter heute in der Lage sein, bestehende Risiken im Kunden-, Markt- sowie regulatorischen Umfeld aktiv und zeitnah zu bewerten. Zu diesem Zweck benötigen sie Daten aus allen relevanten Geschäftsbereichen sowie externe Informationen wie Marktdaten und Indizes, die akkurat, zuverlässig und möglichst granular sind.
Viele Finanzdienstleister haben diese Notwendigkeit erkannt. Das belegt eine internationale Studie, die InterSystems mit Vitreous World durchgeführt hat. Befragt wurden Entscheidungsträger im Asset Management bei unabhängigen und staatlichen Vermögensverwaltern sowie bei Hedgefonds. Ebenso wurden Führungskräfte im Bereich Vermögensverwaltung bei Geschäfts- und Investmentbanken sowie Versicherern befragt. Demnach haben es sich 44 Prozent der Befragten zum Ziel gesetzt, ihr Datenmanagement zu verbessern, um die Fehlerquote zu reduzieren. 41 Prozent wollen schneller auf Anfragen von Business-Stakeholdern reagieren können. Und 37 Prozent wünschen sich genauere Daten als Basis für ihre Anlageentscheidungen. Die Betrachtung der Studienergebnisse aus der DACH-Region zeigt, dass hier hingegen die Verbesserung des Risikomanagements die größte Motivation (45 Prozent der Nennungen) für eine Optimierung des Datenmanagements darstellt. Als zweithäufigsten Grund nannten die hiesigen Unternehmen die Beschleunigung von Reaktionen auf geschäftliche Anfragen seitens des Front Offices (44 Prozent), um bessere Investmententscheidungen zu tätigen. Ein gleich hoher Stellenwert wird auch in der DACH-Region dem Beseitigen von Fehlern zuteil.
Die Zielsetzung, für eine korrekte und verlässliche Datenbasis zu sorgen, wird jedoch in vielen Fällen durch Herausforderungen erschwert. Auf globaler Ebene bezeichnete mehr als die Hälfte der Befragten (54 Prozent) die Reduzierung der Fehlerquote als größte Herausforderung im Datenmanagement. An zweiter Stelle steht die Verbesserung der Reaktionsgeschwindigkeit auf Anfragen der Aufsichtsbehörden (44 Prozent der Nennungen) und an dritter die Verbesserung des Risikomanagements (39 Prozent).
Ein effizientes Datenmanagement erfordert Echtzeitdaten
Wichtig ist aber nicht nur, dass die genutzten Daten genau und korrekt sind. Um aussagekräftige Berichte erstellen und fundierte Geschäftsentscheidungen treffen zu können, sollte die verwendete Datenbasis auch möglichst aktuell sein. Und gerade hier besteht noch erheblicher Nachholbedarf: Lediglich drei Prozent der Befragten verwenden für ihre Berichte Daten, die im Durchschnitt weniger als fünf Stunden alt sind. Bei 35 Prozent sind die genutzten Informationen dagegen bis zu 24 Stunden alt. Auf tatsächlich aktuelle Daten (bis zu eine Stunde alt) können sich nur zwei Prozent der Firmen in ihrem Tagesgeschäft stützen.
Etwas besser sieht es mit Blick auf Geschäftsentscheidungen aus: In 18 Prozent der Unternehmen liegt das Alter der hierfür verwendeten Informationen unter einer Stunde, bei 16 Prozent bei bis zu fünf Stunden. Ein Fünftel der Befragten zieht für Business-Entscheidungen Daten heran, die durchschnittlich bis zu 24 Stunden alt sind. Am höchsten ist die Datenlatenz bei großen Asset Management-Firmen: Von den Unternehmen mit einem AUM (Assets Under Management) von 250 bis 500 Milliarden Dollar verwenden nur zehn Prozent aktuelle Daten für Geschäftsentscheidungen. Und 33 Prozent nutzen Informationen, die bis zu 24 Stunden alt sind.
Datensilos erschweren die Datenverwaltung
Um Geschäfts- und Investitionsentscheidungen zu treffen und Berichte zu erstellen, greifen Vermögensverwalter auf eine Vielzahl interner und externer Datenquellen zu. Laut Studie nutzt im globalen Schnitt mehr als die Hälfte der Befragten (54 Prozent) 20 bis 29 Datenquellen. Das gilt für Unternehmen aller Größen, darunter auch kleine Vermögensverwalter (30 bis 50 Milliarden Dollar AUM), die nur über begrenzte personelle Ressourcen verfügen.
Umso wichtiger ist es, dass sich die Unternehmensdaten – einschließlich der Daten aus Anwendungen im Front-, Middle- und Back-Office, Informationen von Drittanbietern sowie öffentlich verfügbaren Daten – konsistent und zeitnah in einer Quelle zusammenführen lassen. Häufig sind die Informationen jedoch über mehrere unverbundene Datenquellen – sogenannte Datensilos – verteilt, was ihre effiziente Nutzung erschwert. Zudem besteht die Gefahr, dass mehrere und damit möglicherweise inkonsistente Versionen der jeweiligen Daten existieren.
Vor allem durch die zahlreichen Fusionen und Übernahmen der letzten Jahre sind neue Datensilos entstanden. 2021 erreichten die M&A-Aktivitäten (Mergers and Acquisitions) im Asset Management mit 397 Transaktionen und einem verwalteten Gesamtvermögen von 3,35 Billionen US-Dollar ein Zehnjahreshoch. Darüber hinaus stehen Vermögensverwalter unter dem steigenden Druck, in neue Anlageklassen zu diversifizieren. Dieser Wechsel – etwa von Aktien zu festverzinslichen Wertpapieren – ist oft mit neuen Prozessen verbunden und führt dadurch ebenfalls zu mehr Daten, die in unterschiedlichen Quellen vorgehalten werden. Zudem verfügen die meisten herkömmlichen Front-to-Back-Systeme für das Asset Management nicht über alle erforderlichen Funktionen für die neuen Anlageklassen.
Daten aus unterschiedlichen Quellen effizient zu verwalten, gilt derzeit als größte Herausforderung bei der Datennutzung, wie die Studie belegt. Demnach bereitet 63 Prozent der Unternehmen beim Risikomanagement vor allem die Konsolidierung verteilter und heterogener Daten Kopfzerbrechen. Als weitere Herausforderungen gelten die Verwaltung des wachsenden Datenvolumens (51 Prozent der Nennungen) sowie die Integration aktueller Daten (47 Prozent).
In Bezug auf die Kundenbetreuung – einschließlich einer 360-Grad-Sicht auf jeden einzelnen Kunden – gilt die Konsolidierung unterschiedlicher Daten ebenfalls als größte Herausforderung (46 Prozent der Nennungen). An zweiter Stelle stehen das Echtzeitdaten-Management und die Verwaltung der Datenmenge (jeweils 44 Prozent der Nennungen). Bei der Einhaltung der Compliance-Vorgaben fällt es vor allem schwer, die Beschaffung von konsistenten Metadaten und die Semantik sicherzustellen (56 Prozent der Nennungen). Als sehr herausfordernd gelten auch die Datenabgrenzung und Dokumentation des Datenmanagement-Prozesses (50 Prozent der Nennungen) sowie die Reduktion von Fehlern und manuellen Abläufen (42 Prozent).
Hoher Personaleinsatz in der Datenverarbeitung
Hinzu kommt die Problematik, dass die Data Scientists der Finanzdienstleister einen viel zu großen Teil ihrer kostbaren Zeit mit Datenbereinigungsaufgaben verbringen, die nicht wertschöpfend und mit viel Aufwand verbunden sind. Das Erfassen von Daten aus verschiedenen internen Systemen, das Aggregieren dieser Daten sowie das Prüfen ihrer Zweckmäßigkeit dauert oft Wochen oder gar Monate.
Entsprechend viel Personal wird benötigt, um die Daten so zu verarbeiten, dass sie den Anforderungen der Business-Stakeholder gerecht werden: 66 Prozent der Führungskräfte gaben an, dass in ihren Unternehmen zwischen sechs und neun Personen – Angestellte sowie externe Berater – mit der Integration und Aufbereitung von Daten beschäftigt sind. In Deutschland sagten dies sogar 84 Prozent der Befragten. Und 41 Prozent erklärten, dass ihre Daten- und IT-Experten bis zur Hälfte ihrer Arbeitszeit mit der Bearbeitung der Datenanfragen von Business-Stakeholdern verbringen.
Unabhängig von der Unternehmensgröße liegen die Investitionen in Technologien zur Integration, Aggregation, Umwandlung und Aufbereitung von Daten im globalen Vergleich bei durchschnittlich zwischen einer Million und 2,5 Millionen Dollar pro Jahr und Unternehmen. Darin enthalten sind auch Ausgaben für den Ausbau der Datenmanagement-Kompetenzen: 73 Prozent der befragten Finanzdienstleister wollen ihre Datenmanagement- und Datenanalyse-Skills verbessern.
Gefragt sind neue Datenmanagement-Ansätze in der Finanzbranche
Ein Ausbau der Datenmanagement-Kompetenzen wird angesichts der stetig steigenden Anforderungen an die Branche allerdings nicht ausreichen. Denn allein ausreichend Personal für die Datenverwaltung bereitzustellen, ist äußerst kostenintensiv und wird aufgrund des anhaltenden Fachkräftemangels immer schwieriger. Finanzdienstleister können es sich daher heute nicht mehr leisten, weiter an manuellen Prozessen zur Datenbereinigung festzuhalten. Um effizienter zu werden, benötigen sie eine stärkere Automatisierung sowie zentralisierte Datenpools, auf die Endanwender aus unterschiedlichen Bereichen rollenbasiert zugreifen können. Dabei sollten sie in der Lage sein, neue Datensätze aktiv und flexibel hinzuzufügen und nach eigenem Ermessen zu nutzen. Denn speziell im Asset Management werden die verwendeten Datenformate immer vielfältiger. Einmal zusammengetragen und aufbereitet, lassen sich Datensätze jedoch häufig für mehrere Anwendungsfälle effizient nutzen. Eine konventionelle relationale Datenbank eignet sich dafür nicht.
Hier setzen moderne Datenmanagement-Architekturen an – beispielsweise ein sogenanntes Data Fabric, das verschiedene Datenpools in einer Single Source of Truth miteinander verbindet und so den Zugriff aller Anwender auf Datenbestände im gesamten Unternehmen beschleunigt und vereinfacht. Es greift auf Daten aus verschiedenen Quellen zu, wandelt sie um und harmonisiert sie bei Bedarf, damit sie für eine Vielzahl von Geschäftsanwendungen nutz- und verwertbar sind. Durch die damit mögliche gesamtheitliche Betrachtung der Kunden-, Transaktions- und Marktdaten lassen sich neue Erkenntnisse gewinnen und sich bietende Marktchancen zeitnah wahrnehmen. Die Transparenz und Rückverfolgbarkeit der Daten unterstützt bei der Einhaltung von Compliance-Vorschriften und hilft gleichermaßen, die Rechenschaftspflicht der Finanzdienstleister gegenüber der Aufsicht sowie ihren Endkunden zu erfüllen. Der manuelle Aufwand und die damit verbundenen Verzögerungen bei der Arbeit mit unternehmensweit verteilten Daten sinken deutlich – und dadurch auch die Kosten. Und da Unternehmen ihre bestehenden IT-Infrastrukturen beibehalten können, bleiben ihre bisherigen Investitionen gewahrt. Quasi als „Add-on“ sorgt das Data Fabric dafür, dass Finanzdienstleister agiler für die Zukunft aufgestellt sind und neue Datensätze schnell und ohne zusätzliche Belastungen ihres operativen und IT-Personals integriert werden können.
Immer mehr Vermögensverwalter erkennen diese Vorteile moderner Datenmanagement-Lösungen. Bei jeweils 40 Prozent der befragten Unternehmen fließen die Investitionen in die Dateninfrastruktur zwar noch vorrangig in Data-Warehouse-Software beziehungsweise konventionelle Datenplattformen. Neue Architekturansätze gewinnen aber zunehmend an Bedeutung. So ist in den USA für 41 Prozent der Finanzdienstleister ein Data Fabric die erste Wahl, wenn neue Datenmanagement-Technologien evaluiert oder implementiert werden. Im globalen Durchschnitt sind es bereits 36 Prozent, und in der DACH-Region liegt der Anteil bei 19 Prozent. Analysten-Meinungen wie dem Gartner Hype Cycle For Data Management zufolge, dürfte der Wandel hin zu einem Data Fabric Ansatz in den kommenden Jahren noch zunehmen.
Sie interessieren sich für alle Studienergebnisse? Hier können Sie sich den Report kostenlos herunterladen.
(Artikel erstmalig erschienen am
15. November 2023 in der ZfgK - Zeitschrift für das gesamte Kreditwesen)