Tom Hartung, Financial Services, InterSystems
Wer ein neues IT-Projekt startet, möchte dafür meist die jeweils besten Technologien (Best-of-Breed) einsetzen. Auch wenn dieser Ansatz nachvollziehbar ist, birgt er dennoch die Gefahr, dass sich große Mengen an Daten auf verschiedene Systeme, Anwendungen und Module mit unterschiedlichen Technologien und Zugängen verteilen. Dies erschwert den Datenzugriff und eine konsistente Echtzeitansicht auf alle im Unternehmen verfügbaren Daten. Vor allem durch die Nutzung von Cloud-Services entstehen Redundanzen, wenn die Cloud-Funktionen für ihre Anwendung ein spezifisches Speicherformat erfordern und der Datenbestand daher dupliziert werden muss. Ganz gleich, ob es sich dabei um Transaktionsservices, Analytics oder Machine Learning (ML) handelt – für jeden Dienst muss der Datenbestand zunächst synchronisiert werden. Dies verhindert den Echtzeitblick, kostet Zeit und hat hohe Latenzen und Performance-Einbußen zur Folge.
Vor diesem Problem stand auch ein weltweit führendes US-amerikanisches Fintech mit einem Umsatz von 5 Mrd. US-Dollar, das mit einem bekannten Cloud-Anbieter zusammenarbeitete. Bedingt durch ein steigendes Datenvolumen und der damit verbundenen Komplexität suchte das Fintech eine Lösung, um Daten effizienter zu verwalten und zu verteilen sowie um in der Vermögensverwaltung Daten aus vielen verschiedenen Kontoabwicklungssystemen zu konsolidieren. Die Anwender benötigten eine konsistente Echtzeitansicht der Vermögenswerte und Verpflichtungen der Kunden, um innerhalb von Sekunden belastbare Antworten liefern zu können.
Weniger Redundanzen – weniger Datenvolumen
Die Wahl fiel auf die Datenplattform InterSystems IRIS®, da sich die auszuwertenden Daten über ein sogenanntes Smart Data Fabric übergreifend verfügbar machen lassen. Als eine Art Bindegewebe legt sich das Data Fabric wie eine virtuelle Schicht über Datensilos und stellt die Informationen in einer Single Source of Truth dar. Diese Integrationsebene greift bei Bedarf auf die Daten zu, wandelt sie um und harmonisiert sie, um sie für vielfältige Geschäftsanwendungen nutzbar zu machen. Dank integrierter Funktionen für prädiktive und präskriptive Echtzeitanalysen müssen Daten nicht verschoben oder dupliziert werden, um sie in Cloud-Anwendungen nutzen zu können. Das reduziert das Datenvolumen und damit den Zeit- und Kostenaufwand.
Das Fintech-Unternehmen profitiert zudem von einer hohen Datenqualität. Denn das System akzeptiert grundsätzlich nur strukturierte Informationen, die speziellen Qualitätsanforderungen entsprechen. Um ihre Nachverfolgbarkeit sicherzustellen, werden sie unter anderem unter Angabe von Erstellungsdatum, Größe und Absender klassifiziert. Über spezielle Konnektoren lassen sich auch Daten, die in einem oder mehreren Data Warehouses liegen, problemlos an InterSystems IRIS anbinden.
Beschleunigter Datenzugriff dank vernetzter Funktionen
Datenbanken, Funktionen für Datenmodellierung und Analytics sowie die Vernetzung über Adapter und Bibliotheken sind bereits in die Plattform integriert, also direkt nutzbar. Vor allem aber sind alle Funktionen über offene Schnittstellen und Konnektoren miteinander verbunden. Das beschleunigt den Zugriff auf Daten und Anwendungen und reduziert Redundanzen. Im Vergleich zum Einsatz unterschiedlicher Lösungen, die erst einmal miteinander verbunden werden müssen, verkürzt InterSystems IRIS die Entwicklungszeit erheblich. Weitere Vorteile sind die Persistenz der Daten und die Robustheit der Datenplattform. Denn die Wiederherstellung einer ausgefallenen In-Memory-Datenbank kann viel Zeit kosten.
Aufgrund der offenen Schnittstellen lassen sich auch weitere Anwendungen anderer Hersteller an die Plattform anbinden. Ob die bewährte Analytics-Lösung von Tableau oder Qlik oder ein besonders leistungsfähiges ML-Tool – jede Applikation lässt sich problemlos anschließen. Und: InterSystems IRIS läuft sowohl in Cloud-Umgebungen verschiedener Anbieter als auch in On-Premise- oder in hybriden Infrastrukturen. Damit sinkt das Risiko eines sogenannten Vendor-Lock-Ins, der sich aus der Nutzung von einzelnen Cloud-Providern ergeben kann.
Fazit: Schnellere Analysen bei geringeren Infrastrukturkosten
Die Smart Data Fabric-Architektur hat es dem Fintech ermöglicht, eine 360-Grad-Datenstrategie umzusetzen: Die Zusammenführung und Vereinheitlichung von Daten aus verschiedenen Quellen erleichtert den Datenzugriff und beschleunigt die Analysen. Die Anwender können bei Bedarf auf Live-Daten aus verschiedenen Quellen zugreifen und somit wertvolle Erkenntnisse gewinnen – von der 360-Grad-Sicht auf Kunden bis hin zu Risikomanagement und Betrugserkennung. Gleichzeitig werden betriebliche Funktionen konsolidiert, Latenzen und Datensilos überbrückt und auf diese Weise die Infrastrukturkosten reduziert.
Heute ist das Unternehmen in der Lage, auf das Fünffache des früheren Datenvolumens zu skalieren, täglich zwei Millionen Transaktionen zu verarbeiten und Daten von bis zu sieben Jahren zu speichern. Auch der Performance-Gewinn ist enorm: Die Leistung ist um das Neunfache gestiegen. Dafür beanspruchen die Daten gerade einmal ein Drittel des bisherigen Platzes – ein angesichts der hohen und weiter steigenden Speicherkosten nicht zu unterschätzender Aspekt.
Lesen Sie hier mehr zu den Details des Erfolgsbeispiels: Broadridge Financial Solutions
Beitragsnummer: 22101