Freitag, 2. Februar 2024

BCBS, SREP und die Optimierungspotenziale im Risikomanagement

Entscheidend für die Erfüllung aufsichtsrechtlicher Anforderungen ist die Sicherstellung hoher Datenqualität

Tom Hartung, Financial Services, InterSystems

Der aktuelle Bericht des Basler Ausschusses für Bankenaufsicht (BCBS) bescheinigt Banken weiterhin Verbesserungsbedarf in der Aggregation und Meldung konsolidierter Risikodaten. Entscheidend für die Erfüllung der BCBS-Grundsätze ist die Sicherstellung hoher Datenqualität. Zur Gewährleistung dieser Voraussetzung benötigen Finanzinstitute intelligente Datenmanagementlösungen, die verteilte Daten, inklusive Echtzeitdaten, in einer Single Source of Truth darstellen.

Nach der Verschärfung der Anforderungen an das Risikomanagement von Banken infolge der Finanzkrise 2008 haben die Turbulenzen in der Finanzbranche im Jahr 2023 jedoch gezeigt, dass weiterhin Handlungsbedarf besteht. Beispielhaft können hier die Schließung der Silicon Valley Bank (SVB) oder aber auch die Übernahme der Crédit Suisse durch die UBS angeführt werden. Die Vorkommnisse unterstreichen die Notwendigkeit, auf unvorhergesehene Ereignisse wie Leitzinsänderungen und erhöhte Mittelabflüsse besser reagieren zu können und die Geschäftsprozesse aufrecht zu erhalten. Der Fokus liegt klar auf der Optimierung des Risikomanagements. Die Europäische Zentralbank (EZB) hat ihre Aufsichtsprioritäten basierend auf den neuesten Ergebnissen des Supervisory Review and Evaluation Process (SREP) ebenfalls angepasst. Die Erhöhung der Widerstandsfähigkeit gegenüber unmittelbaren makrofinanziellen und geopolitischen Schwankungen sowie damit verbundenen Risiken wurden auch hier in den Fokus gerückt.

Auch der neuste Progress Report des BCBS betont dieses Thema. Konkret geht es hierbei um die Befolgung von BCBS 239, dem Standard, der die Risikoberichterstattung der Finanzinstitute reguliert, indem er u. a. präzise Vorgaben für die Zusammenführung und Meldung von Risikodaten festlegt.

BCBS-Ausschuss unterstreicht Verbesserungsbedarf

Der BCBS-Ausschuss attestiert den Banken zwar Fortschritte bei der Umsetzung der BCBS 239-Regularien, weist jedoch gleichzeitig darauf hin, dass zusätzliche Anstrengungen erforderlich sind, um die vollständige Einhaltung und Aufrechterhaltung dieser Grundsätze zu gewährleisten. Der Bericht betont, dass die Corona-Pandemie und ihre Folgen, der Ukraine-Krieg, die Inflation oder auch die Energiekrise als Warnsignale dafür dienen, wie wichtig ein effektives Risikomanagement für Banken ist, um fundierte Entscheidungen treffen zu können.

Die Gründe, warum das Risikomanagement im Bankwesen trotzdem häufig nicht ausreichend umgesetzt wird, sind vielfältig. Einige Finanzinstitute priorisieren das Wachstum und die Rentabilität, andere mögen den Umsetzungsstand besser einschätzen, als er tatsächlich ist. Oftmals besteht aber auch schlichtweg ein Mangel an Ressourcen, um ein effizientes Risikomanagement aufzubauen.

Hohe Datenqualität ist von entscheidender Bedeutung

Die Empfehlungen aus früheren BCBS-Reports bleiben weiterhin relevant. Der jüngste Bericht hebt jedoch hervor, dass die finale Verantwortung für die Entwicklung, Umsetzung und Pflege des Data-Governance-Rahmenwerks bei der Geschäftsleitung eines Finanzinstituts liegen sollte. Eine unternehmensweit gelebte Kultur der Eigenverantwortung und Rechenschaftspflicht im Hinblick auf die Datenqualität ist dabei unerlässlich. Eine solide Datenqualität bildet die Grundlage für die Sicherstellung von Digitalisierungsprojekten, so die Autoren des Berichts.

Die Umsetzung dieser Anforderungen ist jedoch herausfordernd, insbesondere wenn die Daten über Front-, Middle- und Backoffice-Anwendungen sowie historische Architekturen wie Data Warehouses, Data Lakes und andere Quellen verteilt sind. Diese Datensilos erschweren den Zugriff und die Verwaltung der Daten. Die dabei anfallenden Aufgaben werden an vielen Stellen manuell und teilweise redundant ausgeführt. Dadurch entstehen zeitraubende und anfällige Prozesse. In solchen Fällen wäre es möglicherweise schlicht ausgeschlossen, rechtzeitig auf Unregelmäßigkeiten oder plötzlich auftretende Risiken zu reagieren. Ebenso bleibt die Frage, ob die Systeme in der Lage sind, Anforderungen gerecht zu werden, die über den normalen Betrieb hinausgehen. Beispielsweise die geforderte Skalierbarkeit bei spontanen Anfragen oder in Stresssituationen abdecken zu können.

Effiziente Verwaltung von Daten zur Verbesserung des Risikomanagements

Eine innovative Datenarchitektur wie das sogenannte Smart Data Fabric kann hierbei maßgeblich unterstützen, indem es alle Unternehmens- und externen Daten in einer Single Source of Truth abbildet. Durch den Zugriff auf verteilte Daten sowie deren Integration und Harmonisierung entsteht zum Zeitpunkt der Abfrage eine konsistente Echtzeitansicht von Informationen aus verschiedenen Quellen. Diese zeitnahen und genauen Daten können dann als Grundlage für Risiko- und Performance-Analysen sowie Reports und Dashboards dienen. Der Vorteil besteht darin, dass die bestehende IT-Infrastruktur nicht beeinträchtigt wird („No rip & replace“). Dadurch bleiben Investitionen erhalten und die IT-Projekte sind weniger komplex. Finanzinstitute können somit die Anforderungen von BCBS 239 einfacher erfüllen und Themen wie Datenmanagement, Datenaggregation, Interoperabilität und Datennormalisierung besser händeln. Die standardisierten Daten lassen sich in praktisch jedes gewünschte System übertragen, um spezielle Aufgaben wie die Ermittlung von Kennzahlen oder die Erstellung von Reports zu gewährleisten.

Zunehmender Druck auf Aufsichtsbehörden

Es ist wichtig, dass Finanzinstitute die Warnsignale der EZB und der BaFin ernst nehmen. Denn durch die Ausfälle von drei US-Banken (Silvergate Bank, Signature Bank, Silicon Valley Bank) und die nötigen Rettungsmaßnahmen für die Crédit Suisse steigt auch der Druck auf die Aufsichtsbehörden. Das Vorhandensein einer soliden Unternehmensführung sowie eines internen Risikomanagements mit wirksamen Kontrollmechanismen auf Seiten der Finanzinstitute wird mit Argusaugen überwacht werden. Damit einher gehen ebenfalls die angekündigten Verschärfungen der Eskalationsmechanismen. In unserer volatilen, politisch und wirtschaftlich unsicheren und schnelllebigen Welt lauern zahlreiche Stolperfallen, die Risikomanager umschiffen müssen. Warum also nicht die Grundlage (allen Übels) – die Daten – in Ordnung bringen, um die Vorgaben der Aufsichtsbehörden präziser und einfacher einhalten zu können? Neben dem Thema Regulatorik profitieren dadurch auch andere Anwendungsbereiche. KI, Machine Learning und tiefgreifende Analysen sind ja auch in der Finanzbranche mittlerweile heiß diskutierte Schwerpunkte.  


Beitragsnummer: 22470

Beitrag teilen:

Produkte zum Thema:

Produkticon
Handbuch Datenmanagement, 2. Auflage

119,00 € inkl. 7 %

Beiträge zum Thema:

Beitragsicon
BCBS 561 – Verschärfung der aufsichtsrechtlichen Zinsschockszenarien

Der 300 BP-Zinsschock der letzten zwei Jahre hat Folgen für die Behandlung von Zinsrisiken. Der neue BCBS 561 regelt die Berechnung von Zinsschock-Szenarien.

13.02.2024

Beitragsicon
Verpflichtende Umsetzung der BCBS 239 für Institute unter EZB-Aufsicht

Vorstellung der Konsultation vom 24.07.2023 und kritische Würdigung der Auswirkungen für SI (Significant Institutions) und LSI (Less Significant Institutions).

06.09.2023

Beitragsicon
Finanzbranche im Wandel: Schlüsseltrends der Zukunft

Die Finanzbranche im Wandel. Erfahren Sie wie Datenmanagement den Weg für Finanzinstitute in der digitalen Transformation ebnet.

18.10.2023

Beitragsicon
Zukunft der Revision: Neue Global Internal Audit Standards ab 2025

Ein Blick auf die EBA/GL/2021/05 & die Global Internal Audit Standards 2024. Wie relevant sind sie wirklich ?

09.02.2024

Um die Webseite so optimal und nutzerfreundlich wie möglich zu gestalten, werten wir mit Ihrer Einwilligung durch Klick auf „Annehmen“ Ihre Besucherdaten mit Google Analytics aus und speichern hierfür erforderliche Cookies auf Ihrem Gerät ab. Hierbei kommt es auch zu Datenübermittlungen an Google in den USA. Weitere Infos finden Sie in unseren Datenschutzhinweisen im Abschnitt zu den Datenauswertungen mit Google Analytics.