DIW Wochenbericht 3 / 2020, S. 28
Justus Inhoffen, Vikki Schaefer
get_appDownload (PDF 85 KB)
get_appGesamtausgabe/ Whole Issue (PDF 3.13 MB)
Herr Inhoffen, die bedrohliche Finanzkrise von 2008 bis 2010 steckt dem europäischen Finanzmarkt immer noch in den Knochen. Durch Bankenstresstests wird seitdem versucht, die Risikotreiber im Finanzsystem besser zu identifizieren. Müssen die Daten, welche die Banken an die Aufsichtsbehörden melden, genauer und detaillierter werden? Bankenstresstests dienen dazu, die Stabilität von Finanzmarktteilnehmern zu bewerten. Dazu schaut man sich Komponenten der Bank an, wie sie auf bestimmte Schocks reagieren. Ein Beispiel ist die Verschuldungsquote. Wie reagiert sie in einem Szenario, in dem massenhaft Kunden ihre Einlagen abziehen, ein sogenannter Bank Run? Stresstests sind nur so gut, wie es auch die Daten sind, auf denen sie beruhen. Insofern ist es sehr wichtig, dass detaillierte und granulare Daten erhoben werden.
Welche Daten genau braucht die Finanzaufsicht, um das Bankensystem transparenter und robuster zu machen? Aus der Perspektive der Finanzaufsicht wäre es ideal, alle Aktivitäten aller Markteilnehmer zu kennen. Das ist natürlich nicht realistisch. Aber die etwa 40 Finanzvorschriften, die seit der Finanzkrise von der Europäischen Union umgesetzt wurden, haben ganz wichtige Segmente des Finanzsystems beleuchtet. Derivate spielen hier eine entscheidende Rolle. Die Finanzkrise hat gezeigt, dass sie extrem gefährliche Instrumente sein können.
Welche Daten sollten zusätzlich abgefragt werden? Dazu gehört sicherlich, dass der Umfang ausgeweitet wird. Im Rahmen der neuen Verordnungen werden nun wichtige neue detaillierte Informationen gesammelt, bei denen aber nicht selten nur europäische Großbanken berichtspflichtig sind. Auch wenn die Kosten für kleinere Marktteilnehmer höher sind, wäre es wichtig, einen umfassenderen Blick über die Finanzmärkte zu bekommen. Der große Vorteil dieser granularen Datensätze ist, dass sie maßgeschneiderte Auswertungen ermöglichen, sogenannte Made-to-measure-Aggregate. Das verbessert die Transparenz, da verschiedene Perspektiven im Bereich dieser Verflechtungen eingenommen werden können. Man kann Verflechtungen auf verschiedenen Ebenen analysieren: auf der Ebene von Ländern, von Sektoren, Firmen und sogar in der Zukunft unter Umständen auf der Ebene von Personen, also den Händlerinnen und Händlern in den Banken oder Finanzinstituten. Der Trend geht in die Richtung, dass Daten nicht mehr von den Meldepflichtigen klassifiziert werden, sondern dass diese Klassifikation den Finanzaufsichten überlassen wird, so dass diese die verschiedenen Perspektiven einnehmen und konsistent auswerten können.
Die Banken beklagen den hohen Aufwand und die Kosten, die durch die umfangreiche Datenerhebung entstehen. Oft führen die Marktteilnehmer zwei elementare Punkte an. Zum einen ist das die Informationstechnologie und das Flickwerk von IT-Systemen in den Banken. Dies liegt unter anderem daran, dass es eine Reihe von Fusionen zum Beispiel in Deutschland gegeben hat und diese Systeme nicht vereinheitlicht wurden. Oft hat das damit zu tun, dass Banken in ihren IT-Infrastrukturen nur Kosten sehen, aber kein Potential für ihre Geschäftstätigkeit. Ein zweiter Punkt, der oft angeführt wird, ist das Personal. All diese Investitionen in die IT-Infrastruktur benötigen natürlich qualifizierte Mitarbeiter. Aber der Arbeitsmarkt ist in genau diesem Bereich sehr leergefegt, so dass es schwierig ist, dieses Personal aufzubauen. Marktteilnehmer beklagen zudem, dass es Berichtspflichten gibt, die ähnliche, aber nicht identische Informationen abfragen. Viele zuständige Behörden verfolgen einen sogenannten template-basierten Ansatz. Durch eine Standardisierung der Vorschriften und Erhebungsprozesse könnte man diesen Mehraufwand reduzieren und damit die Effizienz steigern.
Das Gespräch führte Vikki Schaefer.
DOI:
https://doi.org/10.18723/diw_wb:2020-3-2
Frei zugängliche Version: (econstor)
http://hdl.handle.net/10419/213348