Finanzdienstleistungen: Leistungsoptimierung

Last reviewed 2025-07-28 UTC

Dieses Dokument in der Google Cloud Well-Architected Framework-Perspektive „Finanzdienstleistungen“ (Financial Services, FS) bietet eine Übersicht über Prinzipien und Empfehlungen zur Optimierung der Leistung Ihrer FS-Arbeitslasten in Google Cloud. Die Empfehlungen in diesem Dokument stimmen mit der Säule „Leistungsoptimierung“ des Well-Architected Framework überein.

Die Leistungsoptimierung hat in der Finanzdienstleistungsbranche eine lange Geschichte. Sie hat FS-Organisationen geholfen, technische Herausforderungen zu meistern, und war fast immer ein Enabler oder Beschleuniger für die Entwicklung neuer Geschäftsmodelle. Beispielsweise haben Geldautomaten (eingeführt 1967) den Prozess der Bargeldausgabe automatisiert und Banken geholfen, die Kosten ihres Kerngeschäfts zu senken. Techniken wie das Umgehen des Betriebssystemkernels und das Zuordnen von Anwendungs-Threads zu Rechenkernen haben dazu beigetragen, deterministische und niedrige Latenzen für Handelsanwendungen zu erzielen. Die Reduzierung der Latenz führte zu einer höheren und stabileren Liquidität mit engeren Spreads an den Finanzmärkten.

Die Cloud bietet neue Möglichkeiten zur Leistungsoptimierung. Sie stellt auch einige der historisch akzeptierten Optimierungsmuster infrage. Insbesondere die folgenden Kompromisse sind in der Cloud transparenter und besser kontrollierbar:

  • Produkteinführungszeit im Vergleich zu Kosten
  • End-to-End-Leistung auf Systemebene im Vergleich zur Leistung auf Knotenebene
  • Verfügbarkeit von Talenten im Vergleich zur Agilität von technologiebezogenen Entscheidungen

Beispielsweise ist die Anpassung von Hardware- und IT-Ressourcen an bestimmte Qualifikationsanforderungen in der Cloud eine triviale Aufgabe. Zur Unterstützung der GPU-Programmierung können Sie GPU-basierte VMs erstellen. Sie können die Kapazität in der Cloud skalieren, um Nachfragespitzen zu bewältigen, ohne Ressourcen zu überdimensionieren. Diese Funktion trägt dazu bei, dass Ihre Arbeitslasten Spitzenlasten bewältigen können, z. B. an Tagen mit Veröffentlichung der US-Arbeitsmarktdaten und wenn das Handelsvolumen deutlich über dem historischen Niveau liegt. Anstatt viel Zeit und Geld in das Schreiben hochoptimierten Codes auf der Ebene einzelner Server (z. B. hochoptimierter Code in der Programmiersprache C) oder in das Schreiben von Code für herkömmliche HPC-Umgebungen (High Performance Computing) zu investieren, können Sie optimal skalieren, indem Sie ein gut konzipiertes Kubernetes-basiertes verteiltes System verwenden.

Die Empfehlungen zur Leistungsoptimierung in diesem Dokument sind den folgenden Kernprinzipien zugeordnet:

Leistungsmesswerte für Technologie an wichtigen Geschäftsindikatoren ausrichten

Sie können die Leistungsoptimierung auf verschiedene Weise mit Geschäftsergebnissen verknüpfen. Beispielsweise könnte ein Geschäftsziel in einer Buy-Side Research-Abteilung darin bestehen, die Leistung pro Forschungs stunde zu optimieren oder Experimente von Teams zu priorisieren, die eine nachweisliche Erfolgsbilanz haben, z. B. höhere Sharpe-Ratios. Auf der Sell-Side können Sie mit Analysen das Interesse der Kunden verfolgen und entsprechend den Durchsatz zu KI-Modellen priorisieren, die die interessantesten Forschungsergebnisse unterstützen.

Es ist auch wichtig, Leistungsziele mit wichtigen Leistungskennzahlen (KPIs) zu verknüpfen, um Leistungsverbesserungen zu finanzieren. Initiativen zur Geschäftsinnovation und -transformation (manchmal auch als Change-the-Bank -Bemühungen bezeichnet) haben unterschiedliche Budgets und möglicherweise unterschiedliche Zugriffsrechte auf Ressourcen im Vergleich zum normalen Geschäftsbetrieb (Business-as-Usual, BAU) oder Run-the-Bank -Betrieb. Beispielsweise hat Google Cloud geholfen, die Risikomanagement- und Technologieteams eines G-SIFI mit den quantitativen Analysten im Front Office zusammenzubringen, um eine Lösung zu entwickeln, mit der Risikoberechnungen (z. B. XVA) in Minuten statt in Stunden oder Tagen durchgeführt werden können. Diese Lösung hat der Organisation geholfen, die relevanten Compliance-Anforderungen zu erfüllen. Außerdem konnten die Händler qualitativ hochwertigere Gespräche mit ihren Kunden führen und potenziell engere Spreads, eine stabilere Liquidität und kostengünstigere Absicherungen anbieten.

Wenn Sie Ihre Leistungsmesswerte an Geschäftsindikatoren ausrichten, sollten Sie die folgenden Empfehlungen berücksichtigen:

  • Verknüpfen Sie jede Technologieinitiative mit den relevanten Geschäfts zielen und wichtigsten Ergebnissen (Objectives and Key Results, OKRs), z. B. Steigerung von Umsatz oder Gewinn, Senkung der Kosten und Risikominimierung effizienter oder ganzheitlicher.
  • Konzentrieren Sie sich auf die Optimierung der Leistung auf Systemebene. Sehen Sie über die herkömmliche Trennung zwischen Change-the-Bank und Run-the-Bank sowie die Silos zwischen Front Office und Back Office hinaus.

Sicherheit priorisieren, ohne die Leistung für unbewiesene Risiken zu beeinträchtigen

Sicherheit und Einhaltung gesetzlicher Vorschriften in FS-Organisationen müssen zweifelsfrei einen hohen Standard haben. Ein hoher Standard ist unerlässlich, um Kundenverluste zu vermeiden und irreparablen Schaden am Ruf einer Organisation zu verhindern. Oft wird der höchste Wert durch technologische Innovationen wie generative KI und einzigartige, verwaltete Dienste wie Spanner erzielt. Verwerfen Sie solche Technologieoptionen nicht automatisch aufgrund einer pauschalen Fehlannahme über ein unvertretbar hohes Betriebsrisiko oder eine unzureichende Einhaltung gesetzlicher Vorschriften.

Google Cloud hat eng mit G-SIFIs zusammengearbeitet, um sicherzustellen, dass ein KI-basierter Ansatz zur Bekämpfung von Geldwäsche (Anti-Money Laundering, AML) in allen Gerichtsbarkeiten eingesetzt werden kann, in denen die Institute Kunden bedienen. Beispielsweise hat HSBC die Leistung seiner Abteilung für Finanzkriminalität (Financial Crime, Fincrime) erheblich verbessert mit den folgenden Ergebnissen:

  • Fast zwei- bis viermal mehr bestätigte verdächtige Aktivitäten.
  • Niedrigere Betriebskosten durch die Eliminierung von über 60% der falsch positiven Ergebnisse und die Konzentration der Untersuchungszeit auf risikoreiche, umsetzbare Benachrichtigungen.
  • Prüfbare und erklärbare Ergebnisse zur Unterstützung der Einhaltung gesetzlicher Vorschriften.

Beachten Sie die folgenden Empfehlungen:

  • Prüfen Sie, ob die Produkte, die Sie verwenden möchten, die Anforderungen an Sicherheit, Resilienz und Compliance für die Gerichtsbarkeiten erfüllen können, in denen Sie tätig sind. Um dieses Ziel zu erreichen, arbeiten Sie mit Google Cloud Account-Teams, Risikoteams und Produktteams zusammen.
  • Erstellen Sie leistungsstärkere Modelle und sorgen Sie für Transparenz für Kunden, indem Sie die Erklärbarkeit von KI nutzen (z. B. Shapley-Wert-Attribution). Mit Techniken wie der Shapley-Wert-Attribution können Modellentscheidungen bestimmten Merkmalen auf der Eingabeebene zugeordnet werden.
  • Sorgen Sie für Transparenz bei Arbeitslasten mit generativer KI, indem Sie Techniken wie Zitate aus Quellen, Grounding, und RAGverwenden.

  • Wenn die Erklärbarkeit nicht ausreicht, trennen Sie die Entscheidungsschritte in Ihren Wertströmen und verwenden Sie KI nur zur Automatisierung der Schritte, die keine Entscheidungen erfordern. In einigen Fällen reicht erklärbare KI möglicherweise nicht aus oder ein Prozess erfordert aufgrund von regulatorischen Bedenken menschliches Eingreifen (z. B. DSGVO, Artikel 22). Präsentieren Sie in solchen Fällen alle Informationen, die der menschliche Mitarbeiter für die Entscheidungsfindung benötigt, in einem einzigen Steuerfeld, automatisieren Sie aber die Aufgaben zur Datenerfassung, ‑aufnahme, ‑manipulation und ‑zusammenfassung.

Architektur überdenken, um sich an neue Möglichkeiten und Anforderungen anzupassen

Die Erweiterung Ihrer aktuellen Architekturen mit cloudbasierten Funktionen kann einen erheblichen Mehrwert bieten. Um transformativere Ergebnisse zu erzielen, müssen Sie Ihre Architektur regelmäßig überdenken und dabei einen Cloud-First-Ansatz verfolgen.

Beachten Sie die folgenden Empfehlungen, um die Architektur Ihrer Arbeitslasten regelmäßig zu überdenken und die Leistung weiter zu optimieren.

Cloudbasierte Alternativen zu lokalen HPC-Systemen und ‑Planern verwenden

Um von einer höheren Elastizität, einer verbesserten Sicherheitslage und umfassenden Monitoring- und Governance-Funktionen zu profitieren, können Sie HPC-Arbeitslasten in der Cloud ausführen oder lokale Arbeitslasten in die Cloud verlagern. Für bestimmte Anwendungsfälle der numerischen Modellierung wie die Simulation von Anlagestrategien oder die XVA-Modellierung kann die Kombination von Kubernetes mit Kueue jedoch eine leistungsstärkere Lösung bieten.

Für Simulationen zur graphenbasierten Programmierung wechseln

Monte-Carlo-Simulationen können in einem graphenbasierten Ausführungssystem wie Dataflow viel leistungsfähiger sein. Beispielsweise führt HSBC mit Dataflow Risikoberechnungen 16-mal schneller durch als mit dem bisherigen Ansatz.

Cloudbasierte Börsen und Handelsplattformen ausführen

Gespräche mit Google Cloud Kunden zeigen, dass das 80/20-Pareto-Prinzip auf die Leistungsanforderungen von Märkten und Handelsanwendungen zutrifft.

  • Mehr als 80% der Handelsanwendungen benötigen keine extrem niedrige Latenz. Sie profitieren jedoch erheblich von den Resilienz-, Sicherheits- und Elastizitätsfunktionen der Cloud. Beispielsweise nutzt BidFX, eine Multi-Dealer-Plattform für den Devisenhandel, die Cloud, um schnell neue Produkte auf den Markt zu bringen und die Verfügbarkeit und Reichweite erheblich zu steigern, ohne die Ressourcen zu erhöhen.
  • Die restlichen Anwendungen (weniger als 20%) benötigen eine niedrige Latenz (weniger als eine Millisekunde), Determinismus und Fairness bei der Zustellung von Nachrichten. Konventionell werden diese Systeme in starren und teuren Colocation-Einrichtungen ausgeführt. Immer mehr wird auch diese Kategorie von Anwendungen in die Cloud verlagert, entweder am Edge oder als Cloud-First-Anwendungen.

Technologie zukunftssicher machen, um aktuelle und zukünftige Geschäftsanforderungen zu erfüllen

In der Vergangenheit haben viele FS-Organisationen proprietäre Technologien entwickelt, um sich einen Wettbewerbsvorteil zu verschaffen. Beispielsweise hatten erfolgreiche Investmentbanken und Handelsunternehmen in den frühen 2000er-Jahren eigene Implementierungen von grundlegenden Technologien wie Pub/Sub-Systemen und Message Brokern. Mit der Entwicklung von Open-Source-Technologien und der Cloud sind solche Technologien zu Commodities geworden und bieten keinen zusätzlichen Geschäftswert.

Beachten Sie die folgenden Empfehlungen, um Ihre Technologie zukunftssicher zu machen.

Data-as-a-Service-Ansatz (DaaS) für eine schnellere Produkteinführungszeit und Kostentransparenz

FS-Organisationen entwickeln sich oft durch eine Kombination aus organischem Wachstum und Fusionen und Übernahmen (Mergers and Acquisitions, M&A). Daher müssen die Organisationen unterschiedliche Technologien integrieren. Außerdem müssen sie doppelte Ressourcen verwalten, z. B. Datenanbieter, Datenlizenzen und Integrationspunkte. Google Cloud bietet Möglichkeiten bei der Integration nach Fusionen einen differenzierten Mehrwert zu schaffen.

Sie können beispielsweise Dienste wie BigQuery-Freigabe verwenden, um eine analysebereite Data-as-a-Service-Plattform (DaaS) zu erstellen. Die Plattform kann sowohl Marktdaten als auch Eingaben aus alternativen Quellen bereitstellen. Dieser Ansatz macht die Erstellung redundanter Datenpipelines überflüssig und ermöglicht es Ihnen, sich auf wertvollere Initiativen zu konzentrieren. Darüber hinaus können die fusionierten oder übernommenen Unternehmen ihre Datenlizenzen und Infrastrukturanforderungen nach der Fusion schnell und effizient rationalisieren. Anstatt Zeit und Mühe in die Anpassung und Zusammenführung von Legacy-Datenbeständen und ‑Betrieben zu investieren, kann sich das kombinierte Unternehmen auf neue Geschäftsmöglichkeiten konzentrieren.

Abstraktionsebene erstellen, um vorhandene Systeme zu isolieren und neue Geschäftsmodelle zu berücksichtigen

Der Wettbewerbsvorteil für Banken liegt zunehmend nicht im Kernbankensystem, sondern in der Kundenerlebnisebene. In Legacy-Bankensystemen werden jedoch oft monolithische Anwendungen verwendet, die in Sprachen wie Cobol entwickelt wurden und in die gesamte Wertschöpfungskette des Bankgeschäfts integriert sind. Diese Integration erschwerte die Trennung der Ebenen der Wertschöpfungskette, sodass es fast unmöglich war, solche Systeme zu aktualisieren und zu modernisieren.

Eine Lösung für diese Herausforderung ist die Verwendung einer Isolationsebene wie eines API-Verwaltungssystems oder einer Staging-Ebene wie Spanner, die das Book of Record dupliziert und die Modernisierung von Diensten mit erweiterter Analytik und KI erleichtert. Beispielsweise hat die Deutsche Bank Spanner verwendet, um ihren Legacy-Kernbankenbestand zu isolieren und mit der Innovation zu beginnen.