Die Modell- und Risikogovernance ist der Prozess, durch den alle Stakeholdergruppen feststellen, dass Modelle ausreichend sind. Ihr Prozess kann unter anderem die Validierung neuer Modelle, die Modellüberwachung, Sicherheits- und Compliance-Standards, Supportprozesse, die Risikoabdeckung, Betriebsanleitungen und Nutzerhandbücher umfassen.
Als Inhaber eines Risikokonzepts bieten Ihnen die folgenden Artefakte nützliche Ressourcen für die Integration von AML AI in Ihre allgemeine Risikomanagementlandschaft. AML AI stellt Dokumentation bereit, die für die Modell- und Risikogovernance relevant ist, sowie verschiedene Ausgaben aus dem Optimieren, Trainieren und Bewerten Ihres AML AI-Modells.
Dokumentation zur Modell- und Risikogovernance
Die folgenden Konzeptdokumente, die auf Anfrage für AML AI-Kunden verfügbar sind, dienen als Governance-Artefakte in Ihrem allgemeinen Risikomanagement- und KI/ML-Modell- und Risikogovernance-Framework:
- Modellarchitektur: Beschreibt die spezifische Modellarchitektur, die von AML AI zum Berechnen von Risikobewertungen verwendet wird.
- Methodik für die Kennzeichnung: Beschreibt die Ansätze, die zum Definieren von gekennzeichneten Trainingsbeispielen für das Optimieren, Trainieren und Backtesting von AML-KI-Modellen verwendet werden.
- Methodik für das Modelltraining: Beschreibt den Trainings- und Validierungsansatz für AML AI-Modelle.
- Methodik zur Modellabstimmung: Beschreibt den Prozess, mit dem AML AI die Hyperparameter des Modells basierend auf Ihren Daten optimiert.
- Methodik zur Modellbewertung: Beschreibt die Messwerte, die für die Modellbewertung und das Backtesting verwendet werden.
- Übersicht über Funktionsfamilien: Beschreibt die unterstützten Funktionsfamilien in AML AI.
- Funktionsgruppen und Erklärbarkeit: Beschreibt, wie AML AI Funktionsgruppen für die Erklärbarkeit verwendet.
- Schema für die Risikotypologie: Beschreibt, wie AML AI Messwerte zur Verfügung stellt, um die Datenqualität und die potenziellen Auswirkungen auf AML AI-Modelle zu erfassen.
- Schema für Risikotypologie: Beschreibt, wie AML AI Risikotypologien unterstützt und welche Methodik zur Demonstration der Abdeckung verwendet wird.
- Stabilität und Supportrichtlinie für Engine-Versionen: Hier wird beschrieben, was sich zwischen den AML AI-Engine-Versionen ändert und was nicht, und wie lange jede Engine-Version für verschiedene Vorgänge unterstützt wird.
Modellausgaben als Governance-Artefakte
Die folgenden Artefakte werden als Ausgaben von regulären AML AI-Vorgängen generiert:
- Modellqualität
- Die Ausgabe der Engine-Konfiguration enthält den erwarteten Recall (vor und nach der Optimierung), der in den Metadaten der Engine-Konfiguration erfasst wird.
- Mit Backtest-Ergebnissen können Sie die Leistung des trainierten Modells anhand einer Reihe von Beispielen messen, die nicht im Training enthalten sind.
- Datenqualität
- Die Ausgabe zu fehlenden Werten gibt den Anteil der fehlenden Werte pro Featurefamilie in den Datasets an, die für Optimierung, Training, Backtesting und Vorhersage verwendet werden. Erhebliche Änderungen können auf Inkonsistenzen in Ihren zugrunde liegenden Daten hinweisen, die sich auf die Modellleistung auswirken können.
- Datenvalidierungsfehler verhindern den Abschluss von AML AI-Vorgängen. Damit ein Modell und Vorhersagen erstellt werden können, müssen Sie diese Fehler beheben.
- Vorhersageergebnisse
- Risikobewertungen liegen zwischen 0 und 1. Innerhalb dieses Bereichs weist ein höherer Wert auf ein höheres Risiko für die Partei im prognostizierten Monat hin. Risikobewertungen sollten nicht direkt als Wahrscheinlichkeit für Geldwäscheaktivitäten oder für den Erfolg einer möglichen Untersuchung interpretiert werden.
- Die Explainable AI-Ausgabe ergänzt hohe Risikoscores mit Attributionsscores, die den Beitrag jeder Merkmalsgruppe zum Risikoscore angeben.
- Mit lang andauernden Vorgängen können Sie alle AML AI-Prozesse verfolgen, die bei der Modellvorbereitung und bei Vorhersagen verwendet werden. Weitere Informationen finden Sie unter Vorgänge mit langer Ausführungszeit verwalten.