KI-Anwendungen mit Model Armor schützen

Model Armor ist ein Google Cloud Dienst, der die Sicherheit Ihrer KI-Anwendungen, insbesondere solcher, die Large Language Models (LLMs) verwenden, verbessern soll. Dabei werden die an Ihre Modelle gesendeten Prompts und die von ihnen generierten Antworten geprüft. So können Sie Risiken minimieren und verantwortungsbewusste KI-Praktiken durchsetzen.

Vorlagen konfigurieren

Sie können festlegen, wie Model Armor Inhalte prüfen soll, indem Sie Model Armor-Vorlagen erstellen und verwenden. Eine Vorlage ist eine wiederverwendbare Konfiguration, in der Sie angeben, welche Filter aktiviert werden sollen, die Konfidenzniveaus für die Filter und den Erzwingungstyp für jeden Filter. Weitere Informationen finden Sie unter Vorlagen erstellen und verwalten.

Mindesteinstellungen konfigurieren

Um ein Mindestschutzniveau zu gewährleisten, können Sicherheitsadministratoren grundlegende Einstellungen auf Organisations-, Ordner- oder Projektebene konfigurieren. Mit diesen Einstellungen werden Mindestanforderungen für Filter festgelegt, die für alle Model Armor-Vorlagen gelten, die in diesem Bereich erstellt werden. So wird verhindert, dass Konfigurationen zu permissiv sind. Weitere Informationen finden Sie unter Etagenkonfiguration.

Prompts und Antworten bereinigen

Wenn ein Nutzer einen Prompt an Ihre Anwendung sendet, wird dieser Prompt zuerst an Model Armor gesendet. Model Armor verarbeitet den Prompt über die aktivierten Filter in der Vorlage und gibt eine Antwort zurück, in der angegeben wird, ob Richtlinienverstöße gefunden wurden, sowie detaillierte Ergebnisse der einzelnen Filter. Ihre Anwendungslogik entscheidet dann, was als Nächstes zu tun ist.

Wenn ein LLM eine Antwort generiert, wird diese von Ihrer Anwendung an Model Armor gesendet, bevor sie dem Nutzer angezeigt wird. Model Armor prüft die LLM-Ausgabe anhand der in der Vorlage definierten Filterkonfigurationen und gibt die Analyseergebnisse zurück. Ihre Anwendung entscheidet dann, ob die Antwort dem Nutzer angezeigt wird. Bei Verstößen kann sie die Anzeige blockieren.

Weitere Informationen finden Sie unter Prompts und Antworten bereinigen.

Nächste Schritte