Data Governance und generative KI

Google war einer der ersten Anbieter in der Branche, der eine KI-/ML-Datenschutzverpflichtung, veröffentlicht hat. Diese legt fest, dass Kunden die höchste Sicherheit und Kontrolle über ihre Daten haben sollten, die in der Cloud gespeichert werden. Diese Verpflichtung gilt für Google Cloud Produkte, die auf generativer KI basieren. Google sorgt dafür, dass seine Teams sich durch strenge Data Governance Praktiken an diese Verpflichtungen halten. Dazu gehören auch Prüfungen der Daten, die Google Cloud bei der Entwicklung von Produkten verwendet. Weitere Informationen dazu, wie Google Daten verarbeitet finden Sie auch in Googles Zusatz zur Verarbeitung von Kundendaten (CDPA).

Verwendung von generativer KI

Agent Search verwendet generative KI-Dienste, um Such-, personalisierte und konversationelle Erlebnisse zu entwickeln.

Gemäß der Google Cloud KI-/ML-Datenschutzverpflichtung werden Kundendaten, die in Agent Search verwendet werden, nicht zum Trainieren von Foundation Models verwendet.

Foundation Models sind eingefroren und verarbeiten nur Eingaben, um Ausgaben für die von Agent Search bereitgestellten Dienste zu liefern.

Kundenspezifische Modelle

Falls zutreffend, werden kundenspezifische Modelle automatisch erstellt und nur im Kontext des Projekts verwendet, das für den Kunden spezifisch für den Agent Search-Dienst ist.

Kundendaten, die zum Erstellen dieser kundenspezifischen Modelle verwendet werden, werden nicht zum Trainieren von Foundation Models verwendet.

Kundenspezifische Modelle werden wie alle Kundendaten weiterhin durch die Sicherheitskontrollen und Best Practices von Google geschützt.