Tool: list_evaluation_datasets
Listet Bewertungs-Datasets auf.
Im folgenden Beispiel wird gezeigt, wie Sie mit curl das MCP-Tool list_evaluation_datasets aufrufen.
| Curl-Anfrage |
|---|
curl --location 'https://ces.[REGION].rep.googleapis.com/mcp' \ --header 'content-type: application/json' \ --header 'accept: application/json, text/event-stream' \ --data '{ "method": "tools/call", "params": { "name": "list_evaluation_datasets", "arguments": { // provide these details according to the tool's MCP specification } }, "jsonrpc": "2.0", "id": 1 }' |
Eingabeschema
Anfragenachricht für EvaluationService.ListEvaluationDatasets.
ListEvaluationDatasetsRequest
| JSON-Darstellung |
|---|
{ "parent": string, "pageSize": integer, "pageToken": string, "filter": string, "orderBy": string } |
| Felder | |
|---|---|
parent |
Erforderlich. Der Ressourcenname der App, für die Bewertungs-Datasets aufgeführt werden sollen. |
pageSize |
Optional. Angeforderte Seitengröße. Der Server gibt möglicherweise weniger Elemente als angefordert zurück. Wenn kein Wert angegeben wurde, wählt der Server einen geeigneten Standardwert aus. |
pageToken |
Optional. Der Wert |
filter |
Optional. Filter, der beim Auflisten der Evaluierungs-Datasets angewendet werden soll. Weitere Informationen finden Sie unter https://google.aip.dev/160. |
orderBy |
Optional. Feld, nach dem sortiert werden soll. Nur „name“, „create_time“ und „update_time“ werden unterstützt. Zeitfelder werden in absteigender Reihenfolge und das Namensfeld in aufsteigender Reihenfolge sortiert. Wenn nichts angegeben ist, wird standardmäßig „update_time“ verwendet. Weitere Informationen finden Sie unter https://google.aip.dev/132#ordering. |
Ausgabeschema
Antwortnachricht für EvaluationService.ListEvaluationDatasets.
ListEvaluationDatasetsResponse
| JSON-Darstellung |
|---|
{
"evaluationDatasets": [
{
object ( |
| Felder | |
|---|---|
evaluationDatasets[] |
Die Liste der Bewertungs-Datasets. |
nextPageToken |
Ein Token, das als |
EvaluationDataset
| JSON-Darstellung |
|---|
{
"name": string,
"displayName": string,
"evaluations": [
string
],
"createTime": string,
"updateTime": string,
"etag": string,
"createdBy": string,
"lastUpdatedBy": string,
"aggregatedMetrics": {
object ( |
| Felder | |
|---|---|
name |
ID. Die eindeutige Kennung dieses Auswertungs-Datasets. Format: |
displayName |
Erforderlich. Benutzerdefinierter Anzeigename des Bewertungs-Datasets. Eindeutig innerhalb einer App. |
evaluations[] |
Optional. Bewertungen, die in diesem Dataset enthalten sind. |
createTime |
Nur Ausgabe. Zeitstempel für die Erstellung des Auswertungs-Datasets. Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: |
updateTime |
Nur Ausgabe. Zeitstempel der letzten Aktualisierung des Auswertungsdatensatzes. Verwendet RFC 3339, wobei die generierte Ausgabe immer Z-normalisiert ist und 0, 3, 6 oder 9 Nachkommastellen verwendet. Andere Offsets als „Z“ werden ebenfalls akzeptiert. Beispiele: |
etag |
Nur Ausgabe. Etag, das verwendet wird, um sicherzustellen, dass sich das Objekt während eines Read-Modify-Write-Vorgangs nicht geändert hat. Wenn das ETag leer ist, werden alle gleichzeitigen Änderungen durch das Update überschrieben. |
createdBy |
Nur Ausgabe. Der Nutzer, der das Evaluationsdataset erstellt hat. |
lastUpdatedBy |
Nur Ausgabe. Der Nutzer, der das Auswertungs-Dataset zuletzt aktualisiert hat. |
aggregatedMetrics |
Nur Ausgabe. Die aggregierten Messwerte für dieses Auswertungs-Dataset über alle Läufe hinweg. |
Zeitstempel
| JSON-Darstellung |
|---|
{ "seconds": string, "nanos": integer } |
| Felder | |
|---|---|
seconds |
Stellt Sekunden der UTC-Zeit seit Unix-Epoche 1970-01-01T00:00:00Z dar. Muss einschließlich zwischen -62135596800 und 253402300799 liegen (entspricht 0001-01-01T00:00:00Z bis 9999-12-31T23:59:59Z). |
nanos |
Nicht negative Sekundenbruchteile Nanosekunden-Auflösung. Dieses Feld enthält den Nanosekundenanteil der Dauer und ist keine Alternative zu Sekunden. Negative Sekundenwerte mit Bruchteilen müssen weiterhin nicht negative Nano-Werte haben, die zeitlich vorwärts gezählt werden. Muss zwischen 0 und 999.999.999 liegen. |
AggregatedMetrics
| JSON-Darstellung |
|---|
{
"metricsByAppVersion": [
{
object ( |
| Felder | |
|---|---|
metricsByAppVersion[] |
Nur Ausgabe. Zusammengefasste Messwerte, gruppiert nach App-Versions-ID. |
MetricsByAppVersion
| JSON-Darstellung |
|---|
{ "appVersionId": string, "toolMetrics": [ { object ( |
| Felder | |
|---|---|
appVersionId |
Nur Ausgabe. Die App-Versions-ID. |
toolMetrics[] |
Nur Ausgabe. Messwerte für jedes Tool in dieser App-Version. |
semanticSimilarityMetrics[] |
Nur Ausgabe. Messwerte für die semantische Ähnlichkeit in dieser App-Version. |
hallucinationMetrics[] |
Nur Ausgabe. Messwerte für Halluzinationen in dieser App-Version. |
toolCallLatencyMetrics[] |
Nur Ausgabe. Messwerte für die Latenz von Tool-Aufrufen in dieser App-Version. |
turnLatencyMetrics[] |
Nur Ausgabe. Messwerte für die Zuglatenz in dieser App-Version. |
passCount |
Nur Ausgabe. Die Anzahl der bestandenen Auswertungen. |
failCount |
Nur Ausgabe. Die Anzahl der fehlgeschlagenen Auswertungen. |
metricsByTurn[] |
Nur Ausgabe. Messwerte, die pro Zug in dieser App-Version zusammengefasst werden. |
ToolMetrics
| JSON-Darstellung |
|---|
{ "tool": string, "passCount": integer, "failCount": integer } |
| Felder | |
|---|---|
tool |
Nur Ausgabe. Der Name des Tools. |
passCount |
Nur Ausgabe. Die Anzahl der bestandenen Tests. |
failCount |
Nur Ausgabe. Die Anzahl der fehlgeschlagenen Versuche. |
SemanticSimilarityMetrics
| JSON-Darstellung |
|---|
{ "score": number } |
| Felder | |
|---|---|
score |
Nur Ausgabe. Der durchschnittliche Wert für die semantische Ähnlichkeit (0–4). |
HallucinationMetrics
| JSON-Darstellung |
|---|
{ "score": number } |
| Felder | |
|---|---|
score |
Nur Ausgabe. Der durchschnittliche Halluzinationswert (0 bis 1). |
ToolCallLatencyMetrics
| JSON-Darstellung |
|---|
{ "tool": string, "averageLatency": string } |
| Felder | |
|---|---|
tool |
Nur Ausgabe. Der Name des Tools. |
averageLatency |
Nur Ausgabe. Die durchschnittliche Latenz der Tool-Aufrufe. Die Dauer in Sekunden mit bis zu neun Nachkommastellen und am Ende mit „ |
Dauer
| JSON-Darstellung |
|---|
{ "seconds": string, "nanos": integer } |
| Felder | |
|---|---|
seconds |
Vorzeichenbehaftete Sekunden des Zeitraums. Muss zwischen -315.576.000.000 und +315.576.000.000 (einschließlich) liegen. Hinweis: Diese Grenzen werden so berechnet: 60 Sek./Min. × 60 Min./Std. × 24 Std./Tag × 365,25 Tage/Jahr × 10.000 Jahre |
nanos |
Signierte Sekundenbruchteile mit Nanosekunden-Auflösung des Zeitraums. Dauern von weniger als einer Sekunde werden mit dem Feld |
TurnLatencyMetrics
| JSON-Darstellung |
|---|
{ "averageLatency": string } |
| Felder | |
|---|---|
averageLatency |
Nur Ausgabe. Die durchschnittliche Latenz der Züge. Die Dauer in Sekunden mit bis zu neun Nachkommastellen und am Ende mit „ |
MetricsByTurn
| JSON-Darstellung |
|---|
{ "turnIndex": integer, "toolMetrics": [ { object ( |
| Felder | |
|---|---|
turnIndex |
Nur Ausgabe. Der Zugindex (0-basiert). |
toolMetrics[] |
Nur Ausgabe. Messwerte für jedes Tool in diesem Zug. |
semanticSimilarityMetrics[] |
Nur Ausgabe. Messwerte für die semantische Ähnlichkeit in diesem Turn. |
hallucinationMetrics[] |
Nur Ausgabe. Messwerte für Halluzinationen in diesem Turn. |
toolCallLatencyMetrics[] |
Nur Ausgabe. Messwerte für die Latenz von Tool-Aufrufen in diesem Zug. |
turnLatencyMetrics[] |
Nur Ausgabe. Messwerte für die Antwortlatenz in diesem Zug. |
Tool-Annotationen
Destruktiver Hinweis: ❌ | Idempotenter Hinweis: ✅ | Nur-Lese-Hinweis: ✅ | Open-World-Hinweis: ❌