Cria um modelo do AutoML diretamente na Google Cloud consola ou criando um pipeline de preparação programaticamente, através da API ou de uma das bibliotecas cliente do Vertex AI.
Este modelo é criado através de um conjunto de dados preparado fornecido por si através da consola ou da API Vertex AI. A API Vertex AI usa os itens do conjunto de dados para preparar o modelo, testá-lo e avaliar o desempenho do modelo. Reveja os resultados das avaliações, ajuste o conjunto de dados de preparação conforme necessário e crie um novo pipeline de preparação com o conjunto de dados melhorado.
A preparação do modelo pode demorar várias horas a ser concluída. A API Vertex AI permite-lhe obter o estado da tarefa de preparação.
Crie um pipeline de preparação do AutoML Edge
Quando tiver um conjunto de dados com um conjunto representativo de itens de preparação, pode criar um pipeline de preparação do AutoML Edge.
Selecione o separador abaixo para o seu objetivo:
Classificação
Durante a preparação, pode escolher o tipo de modelo do AutoML Edge que quer, consoante o seu exemplo de utilização específico:
- latência baixa (
MOBILE_TF_LOW_LATENCY_1
) - utilização de fins gerais (
MOBILE_TF_VERSATILE_1
) - maior qualidade de previsão (
MOBILE_TF_HIGH_ACCURACY_1
)
Selecione o separador abaixo para o seu idioma ou ambiente:
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o conjunto de dados está localizado e o modelo é criado. Por exemplo,
us-central1
. - PROJECT: o seu ID do projeto.
- TRAININGPIPELINE_DISPLAYNAME: obrigatório. Um nome a apresentar para o trainingPipeline.
- DATASET_ID: o número de ID do conjunto de dados a usar para a preparação.
- fractionSplit: opcional. Uma das várias opções possíveis de divisão de utilização da AA para os seus dados. Para
fractionSplit
, os valores têm de somar 1. Por exemplo:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: Um nome a apresentar para o modelo carregado (criado) pela TrainingPipeline.
- MODEL_DESCRIPTION*: uma descrição do modelo.
- modelToUpload.labels*: qualquer conjunto de pares de chave-valor para organizar os seus modelos. Por exemplo:
- "env": "prod"
- "tier": "backend"
- EDGE_MODELTYPE†: o tipo de modelo do Edge a preparar. As opções são:
MOBILE_TF_LOW_LATENCY_1
MOBILE_TF_VERSATILE_1
MOBILE_TF_HIGH_ACCURACY_1
- NODE_HOUR_BUDGET†: O custo de preparação real será igual ou inferior a este valor. Para os modelos Edge, o orçamento tem de ser: 1000 a 100 000 milihoras de nó (inclusive).
- PROJECT_NUMBER: o número do projeto gerado automaticamente do seu projeto
* | A descrição do ficheiro de esquema especificada em trainingTaskDefinition descreve a utilização deste campo. |
† | O ficheiro de esquema que especificar em trainingTaskDefinition declara e descreve este campo. |
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corpo JSON do pedido:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "false", "modelType": ["EDGE_MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o TRAININGPIPELINE_ID.
Pode obter o estado da tarefa trainingPipeline através do TRAININGPIPELINE_ID.
Classificação
Durante a preparação, pode escolher o tipo de modelo do AutoML Edge que quer, consoante o seu exemplo de utilização específico:
- latência baixa (
MOBILE_TF_LOW_LATENCY_1
) - utilização de fins gerais (
MOBILE_TF_VERSATILE_1
) - maior qualidade de previsão (
MOBILE_TF_HIGH_ACCURACY_1
)
Selecione o separador abaixo para o seu idioma ou ambiente:
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o conjunto de dados está localizado e o modelo é criado. Por exemplo,
us-central1
. - PROJECT: o seu ID do projeto.
- TRAININGPIPELINE_DISPLAYNAME: obrigatório. Um nome a apresentar para o trainingPipeline.
- DATASET_ID: o número de ID do conjunto de dados a usar para a preparação.
- fractionSplit: opcional. Uma das várias opções possíveis de divisão de utilização da AA para os seus dados. Para
fractionSplit
, os valores têm de somar 1. Por exemplo:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: Um nome a apresentar para o modelo carregado (criado) pela TrainingPipeline.
- MODEL_DESCRIPTION*: uma descrição do modelo.
- modelToUpload.labels*: qualquer conjunto de pares de chave-valor para organizar os seus modelos. Por exemplo:
- "env": "prod"
- "tier": "backend"
- EDGE_MODELTYPE†: o tipo de modelo do Edge a preparar. As opções são:
MOBILE_TF_LOW_LATENCY_1
MOBILE_TF_VERSATILE_1
MOBILE_TF_HIGH_ACCURACY_1
- NODE_HOUR_BUDGET†: O custo de preparação real será igual ou inferior a este valor. Para os modelos Edge, o orçamento tem de ser: 1000 a 100 000 milihoras de nó (inclusive).
- PROJECT_NUMBER: o número do projeto gerado automaticamente do seu projeto
* | A descrição do ficheiro de esquema especificada em trainingTaskDefinition descreve a utilização deste campo. |
† | O ficheiro de esquema que especificar em trainingTaskDefinition declara e descreve este campo. |
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corpo JSON do pedido:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_classification_1.0.0.yaml", "trainingTaskInputs": { "multiLabel": "true", "modelType": ["EDGE_MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o TRAININGPIPELINE_ID.
Pode obter o estado da tarefa trainingPipeline através do TRAININGPIPELINE_ID.
Deteção de objetos
Durante a preparação, pode escolher o tipo de modelo do AutoML Edge que quer, consoante o seu exemplo de utilização específico:
- latência baixa (
MOBILE_TF_LOW_LATENCY_1
) - utilização de fins gerais (
MOBILE_TF_VERSATILE_1
) - maior qualidade de previsão (
MOBILE_TF_HIGH_ACCURACY_1
)
Selecione o separador abaixo para o seu idioma ou ambiente:
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o conjunto de dados está localizado e o modelo é criado. Por exemplo,
us-central1
. - PROJECT: o seu ID do projeto.
- TRAININGPIPELINE_DISPLAYNAME: obrigatório. Um nome a apresentar para o trainingPipeline.
- DATASET_ID: o número de ID do conjunto de dados a usar para a preparação.
fractionSplit
: opcional. Uma das várias opções possíveis de divisão de utilização da AA para os seus dados. ParafractionSplit
, os valores têm de somar 1. Por exemplo:-
{"trainingFraction": "0.7","validationFraction": "0.15","testFraction": "0.15"}
-
- MODEL_DISPLAYNAME*: Um nome a apresentar para o modelo carregado (criado) pela TrainingPipeline.
- MODEL_DESCRIPTION*: uma descrição do modelo.
- modelToUpload.labels*: qualquer conjunto de pares de chave-valor para organizar os seus modelos. Por exemplo:
- "env": "prod"
- "tier": "backend"
- EDGE_MODELTYPE†: o tipo de modelo do Edge a preparar. As opções são:
MOBILE_TF_LOW_LATENCY_1
MOBILE_TF_VERSATILE_1
MOBILE_TF_HIGH_ACCURACY_1
- NODE_HOUR_BUDGET†: O custo de preparação real será igual ou inferior a este valor. Para os modelos na nuvem, o orçamento tem de ser: 20 000 a 900 000 horas de nós (inclusive). O valor predefinido é 216 000,que representa um dia em tempo real, partindo do princípio de que são usados 9 nós.
- PROJECT_NUMBER: o número do projeto gerado automaticamente do seu projeto
* | A descrição do ficheiro de esquema especificada em trainingTaskDefinition descreve a utilização deste campo. |
† | O ficheiro de esquema que especificar em trainingTaskDefinition declara e descreve este campo. |
Método HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines
Corpo JSON do pedido:
{ "displayName": "TRAININGPIPELINE_DISPLAYNAME", "inputDataConfig": { "datasetId": "DATASET_ID", "fractionSplit": { "trainingFraction": "DECIMAL", "validationFraction": "DECIMAL", "testFraction": "DECIMAL" } }, "modelToUpload": { "displayName": "MODEL_DISPLAYNAME", "description": "MODEL_DESCRIPTION", "labels": { "KEY": "VALUE" } }, "trainingTaskDefinition": "gs://google-cloud-aiplatform/schema/trainingjob/definition/automl_image_object_detection_1.0.0.yaml", "trainingTaskInputs": { "modelType": ["EDGE_MODELTYPE"], "budgetMilliNodeHours": NODE_HOUR_BUDGET } }
Para enviar o seu pedido, escolha uma destas opções:
curl
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines"
PowerShell
Guarde o corpo do pedido num ficheiro com o nome request.json
,
e execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines" | Select-Object -Expand Content
A resposta contém informações sobre as especificações, bem como o TRAININGPIPELINE_ID.
Pode obter o estado da tarefa trainingPipeline através do TRAININGPIPELINE_ID.
Obtenha o estado de trainingPipeline
Use o seguinte código para obter programaticamente o estado da criação de trainingPipeline.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o TrainingPipeline está localizado.
- PROJECT: o seu ID do projeto.
- TRAININGPIPELINE_ID: o ID do TrainingPipeline específico.
- PROJECT_NUMBER: o número do projeto gerado automaticamente do seu projeto
Método HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAININGPIPELINE_ID
Para enviar o seu pedido, escolha uma destas opções:
curl
Execute o seguinte comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAININGPIPELINE_ID"
PowerShell
Execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/trainingPipelines/TRAININGPIPELINE_ID" | Select-Object -Expand Content
O campo "state"
mostra o estado atual da operação. Um trainingPipeline concluído mostra
Deverá ver um resultado semelhante ao seguinte para uma operação create trainingPipeline concluída:
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar ou atualizar o SDK Vertex AI para Python, consulte o artigo Instale o SDK Vertex AI para Python. Para mais informações, consulte a Python documentação de referência da API.
Obtenha informações do modelo
Após a conclusão da criação do trainingPipeline, pode usar o nome a apresentar do modelo para obter informações mais detalhadas sobre o modelo.
REST
Antes de usar qualquer um dos dados do pedido, faça as seguintes substituições:
- LOCATION: região onde o modelo está localizado. Por exemplo,
us-central1
- PROJECT: .
- MODEL_DISPLAYNAME: o nome a apresentar do modelo que especificou quando criou uma tarefa trainingPipeline.
- PROJECT_NUMBER: o número do projeto gerado automaticamente do seu projeto
Método HTTP e URL:
GET https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models?filter=display_name=MODEL_DISPLAYNAME
Para enviar o seu pedido, escolha uma destas opções:
curl
Execute o seguinte comando:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models?filter=display_name=MODEL_DISPLAYNAME"
PowerShell
Execute o seguinte comando:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT/locations/LOCATION/models?filter=display_name=MODEL_DISPLAYNAME" | Select-Object -Expand Content
Deverá ver um resultado semelhante ao seguinte para um modelo do AutoML Edge preparado. A seguinte saída de exemplo destina-se a um modelo do AutoML Edge de imagens:
Java
Antes de experimentar este exemplo, siga as Javainstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Java Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Node.js
Antes de experimentar este exemplo, siga as Node.jsinstruções de configuração no início rápido do Vertex AI com bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Node.js Vertex AI.
Para se autenticar no Vertex AI, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.
Python
Para saber como instalar ou atualizar o SDK Vertex AI para Python, consulte o artigo Instale o SDK Vertex AI para Python. Para mais informações, consulte a Python documentação de referência da API.