Questa pagina descrive come eseguire previsioni di serie temporali direttamente nel database AlloyDB. Puoi utilizzare vari modelli di previsione, inclusi i modelli TimesFM, per aiutarti a gestire l'incertezza e prendere decisioni strategiche informate. Per maggiori dettagli sul modello, consulta il blog di ricerca di TimesFM.
La funzione ai.forecast di AlloyDB è progettata per funzionare con qualsiasi modello registrato con il tipo di modello ts_forecasting, offrendoti la flessibilità di utilizzare il modello migliore per le tue esigenze. Questo documento fornisce una guida dettagliata sull'utilizzo di TimesFM, ma puoi applicare i principi anche ad altri modelli.
Prima di iniziare
Prima di poter eseguire la previsione delle serie temporali, devi abilitare la funzionalità di previsione in AlloyDB e registrare un modello.
Registrare un modello di previsione
Puoi utilizzare vari modelli di previsione con AlloyDB.
Questa sezione fornisce istruzioni per registrare il modello TimesFM. Per istruzioni sulla registrazione di altri modelli, vedi Registrare un endpoint del modello con la gestione degli endpoint del modello.
Utilizzare il modello TimesFM
I modelli TimesFM sono disponibili in due versioni:
- TimesFM 1.0: la versione iniziale del modello TimesFM.
- TimesFM 2.0: questa versione è consigliata in quanto offre una precisione fino al 25% superiore rispetto alla versione 1.0.
Entrambi i modelli sono disponibili in Model Garden per un deployment rapido.
Per utilizzare i modelli TimesFM, devi prima eseguirne il deployment su un endpoint Vertex AI e poi registrarlo in AlloyDB.
Esegui il deployment del modello TimesFM su un endpoint Vertex AI
Puoi eseguire il deployment del modello utilizzando un deployment con un solo clic dalla console Google Cloud oppure manualmente utilizzando un blocco note Colaboratory.
Deployment con un solo clic
Per eseguire il deployment del modello TimesFM utilizzando un deployment con un solo clic:
Nella console Google Cloud , vai alla pagina Model Garden:
Vai a Model Garden- Nel campo Cerca, inserisci
TimesFM. - Nei risultati di ricerca, fai clic su
TimesFM. -
Nella pagina TimesFM, completa i seguenti passaggi:
- Fai clic su Esegui il deployment del modello.
- Seleziona Vertex AI.
Nel riquadro Esegui il deployment su Vertex AI, configura ed esegui il deployment del modello:
- Per utilizzare l'ultima versione del modello TimesFM, seleziona
google/timesfm-2.0nel menu a discesa ID risorsa. - Per identificare più facilmente il deployment in un secondo momento, inserisci quanto segue:
- Nel campo Nome modello, un
MODEL_NAMEunivoco. - Nel campo Nome endpoint, un
ENDPOINT_NAMEunivoco.
- Nel campo Nome modello, un
- Per espandere le opzioni di configurazione, fai clic su Avanzate in Impostazioni di deployment.
- Per garantire la latenza più bassa possibile, nel menu a discesa Regione, seleziona la stessa regione in cui si trova l'istanza AlloyDB.
- Per ottenere le prestazioni migliori, seleziona una specifica della macchina appropriata nel menu a discesa Specifica della macchina. Tieni presente che una GPU o una TPU potrebbe offrire una latenza inferiore.
Nel menu a discesa Accesso endpoint di Policy di disponibilità, seleziona Pubblico (endpoint condiviso).
In questo modo viene creato un endpoint nel dominio
aiplatformche funziona con AlloyDB.- Per eseguire il deployment del modello su un endpoint gestito, fai clic su Esegui il deployment. Il deployment potrebbe richiedere circa 10-15 minuti.
- Per utilizzare l'ultima versione del modello TimesFM, seleziona
- Dopo il deployment del modello TimesFM, in Endpoint viene visualizzato un link simile a
google_timesfm-VERSION-one-click-deploy. - Per ottenere l'URL della richiesta del modello, fai clic sul link di deployment in Endpoint.
- Nella pagina dei dettagli dell'endpoint, fai clic su Richiesta di esempio.
Nel riquadro Richiesta di esempio, individua e annota l'URL della richiesta del modello. Utilizza queste informazioni in Registra il modello TimesFM in AlloyDB, ad esempio
https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/REGION/endpoints/ENDPOINT_ID:predict.Assicurati che l'URL della richiesta contenga
aiplatform.googleapis.com.
Deployment manuale
Per eseguire manualmente il deployment del modello TimesFM utilizzando un blocco note Colaboratory, segui questi passaggi:
-
Vai alla pagina Model Garden nella console Google Cloud :
Vai a Model Garden - Nel campo Cerca, inserisci
TimesFM. - Nei risultati di ricerca, fai clic su
TimesFMper aprire la scheda del modello. - Nella pagina TimesFM, fai clic su CO Open Notebook.
- Nella finestra Apri notebook, fai clic sul link Colab Enterprise per TimesFM 2.0.
-
Nella pagina Collab Enterprise, completa i seguenti passaggi:
- Per stabilire una connessione all'ambiente di runtime, fai clic su Connetti.
-
(Facoltativo) Completa i seguenti passaggi, se necessario:
-
Nella sezione Prerequisiti di Configura progetto Google Cloud, imposta BUCKET_URI e REGION. Ad esempio, imposta BUCKET_URI su
gs://your-unique-bucket-namee REGION suus-central1. - Nel menu a discesa accelerator_type di Esegui il deployment di TimesFM su un endpoint Vertex AI, seleziona un tipo di acceleratore diverso, se necessario.
- Nel passaggio 3: imposta l'orizzonte di previsione massimo, compila i campi horizon e max_context. Ad esempio, imposta horizon su
128e max_context su512.
-
- Deseleziona la casella di controllo
use_dedicated_endpoint. - Esegui tutte le celle del notebook.
L'output del blocco note fornisce i dettagli dell'endpoint nel seguente formato:
projects/PROJECT_ID/locations/REGION/endpoints/ENDPOINT_ID. -
Per creare
model_request_urlper la chiamata di creazione del modello SQL, sostituisci gli identificatori di progetto ed endpoint con i dettagli dell'endpoint del passaggio precedente nel seguente modo:CALL google_ml.create_model( model_id => 'timesfm_v2', model_qualified_name => 'timesfm_v2', model_type => 'ts_forecasting', model_provider => 'google', model_request_url => 'https://REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/REGION/endpoints/ENDPOINT_ID:predict');
Hai bisogno di questo
model_request_urlnella chiamatathe google_ml.create_modelquando registri il modello TimesFM in AlloyDB, come descritto nella sezione seguente. Per verificare che la funzione
ai.forecastfunzioni come previsto, esegui la seguente query di esempio:SELECT * FROM ai.forecast( source_query=> ' SELECT my_timestamp, my_data_value FROM ( VALUES (CAST(''2025-01-01'' AS TIMESTAMP), 10.0), (CAST(''2025-01-02'' AS TIMESTAMP), 12.0), (CAST(''2025-01-03'' AS TIMESTAMP), 11.0), (CAST(''2025-01-04'' AS TIMESTAMP), 13.0), (CAST(''2025-01-05'' AS TIMESTAMP), 15.0), (CAST(''2025-01-06'' AS TIMESTAMP), 14.0), (CAST(''2025-01-07'' AS TIMESTAMP), 16.0), (CAST(''2025-01-08'' AS TIMESTAMP), 18.0), (CAST(''2025-01-09'' AS TIMESTAMP), 17.0), (CAST(''2025-01-10'' AS TIMESTAMP), 20.0) ) AS t (my_timestamp, my_data_value) ' , model_id => 'timesfm_v2', data_col => 'my_data_value', timestamp_col => 'my_timestamp', -- The rest of the parameters are the same horizon => 7, conf_level => 0.80 );
Registra il modello TimesFM in AlloyDB
Per registrare il modello TimesFM in AlloyDB, segui questi passaggi:
Verifica che l'estensione
google_ml_integrationsia installata nel database AlloyDB che contiene i dati su cui vuoi eseguire le previsioni.Verifica di aver installato la versione 1.4.5 o successive dell'estensione
google_ml_integration.SELECT extversion FROM pg_extension WHERE extname = 'google_ml_integration';Di seguito è riportato l'output di esempio:
extversion ------------ 1.4.5 (1 row)Chiama
google_ml.create_modelutilizzando l'URL della richiesta del modello che hai annotato in Registra un modello di previsione.CALL google_ml.create_model( model_id => 'MODEL_ID', model_qualified_name => 'MODEL_QUALIFIED_NAME', model_type => 'ts_forecasting', model_provider => 'google', model_request_url => 'https://REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/REGION/endpoints/ENDPOINT_ID:predict' -- Example endpoint from Model Garden );Sostituisci quanto segue:
MODEL_ID: un identificatore univoco per il modello registrato che vuoi utilizzare per la previsione, ad esempiovertex_timesfm.MODEL_QUALIFIED_NAME: un nome definito dall'utente per il modello, ad esempiotimesfm_v2.PROJECT_ID: il nome del progetto in cui è stato eseguito il deployment del modello, ad esempioforecast_project.ENDPOINT_ID: il nome del deployment del modello, ad esempiomy-timesfm-endpoint.Il
model_request_urlviene fornito da Vertex AI dopo il deployment del modello. Copia l'intero URL dal riquadro Richiesta di esempio nella console Vertex AI. Contiene già le informazioni corrette su progetto ed endpoint.
Generare previsioni
Dopo aver registrato il modello TimesFM e attivato il flag necessario, puoi generare previsioni passando una tabella o una query di origine con i dati delle serie temporali.
La funzione ai.forecast è documentata separatamente. Per un elenco completo dei parametri, incluse descrizioni ed esempi, consulta la documentazione di riferimento sulla gestione degli endpoint del modello.
Genera previsioni da una tabella di origine
L'esempio seguente mostra come chiamare la funzione ai.forecast utilizzando una tabella di origine per generare previsioni:
SELECT * FROM ai.forecast(
model_id => 'MODEL_ID',
source_table => 'time_series_data',
data_col => 'data_points',
timestamp_col => 'timestamp',
horizon => 2,
conf_level => 0.80
);
Generare previsioni da una query
L'esempio seguente mostra come generare previsioni chiamando la funzione ai.forecast utilizzando una sottoquery come origine dati:
SELECT * FROM ai.forecast(
model_id => 'MODEL_ID',
source_query => '(SELECT * FROM time_series_data ORDER BY timestamp LIMIT 1) AS time_series_data',
data_col => 'data_points',
timestamp_col => 'timestamp',
horizon => 2,
conf_level => 0.80
);
Utilizzare altri modelli di previsione
Puoi utilizzare la funzione ai.forecast con qualsiasi altro modello di previsione delle serie temporali che registri in AlloyDB. La chiave è assicurarsi che il modello sia registrato con il tipo di modello ts_forecasting.
Per istruzioni dettagliate su come registrare diversi tipi di modelli, consulta Registra e chiama modelli di AI remoti utilizzando la gestione degli endpoint del modello. Una volta registrato il modello, puoi utilizzarlo con la funzione ai.forecast specificando il relativo model_id.