Panoramica
Puoi utilizzare la funzionalità di adattamento del modello per aiutare Cloud Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Cloud STT rileva la parola "tempo", vuoi che la trascriva come "tempo" più spesso di "tempi". In questo caso, potresti utilizzare l'adattamento del modello per indirizzare Cloud STT a riconoscere "meteo".
L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:
Migliorare l'accuratezza di parole e frasi che si verificano frequentemente nei tuoi dati audio. Ad esempio, puoi avvisare il modello di riconoscimento dei comandi vocali che vengono in genere pronunciati dai tuoi utenti.
Espansione del vocabolario di parole riconosciute da Cloud STT. Cloud STT include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (come nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.
Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.
Per vedere se la funzionalità di adattamento del modello è disponibile per la tua lingua, consulta la pagina delle lingue supportate.
Migliorare il riconoscimento di parole e frasi
Per aumentare la probabilità che Cloud STT riconosca la parola
"meteo" durante la trascrizione dei dati audio, puoi passare la singola parola
"meteo" nell'oggetto
PhraseSet
in una risorsa
SpeechAdaptation.
Quando fornisci una frase composta da più parole, Cloud STT ha maggiori probabilità di riconoscere le parole in sequenza. Fornire una frase aumenta anche la probabilità di riconoscere parti della frase, comprese le singole parole. Consulta la pagina Limiti dei contenuti per i limiti relativi al numero e alle dimensioni di queste frasi.
Se vuoi, puoi ottimizzare la forza dell'adattamento del modello utilizzando la funzionalità di aumento dell'adattamento del modello.
Migliorare il riconoscimento utilizzando le classi
Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità monetarie e date del calendario. Una classe ti consente di migliorare l'accuratezza della trascrizione per grandi gruppi di parole che corrispondono a un concetto comune, ma che non includono sempre parole o frasi identiche.
Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono
il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice: "La mia
casa è al civico 123 di Main Street, la quarta casa a sinistra". In questo caso, vuoi che
Cloud STT riconosca la prima sequenza di numeri ("123") come
indirizzo anziché come numero ordinale ("centoventitreesimo"). Tuttavia, non tutte
le persone vivono al civico 123 di Main Street. È poco pratico elencare ogni possibile indirizzo
in una risorsa PhraseSet. Puoi invece utilizzare una classe per indicare che
un numero civico deve essere riconosciuto indipendentemente dal numero effettivo. In
questo esempio, Cloud STT potrebbe trascrivere con maggiore precisione
frasi come "123 Main Street" e "987 Grand Boulevard" perché entrambi
sono riconosciuti come numeri civici.
Token di classe
Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel
campo phrases di una risorsa PhraseSet. Consulta l'elenco dei token di classe
supportati per vedere quali sono disponibili
per la tua lingua. Ad esempio, per migliorare la trascrizione dei numeri civici
dall'audio di origine, fornisci il valore $ADDRESSNUM nell'oggetto SpeechContext.
Puoi utilizzare le classi come elementi autonomi nell'array phrases o incorporare
uno o più token di classe in frasi più lunghe composte da più parole. Ad esempio, puoi
indicare un numero di indirizzo in una frase più lunga includendo il token di classe in una
stringa: ["my address is $ADDRESSNUM"]. Tuttavia, questa frase non sarà utile nei casi in cui l'audio contiene una frase simile ma non identica, ad esempio "Mi trovo in
via Main 123". Per facilitare il riconoscimento di frasi simili, è importante
includere anche il token di classe da solo: ["my address is $ADDRESSNUM",
"$ADDRESSNUM"]. Se utilizzi un token di classe non valido o malformato,
Cloud STT lo ignora senza attivare un errore, ma utilizza comunque
il resto della frase per il contesto.
Classi personalizzate
Puoi anche creare un CustomClass, una classe composta dal tuo elenco personalizzato di elementi o valori correlati. Ad esempio, vuoi trascrivere dati audio
che probabilmente includono il nome di uno dei centinaia di ristoranti
regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e
quindi è meno probabile che vengano scelti come risposta "corretta" dal modello di
riconoscimento. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi
nomi quando compaiono nell'audio utilizzando una classe personalizzata.
Per utilizzare una classe personalizzata, crea una risorsa
CustomClass
che includa il nome di ogni ristorante come ClassItem. Le classi personalizzate
funzionano allo stesso modo dei token delle classi
predefinite. Un phrase può includere sia token di classe predefiniti
sia classi personalizzate.
Grammatiche ABNF
Puoi anche utilizzare le grammatiche nel formato Backus-Naur aumentato (ABNF) per specificare pattern di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Cloud STT riconosca tutte le parole che corrispondono alla grammatica specificata.
Per utilizzare questa funzionalità, includi un oggetto ABNF
grammar
nel campo SpeechAdaptation della richiesta. Le grammatiche ABNF possono anche
includere riferimenti a
CustomClass
e
PhraseSet
risorse. Per saperne di più sulla sintassi di questo campo, consulta Speech
Recognition Grammar Specification e
la nostra code
sample
nella sezione seguente.
Perfeziona i risultati della trascrizione utilizzando il boost
Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di potenziamento dell'adattamento del modello� consente di aumentare la distorsione del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare il boost solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.
Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per entrare
alla fiera della contea", con la parola "fiera" che si verifica più frequentemente di
"tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità
che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases in una
risorsa PhraseSet. In questo modo, Cloud STT riconoscerà "fair"
e "fare" più spesso di, ad esempio, "hare" o "lair".
Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa della sua maggiore frequenza nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Cloud Speech-to-Text e aver riscontrato un numero elevato di errori nel riconoscimento della parola corretta ("fiera"). In questo caso, potresti anche utilizzare le frasi con boost per assegnare un valore boost più alto a "fair" rispetto a "fare". Il valore ponderato più alto assegnato a "fair" fa sì che l'API Cloud Speech-to-Text scelga "fair" più spesso di "fare". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "fare" con uguale probabilità.
Nozioni di base sul boost
Quando utilizzi il boost, assegni un valore ponderato agli elementi phrase in una risorsa PhraseSet. Cloud STT fa riferimento a questo valore ponderato quando
seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Cloud STT scelga quella parola o frase tra le alternative possibili.
Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita
all'American Museum of Natural History è la balenottera azzurra". Se aggiungi questa frase a un oggetto phrase e assegni un valore boost, il modello di riconoscimento avrà più probabilità di riconoscere la frase nella sua interezza, parola per parola.
Se non ottieni i risultati che cerchi aumentando l'offerta per una frase composta da più parole,
ti consigliamo di aggiungere tutti i bigrammi (2 parole, in ordine) che compongono la frase
come elementi phrase aggiuntivi e assegnare valori di aumento dell'offerta a ciascuno. Continuando l'esempio
precedente, potresti valutare l'aggiunta di bigrammi e N-grammi
(più di due parole) come "il mio preferito", "la mia mostra preferita", "mostra
preferita", "la mia mostra preferita all'American Museum of Natural History",
"American Museum of Natural History" o "balenottera azzurra". Il modello di riconoscimento
Cloud STT ha quindi maggiori probabilità di riconoscere
frasi correlate nell'audio che contengono parti della frase potenziata originale
ma non corrispondono parola per parola.
Impostare i valori di boost
I valori di boost devono essere un numero in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di aggiustamento è 20. Per ottenere risultati ottimali, prova a modificare i risultati della trascrizione aumentando o diminuendo i valori di boost finché non ottieni risultati di trascrizione accurati.
Valori di boost più elevati possono comportare un minor numero di falsi negativi, ovvero casi in cui la parola o la frase è presente nell'audio, ma non è stata riconosciuta correttamente da Cloud STT. Tuttavia, l'incremento può anche aumentare la probabilità di falsi positivi, ovvero casi in cui la parola o la frase appare nella trascrizione anche se non è presente nell'audio.
Ricevere notifiche di timeout
Le risposte di Cloud STT includono un campo
SpeechAdaptationInfo, che fornisce informazioni sul comportamento di adattamento del modello durante
il riconoscimento. Se si è verificato un timeout relativo all'adattamento del modello,
adaptationTimeout sarà true e timeoutMessage specificherà quale
configurazione di adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento
del modello non ha alcun effetto sulla trascrizione restituita.
Esempio di caso d'uso che utilizza l'adattamento del modello
L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "call me fionity and oh my gosh what do we have here ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".
Il seguente comando esegue il riconoscimento dell'audio senza adattamento del modello. La trascrizione risultante è errata: "call me Fiona tea and oh my gosh what do we have here I own a day".
curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare la trascrizione utilizzando un PhraseSet
Crea un
PhraseSet:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets" -d '{"phraseSetId": "test-phrase-set-1"}'
Esempio di richiesta:
{ "phraseSetId":"test-phrase-set-1" }
Ottieni il
PhraseSet:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
Aggiungi le frasi "fionity" e "ionity" a
PhraseSete assegna a ciascuna un valoreboostdi 10:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\ -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'
Il
PhraseSetè stato aggiornato a:{ "phrases":[ { "value":"ionity", "boost":10 }, { "value":"fionity", "boost":10 } ] }
Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il
PhraseSetcreato in precedenza. I risultati trascritti ora sono corretti: "call me fionity and oh my gosh what do we have here ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phrase_set_references":[ "projects/project_id/locations/global/phraseSets/test-phrase-set-1" ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare i risultati della trascrizione utilizzando un CustomClass
Crea un
CustomClass:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses" -d '{"customClassId": "test-custom-class-1"}'
Esempio di richiesta:
{ "customClassId": "test-custom-class-1" }
Ottieni il
CustomClass:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Riconoscere l'audio clip di test.
CustomClassè vuoto, quindi la trascrizione restituita è ancora errata: "call me Fiona tea and oh my gosh what do we have here I own a day":curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_idlocations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:
curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items" -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'
In questo modo, la classe personalizzata viene aggiornata come segue:
{ "items":[ { "value":"ionity" }, { "value":"fionity" } ] }
Riconosci di nuovo l'audio di esempio, questa volta con "fionity" e "ionity" in
CustomClass. La trascrizione ora è corretta: "call me fionity and oh my gosh what do we have here ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Fare riferimento a un CustomClass in un PhraseSet
Aggiorna la risorsa
PhraseSetcreata in precedenza in modo che faccia riferimento aCustomClass:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases" -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Riconosci l'audio utilizzando la risorsa
PhraseSet(che si riferisce aCustomClass). La trascrizione è corretta: "call me fionity and oh my gosh what do we have here ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":10 } ] }
Elimina CustomClass e PhraseSet
Elimina
PhraseSet:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
Elimina
CustomClass:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Migliorare i risultati della trascrizione utilizzando un ABNF Grammar
Riconosci l'audio utilizzando un
abnf_grammar. Questo esempio si riferisce a una risorsaCustomClass: projects/project_id/locations/global/customClasses/test-custom-class-1, a unCustomClassincorporato: test-custom-class-2, a un token di classe: ADDRESSNUM e a una risorsaPhraseSet: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà trattata come radice.Esempio di richiesta:
{ "config":{ "adaptation":{ "abnf_grammar":{ "abnf_strings": [ "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" , "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" , "external ${test-custom-class-2}" , "external $ADDRESSNUM" , "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" , "$name = $title $test-custom-class-1 $test-custom-class-2" , "$title = Mr | Mrs | Miss | Dr | Prof ;" ] } } } }
Passaggi successivi
- Scopri come utilizzare l'adattamento del modello in una richiesta a Cloud STT.
- Consulta l'elenco dei token di classe supportati.