Introduzione all'adattamento del modello

Panoramica

Puoi utilizzare la funzionalità di adattamento del modello per aiutare Cloud Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Cloud STT rileva la parola "tempo", vuoi che la trascriva come "tempo" più spesso di "tempi". In questo caso, potresti utilizzare l'adattamento del modello per indirizzare Cloud STT a riconoscere "meteo".

L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:

  • Migliorare l'accuratezza di parole e frasi che si verificano frequentemente nei tuoi dati audio. Ad esempio, puoi avvisare il modello di riconoscimento dei comandi vocali che vengono in genere pronunciati dai tuoi utenti.

  • Espansione del vocabolario di parole riconosciute da Cloud STT. Cloud STT include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (come nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.

  • Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.

Per vedere se la funzionalità di adattamento del modello è disponibile per la tua lingua, consulta la pagina delle lingue supportate.

Migliorare il riconoscimento di parole e frasi

Per aumentare la probabilità che Cloud STT riconosca la parola "meteo" durante la trascrizione dei dati audio, puoi passare la singola parola "meteo" nell'oggetto PhraseSet in una risorsa SpeechAdaptation.

Quando fornisci una frase composta da più parole, Cloud STT ha maggiori probabilità di riconoscere le parole in sequenza. Fornire una frase aumenta anche la probabilità di riconoscere parti della frase, comprese le singole parole. Consulta la pagina Limiti dei contenuti per i limiti relativi al numero e alle dimensioni di queste frasi.

Se vuoi, puoi ottimizzare la forza dell'adattamento del modello utilizzando la funzionalità di aumento dell'adattamento del modello.

Migliorare il riconoscimento utilizzando le classi

Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità monetarie e date del calendario. Una classe ti consente di migliorare l'accuratezza della trascrizione per grandi gruppi di parole che corrispondono a un concetto comune, ma che non includono sempre parole o frasi identiche.

Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice: "La mia casa è al civico 123 di Main Street, la quarta casa a sinistra". In questo caso, vuoi che Cloud STT riconosca la prima sequenza di numeri ("123") come indirizzo anziché come numero ordinale ("centoventitreesimo"). Tuttavia, non tutte le persone vivono al civico 123 di Main Street. È poco pratico elencare ogni possibile indirizzo in una risorsa PhraseSet. Puoi invece utilizzare una classe per indicare che un numero civico deve essere riconosciuto indipendentemente dal numero effettivo. In questo esempio, Cloud STT potrebbe trascrivere con maggiore precisione frasi come "123 Main Street" e "987 Grand Boulevard" perché entrambi sono riconosciuti come numeri civici.

Token di classe

Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel campo phrases di una risorsa PhraseSet. Consulta l'elenco dei token di classe supportati per vedere quali sono disponibili per la tua lingua. Ad esempio, per migliorare la trascrizione dei numeri civici dall'audio di origine, fornisci il valore $ADDRESSNUM nell'oggetto SpeechContext.

Puoi utilizzare le classi come elementi autonomi nell'array phrases o incorporare uno o più token di classe in frasi più lunghe composte da più parole. Ad esempio, puoi indicare un numero di indirizzo in una frase più lunga includendo il token di classe in una stringa: ["my address is $ADDRESSNUM"]. Tuttavia, questa frase non sarà utile nei casi in cui l'audio contiene una frase simile ma non identica, ad esempio "Mi trovo in via Main 123". Per facilitare il riconoscimento di frasi simili, è importante includere anche il token di classe da solo: ["my address is $ADDRESSNUM", "$ADDRESSNUM"]. Se utilizzi un token di classe non valido o malformato, Cloud STT lo ignora senza attivare un errore, ma utilizza comunque il resto della frase per il contesto.

Classi personalizzate

Puoi anche creare un CustomClass, una classe composta dal tuo elenco personalizzato di elementi o valori correlati. Ad esempio, vuoi trascrivere dati audio che probabilmente includono il nome di uno dei centinaia di ristoranti regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e quindi è meno probabile che vengano scelti come risposta "corretta" dal modello di riconoscimento. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi nomi quando compaiono nell'audio utilizzando una classe personalizzata.

Per utilizzare una classe personalizzata, crea una risorsa CustomClass che includa il nome di ogni ristorante come ClassItem. Le classi personalizzate funzionano allo stesso modo dei token delle classi predefinite. Un phrase può includere sia token di classe predefiniti sia classi personalizzate.

Grammatiche ABNF

Puoi anche utilizzare le grammatiche nel formato Backus-Naur aumentato (ABNF) per specificare pattern di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Cloud STT riconosca tutte le parole che corrispondono alla grammatica specificata.

Per utilizzare questa funzionalità, includi un oggetto ABNF grammar nel campo SpeechAdaptation della richiesta. Le grammatiche ABNF possono anche includere riferimenti a CustomClass e PhraseSet risorse. Per saperne di più sulla sintassi di questo campo, consulta Speech Recognition Grammar Specification e la nostra code sample nella sezione seguente.

Perfeziona i risultati della trascrizione utilizzando il boost

Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di potenziamento dell'adattamento del modello� consente di aumentare la distorsione del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare il boost solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.

Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per entrare alla fiera della contea", con la parola "fiera" che si verifica più frequentemente di "tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases in una risorsa PhraseSet. In questo modo, Cloud STT riconoscerà "fair" e "fare" più spesso di, ad esempio, "hare" o "lair".

Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa della sua maggiore frequenza nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Cloud Speech-to-Text e aver riscontrato un numero elevato di errori nel riconoscimento della parola corretta ("fiera"). In questo caso, potresti anche utilizzare le frasi con boost per assegnare un valore boost più alto a "fair" rispetto a "fare". Il valore ponderato più alto assegnato a "fair" fa sì che l'API Cloud Speech-to-Text scelga "fair" più spesso di "fare". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "fare" con uguale probabilità.

Nozioni di base sul boost

Quando utilizzi il boost, assegni un valore ponderato agli elementi phrase in una risorsa PhraseSet. Cloud STT fa riferimento a questo valore ponderato quando seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Cloud STT scelga quella parola o frase tra le alternative possibili.

Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita all'American Museum of Natural History è la balenottera azzurra". Se aggiungi questa frase a un oggetto phrase e assegni un valore boost, il modello di riconoscimento avrà più probabilità di riconoscere la frase nella sua interezza, parola per parola.

Se non ottieni i risultati che cerchi aumentando l'offerta per una frase composta da più parole, ti consigliamo di aggiungere tutti i bigrammi (2 parole, in ordine) che compongono la frase come elementi phrase aggiuntivi e assegnare valori di aumento dell'offerta a ciascuno. Continuando l'esempio precedente, potresti valutare l'aggiunta di bigrammi e N-grammi (più di due parole) come "il mio preferito", "la mia mostra preferita", "mostra preferita", "la mia mostra preferita all'American Museum of Natural History", "American Museum of Natural History" o "balenottera azzurra". Il modello di riconoscimento Cloud STT ha quindi maggiori probabilità di riconoscere frasi correlate nell'audio che contengono parti della frase potenziata originale ma non corrispondono parola per parola.

Impostare i valori di boost

I valori di boost devono essere un numero in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di aggiustamento è 20. Per ottenere risultati ottimali, prova a modificare i risultati della trascrizione aumentando o diminuendo i valori di boost finché non ottieni risultati di trascrizione accurati.

Valori di boost più elevati possono comportare un minor numero di falsi negativi, ovvero casi in cui la parola o la frase è presente nell'audio, ma non è stata riconosciuta correttamente da Cloud STT. Tuttavia, l'incremento può anche aumentare la probabilità di falsi positivi, ovvero casi in cui la parola o la frase appare nella trascrizione anche se non è presente nell'audio.

Ricevere notifiche di timeout

Le risposte di Cloud STT includono un campo SpeechAdaptationInfo, che fornisce informazioni sul comportamento di adattamento del modello durante il riconoscimento. Se si è verificato un timeout relativo all'adattamento del modello, adaptationTimeout sarà true e timeoutMessage specificherà quale configurazione di adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento del modello non ha alcun effetto sulla trascrizione restituita.

Esempio di caso d'uso che utilizza l'adattamento del modello

L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "call me fionity and oh my gosh what do we have here ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".

Il seguente comando esegue il riconoscimento dell'audio senza adattamento del modello. La trascrizione risultante è errata: "call me Fiona tea and oh my gosh what do we have here I own a day".

   curl -H "Authorization: Bearer $(gcloud auth
   --impersonate-service-account=$SA_EMAIL print-access-token)" -H
   "Content-Type: application/json; charset=utf-8"
   "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
   {"languageCode": "en-US"}, "audio":
   {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
   

Esempio di richiesta:

     {
       "config":{
       "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
   

Migliorare la trascrizione utilizzando un PhraseSet

  1. Crea un PhraseSet:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets"
    -d '{"phraseSetId": "test-phrase-set-1"}'

    Esempio di richiesta:

    {
       "phraseSetId":"test-phrase-set-1"
    }
  2. Ottieni il PhraseSet:

    curl -X GET -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
  3. Aggiungi le frasi "fionity" e "ionity" a PhraseSet e assegna a ciascuna un valore boost di 10:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\
    -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'

    Il PhraseSet è stato aggiornato a:

    {
      "phrases":[
         {
              "value":"ionity",
              "boost":10
           },
           {
              "value":"fionity",
              "boost":10
           }
        ]
     }
  4. Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il PhraseSetcreato in precedenza. I risultati trascritti ora sono corretti: "call me fionity and oh my gosh what do we have here ionity".

    curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)"
    -H "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phrase_set_references":[
                "projects/project_id/locations/global/phraseSets/test-phrase-set-1"
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Migliorare i risultati della trascrizione utilizzando un CustomClass

  1. Crea un CustomClass:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses"
    -d '{"customClassId": "test-custom-class-1"}'

    Esempio di richiesta:

    {
       "customClassId": "test-custom-class-1"
    }
  2. Ottieni il CustomClass:

     curl -X GET -H "Authorization: Bearer $(gcloud auth
     --impersonate-service-account=$SA_EMAIL print-access-token)" -H
     "Content-Type: application/json; charset=utf-8"
     "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
     
  3. Riconoscere l'audio clip di test. CustomClass è vuoto, quindi la trascrizione restituita è ancora errata: "call me Fiona tea and oh my gosh what do we have here I own a day":

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_idlocations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

      {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
  4. Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items"
    -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'

    In questo modo, la classe personalizzata viene aggiornata come segue:

    {
       "items":[
          {
             "value":"ionity"
          },
          {
             "value":"fionity"
          }
       ]
    }
  5. Riconosci di nuovo l'audio di esempio, questa volta con "fionity" e "ionity" in CustomClass. La trascrizione ora è corretta: "call me fionity and oh my gosh what do we have here ionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_id/locations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
    "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Fare riferimento a un CustomClass in un PhraseSet

  1. Aggiorna la risorsa PhraseSet creata in precedenza in modo che faccia riferimento a CustomClass:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"
    -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }
  2. Riconosci l'audio utilizzando la risorsa PhraseSet (che si riferisce a CustomClass). La trascrizione è corretta: "call me fionity and oh my gosh what do we have here ionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references":
    ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "phrases":[
          {
             "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
             "boost":10
          }
       ]
    }

Elimina CustomClass e PhraseSet

  1. Elimina PhraseSet:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
  2. Elimina CustomClass:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"

Migliorare i risultati della trascrizione utilizzando un ABNF Grammar

  1. Riconosci l'audio utilizzando un abnf_grammar. Questo esempio si riferisce a una risorsa CustomClass: projects/project_id/locations/global/customClasses/test-custom-class-1, a un CustomClass incorporato: test-custom-class-2, a un token di classe: ADDRESSNUM e a una risorsa PhraseSet: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà trattata come radice.

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "abnf_grammar":{
                "abnf_strings": [
                  "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" ,
                  "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" ,
                  "external ${test-custom-class-2}" ,
                  "external $ADDRESSNUM" ,
                  "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" ,
                  "$name = $title $test-custom-class-1 $test-custom-class-2" ,
                  "$title = Mr | Mrs | Miss | Dr | Prof ;"
                ]
             }
          }
       }
    }

Passaggi successivi