Chirp 2 es la última generación de modelos multilingües específicos de ASR de Google, diseñados para satisfacer las necesidades de los usuarios en función de sus comentarios y experiencias. Mejora el modelo original de Chirp en cuanto a exactitud y velocidad, además de expandirse a nuevas funciones clave, como marcas de tiempo a nivel de palabras, adaptación de modelos y traducción de voz.
Detalles del modelo
Chirp 2 está disponible solo en la API de Speech-to-Text V2.
Identificadores de modelos
Puedes utilizar Chirp 2 como cualquier otro modelo especificando el identificador de modelo adecuado en tu solicitud de reconocimiento cuando uses la API o el nombre del modelo en la consola de Google Cloud .
| Modelo | Identificador del modelo |
|---|---|
| Chirp 2 | chirp_2 |
Métodos de la API
Como Chirp 2 está disponible solo en la API de Speech-to-Text V2, admite los siguientes métodos de reconocimiento:
| Modelo | Identificador del modelo | Idiomas admitidos |
|---|---|---|
V2 |
Speech.StreamingRecognize (bueno para transmisiones y audio en tiempo real) |
Limitada* |
V2 |
Speech.Recognize (bueno para audio corto <1 min) |
A la par de Chirp |
V2 |
Speech.BatchRecognize (bueno para audio largo de 1 minuto a 8 horas) |
A la par de Chirp |
* Siempre puedes encontrar la lista más reciente de idiomas y funciones admitidos para cada modelo de transcripción con la API de ubicaciones.
Disponibilidad regional
Chirp 2 es compatible con las siguientes regiones:
| Zona deGoogle Cloud | Preparación para el lanzamiento |
|---|---|
us-central1 |
DG |
europe-west4 |
DG |
asia-southeast1 |
DG |
Siempre puedes encontrar la lista más reciente de regiones, idiomas y funciones de Google Cloud compatibles con cada modelo de transcripción a través de la API de ubicaciones, como se explica aquí.
Disponibilidad de idiomas para la transcripción
Chirp 2 admite la transcripción en los métodos de reconocimiento
StreamingRecognize, Recognize y BatchRecognize. Sin embargo, la compatibilidad con idiomas varía según
el método utilizado. En particular, BatchRecognize ofrece la compatibilidad de idiomas
más extensa.
StreamingRecognize admite los siguientes idiomas:
| Idioma | Código BCP-47 |
|---|---|
| Chino (simplificado, China) | cmn-Hans-CN |
| Chino (tradicional, Taiwán) | cmn-Hant-TW |
| Chino, Cantonés (tradicional, Hong Kong) | yue-Hant-HK |
| Inglés (Australia) | en-AU |
| Inglés (India) | en-IN |
| Inglés (Reino Unido) | en-GB |
| Inglés (Estados Unidos) | en-US |
| Francés (Canadá) | fr-CA |
| Francés (Francia) | fr-FR |
| Alemán (Alemania) | de-DE |
| Italiano (Italia) | it-IT |
| Japonés (Japón) | ja-JP |
| Coreano (Corea del Sur) | ko-KR |
| Portugués (Brasil) | pt-BR |
| Español (España) | es-ES |
| Español (Estados Unidos) | es-US |
Disponibilidad de idiomas para la traducción
Estos son los idiomas compatibles con la traducción de voz. Ten en cuenta que la compatibilidad con idiomas de Chirp 2 para la traducción no es simétrica. Esto significa que, si bien es posible que podamos traducir del idioma A al idioma B, es posible que la traducción del B al A no esté disponible. Los siguientes pares de idiomas son compatibles con la traducción de voz.
Para la traducción al inglés:
| Idioma de origen -> idioma de destino | Código de idioma de origen -> código de idioma de destino |
|---|---|
| Árabe (Egipto) -> inglés | ar-EG -> en-US |
| Árabe (golfo) -> inglés | ar-x-gulf -> en-US |
| Árabe (Levante) -> inglés | ar-x-levant -> en-US |
| Árabe (Magreb) -> inglés | ar-x-maghrebi -> en-US |
| Catalán (España) -> inglés | ca-ES -> en-US |
| Galés (Reino Unido) -> inglés | cy-GB -> en-US |
| Alemán (Alemania) -> inglés | de-DE -> en-US |
| Español (Latinoamérica) -> inglés | es-419 -> en-US |
| Español (España) -> inglés | es-ES -> en-US |
| Español (Estados Unidos) -> inglés | es-US -> en-US |
| Estonio (Estonia) -> inglés | et-EE -> en-US |
| Francés (Canadá) -> inglés | fr-CA -> en-US |
| Francés (Francia) -> inglés | fr-FR -> en-US |
| Persa (Irán) -> inglés | fa-IR -> en-US |
| Indonesio (Indonesia) -> inglés | id-ID -> en-US |
| Italiano (Italia) -> inglés | it-IT -> en-US |
| Japonés (Japón) -> inglés | ja-JP -> en-US |
| Letón (Letonia) -> inglés | lv-LV -> en-US |
| Mongol (Mongolia) -> inglés | mn-MN -> en-US |
| Holandés (Países Bajos) -> inglés | nl-NL -> en-US |
| Portugués (Brasil) -> inglés | pt-BR -> en-US |
| Ruso (Rusia) -> inglés | ru-RU -> en-US |
| Esloveno (Eslovenia) -> inglés | sl-SI -> en-US |
| Sueco (Suecia) -> inglés | sv-SE -> en-US |
| Tamil (India) -> inglés | ta-IN -> en-US |
| Turco (Türkiye) -> inglés | tr-TR -> en-US |
| Chino (simplificado, China) -> inglés | cmn-Hans-CN -> en-US |
Para la traducción del inglés:
| Idioma de origen -> idioma de destino | Código de idioma de origen -> código de idioma de destino |
|---|---|
| Inglés -> árabe (Egipto) | en-US -> ar-EG |
| Inglés -> árabe (golfo) | en-US -> ar-x-gulf |
| Inglés -> árabe (Levante) | en-US -> ar-x-levant |
| Inglés -> árabe (Magreb) | en-US -> ar-x-maghrebi |
| Inglés -> catalán (España) | en-US -> ca-ES |
| Inglés -> galés (Reino Unido) | en-US -> cy-GB |
| Inglés -> alemán (Alemania) | en-US -> de-DE |
| Inglés -> estonio (Estonia) | en-US -> et-EE |
| Inglés -> persa (Irán) | en-US -> fa-IR |
| Inglés -> indonesio (Indonesia) | en-US -> id-ID |
| Inglés -> japonés (Japón) | en-US -> ja-JP |
| Inglés -> letón (Letonia) | en-US -> lv-LV |
| Inglés -> mongol (Mongolia) | en-US -> mn-MN |
| Inglés -> esloveno (Eslovenia) | en-US -> sl-SI |
| Inglés -> sueco (Suecia) | en-US -> sv-SE |
| Inglés -> tamil (India) | en-US -> ta-IN |
| Inglés -> turco (Türkiye) | en-US -> tr-TR |
| Inglés -> chino (simplificado, China) | en-US -> cmn-Hans-CN |
Compatibilidad y limitaciones de las funciones
Chirp 2 admite las siguientes funciones:
| Función | Descripción |
|---|---|
| Puntuación automática | Se genera de forma automática con el modelo y se puede inhabilitar de manera opcional. |
| Uso automático de mayúsculas | Se genera de forma automática con el modelo y se puede inhabilitar de manera opcional. |
| Adaptación de voz (sesgo) | Proporciona sugerencias al modelo en forma de palabras o frases simples para mejorar la exactitud del reconocimiento de términos específicos o nombres propios. No se admiten los tokens de clase ni las clases personalizadas. |
| Sincronizaciones de palabras (marcas de tiempo) | Se genera de forma automática con el modelo y se puede habilitar de manera opcional. Es posible que la calidad y la velocidad de la transcripción se degraden un poco. |
| Filtro de lenguaje obsceno | Detecta lenguaje obsceno y devuelve solo la primera letra seguida de asteriscos en la transcripción (por ejemplo, m*****). |
| Transcripción de audio independiente del idioma | El modelo infiere de forma automática el idioma hablado en tu archivo de audio y transcribe en el idioma de más prevalencia. |
| Traducción específica para cada idioma | El modelo traduce de forma automática del idioma hablado al idioma de destino. |
| Normalización forzada | Si se define en el cuerpo de la solicitud, la API realizará reemplazos de cadenas en términos o frases específicos, lo que garantizará la coherencia en la transcripción. |
| Puntuaciones de confianza a nivel de palabra | La API devuelve un valor, pero no es una puntuación de confianza en realidad. En el caso de la traducción, no se devuelven las puntuaciones de confianza. |
| Cancelación de ruido y filtrado de SNR | Elimina el ruido del audio antes de enviarlo al modelo. Filtra los segmentos de audio si la SNR es inferior al umbral especificado. |
Chirp 2 no admite las siguientes funciones:
| Función | Descripción |
|---|---|
| Identificación | No compatible |
| Reconocimiento de idioma | No compatible |
Transcribe con Chirp 2
Descubre cómo usar Chirp 2 para tus necesidades de transcripción y traducción.
Realiza un reconocimiento de voz de transmisión
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_streaming_chirp2(
audio_file: str
) -> cloud_speech.StreamingRecognizeResponse:
"""Transcribes audio from audio file stream using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API V2 containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
content = f.read()
# In practice, stream should be a generator yielding chunks of audio data
chunk_length = len(content) // 5
stream = [
content[start : start + chunk_length]
for start in range(0, len(content), chunk_length)
]
audio_requests = (
cloud_speech.StreamingRecognizeRequest(audio=audio) for audio in stream
)
recognition_config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
)
streaming_config = cloud_speech.StreamingRecognitionConfig(
config=recognition_config
)
config_request = cloud_speech.StreamingRecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
streaming_config=streaming_config,
)
def requests(config: cloud_speech.RecognitionConfig, audio: list) -> list:
yield config
yield from audio
# Transcribes the audio into text
responses_iterator = client.streaming_recognize(
requests=requests(config_request, audio_requests)
)
responses = []
for response in responses_iterator:
responses.append(response)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return responses
Realiza un reconocimiento de voz síncrono
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
Realiza un reconocimiento de voz por lotes
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_batch_chirp2(
audio_uri: str,
) -> cloud_speech.BatchRecognizeResults:
"""Transcribes an audio file from a Google Cloud Storage URI using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
Args:
audio_uri (str): The Google Cloud Storage URI of the input audio file.
E.g., gs://[BUCKET]/[FILE]
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
)
file_metadata = cloud_speech.BatchRecognizeFileMetadata(uri=audio_uri)
request = cloud_speech.BatchRecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
files=[file_metadata],
recognition_output_config=cloud_speech.RecognitionOutputConfig(
inline_response_config=cloud_speech.InlineOutputConfig(),
),
)
# Transcribes the audio into text
operation = client.batch_recognize(request=request)
print("Waiting for operation to complete...")
response = operation.result(timeout=120)
for result in response.results[audio_uri].transcript.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response.results[audio_uri].transcript
Usa las funciones de Chirp 2
Explora cómo puedes usar las funciones más recientes con ejemplos de código:
Realiza una transcripción independiente del idioma
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_auto_detect_language(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file and auto-detect spoken language using Chirp 2.
Please see https://cloud.google.com/speech-to-text/docs/encoding for more
information on which audio encodings are supported.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["auto"], # Set language code to auto to detect language.
model="chirp_2",
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
print(f"Detected Language: {result.language_code}")
return response
Realiza una traducción de voz
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def translate_sync_chirp2(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Translates an audio file using Chirp 2.
Args:
audio_file (str): Path to the local audio file to be translated.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the translated results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["fr-FR"], # Set language code to targeted to detect language.
translation_config=cloud_speech.TranslationConfig(target_language="fr-FR"), # Set target language code.
model="chirp_2",
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Translated transcript: {result.alternatives[0].transcript}")
return response
Habilita las marcas de tiempo a nivel de la palabra
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_with_timestamps(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API, providing word-level timestamps for each transcribed word.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
features=cloud_speech.RecognitionFeatures(
enable_word_time_offsets=True, # Enabling word-level timestamps
)
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
Mejora la exactitud con la adaptación de modelos
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_model_adaptation(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model with adaptation, improving accuracy for specific audio characteristics or vocabulary.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
# Use model adaptation
adaptation=cloud_speech.SpeechAdaptation(
phrase_sets=[
cloud_speech.SpeechAdaptation.AdaptationPhraseSet(
inline_phrase_set=cloud_speech.PhraseSet(phrases=[
{
"value": "alphabet",
},
{
"value": "cell phone service",
}
])
)
]
)
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
Detalles de la cancelación de ruido y del filtrado de SNR
denoiser_audio=true puede ayudarte de manera eficaz a reducir la música de fondo o los ruidos, como la lluvia y el tráfico de la calle. Ten en cuenta que un cancelador de ruido no puede quitar las voces humanas de fondo.
Puedes configurar snr_threshold=X para controlar el volumen mínimo del habla necesario
para la transcripción. Esto ayuda a filtrar el audio que no es voz o el ruido de fondo,
lo que evita que aparezca texto no deseado en los resultados. Un valor snr_threshold más alto significa
que el usuario debe hablar más alto para que el modelo transcriba las expresiones.
El filtrado de SNR se puede utilizar en casos de uso de transmisión en tiempo real para evitar enviar sonidos innecesarios a un modelo para su transcripción. Un valor más alto de este parámetro de configuración significa que el volumen de la voz debe ser más alto en relación con el ruido de fondo para que se envíe al modelo de transcripción.
La configuración de snr_threshold interactuará si denoise_audio
es true o false. Cuando es denoise_audio=true, se quita el ruido de fondo
y la voz se vuelve un poco más clara. La SNR general del audio aumenta.
Si tu caso de uso solo involucra la voz del usuario sin que hablen otras personas, configura
denoise_audio=true para aumentar la sensibilidad del filtrado de SNR, que puede
filtrar el ruido que no es discurso. Si tu caso de uso implica que hay personas hablando en
segundo plano y quieres evitar transcribir esto, considera
establecer denoise_audio=false y reducir el umbral de SNR.
A continuación, se indican los valores de umbral de SNR recomendados. Se puede establecer un valor snr_threshold razonable
entre 0 y 1000. Un valor 0 significa que no se filtra nada,
y 1000 significa que se filtra todo. Ajusta el valor si el parámetro de configuración recomendado
no te resulta adecuado.
| Cancela ruido del audio | Umbral de SNR | Sensibilidad a la voz |
|---|---|---|
| verdadero | 10.0 | alto |
| verdadero | 20.0 | medio |
| verdadero | 40.0 | bajo |
| verdadero | 100.0 | muy bajo |
| falso | 0.5 | alto |
| falso | 1.0 | medio |
| falso | 2.0 | bajo |
| falso | 5.0 | muy bajo |
Habilita la cancelación de ruido y el filtrado de SNR
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_with_timestamps(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API, providing word-level timestamps for each transcribed word.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
denoiser_config={
denoise_audio: True,
# Medium snr threshold
snr_threshold: 20.0,
}
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
Usa Chirp 2 en la consola de Google Cloud
- Regístrate para obtener una cuenta de Google Cloud y crea un proyecto.
- Ve a Voz en la consola de Google Cloud .
- Si la API no está habilitada, habilítala.
Asegúrate de tener un espacio de trabajo en la consola de STT. Si no tienes uno, debes crearlo.
Ve a la página de transcripciones y haz clic en Transcripción nueva.
Abre el menú desplegable Espacio de trabajo y haz clic en Nuevo espacio de trabajo para crear uno a la hora de realizar una transcripción.
Desde la barra lateral de navegación Crear un nuevo espacio de trabajo, haz clic en Explorar.
Haz clic para crear un bucket nuevo.
Ingresa un nombre para tu bucket y haz clic en Continuar.
Haz clic en Crear para crear un bucket de Cloud Storage.
Una vez que se haya creado el bucket, haz clic en Seleccionar para seleccionar el bucket.
Haz clic en Crear para terminar de crear tu espacio de trabajo para la consola de la API de Speech-to-Text V2.
Realiza una transcripción en tu audio real.
La página de creación de transcripciones de Speech-to-Text, que muestra opciones para seleccionar o subir archivos. En la página Transcripción nueva, selecciona el archivo de audio con la carga (Carga local) o especificando un archivo de Cloud Storage existente (Cloud Storage).
Haz clic en Continuar para ir a Opciones de transcripción.
Selecciona el idioma de voz que planeas usar para el reconocimiento con Chirp de tu reconocedor creado previamente.
En el menú desplegable del modelo, selecciona chirp_2.
En el menú desplegable Reconocedor, selecciona el reconocedor que creaste recientemente.
Haz clic en Enviar para ejecutar tu primera solicitud de reconocimiento con
chirp_2.
Visualiza el resultado de la transcripción de Chirp 2.
En la página Transcripciones, haz clic en el nombre de la transcripción para ver el resultado.
En la página Detalles de la transcripción, visualiza el resultado de la transcripción. También tienes la opción de reproducir el audio en el navegador.
Realiza una limpieza
Sigue estos pasos para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos que usaste en esta página.
-
Optional: Revoke the authentication credentials that you created, and delete the local credential file.
gcloud auth application-default revoke
-
Optional: Revoke credentials from the gcloud CLI.
gcloud auth revoke
Consola
gcloud
¿Qué sigue?
- Obtén más información para transcribir audio de transmisión.
- Obtén más información para transcribir archivos de audio cortos.
- Obtén información para transcribir archivos de audio largos.
- Para mejorar el rendimiento y la exactitud, además de obtener otras sugerencias, consulta la documentación de las prácticas recomendadas.