SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)Es el servicio que implementa la API de Google Cloud Speech.
Propiedades
transporte
Devuelve el transporte que usa la instancia del cliente.
| Qué muestra | |
|---|---|
| Tipo | Descripción |
SpeechTransport | Es el transporte que usa la instancia del cliente. |
Métodos
SpeechAsyncClient
SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)Crea una instancia del cliente de Speech.
| Parámetros | |
|---|---|
| Nombre | Descripción |
credentials |
Optional[google.auth.credentials.Credentials]
Son las credenciales de autorización que se adjuntan a las solicitudes. Estas credenciales identifican la aplicación ante el servicio. Si no se especifica ninguna, el cliente intentará determinar las credenciales del entorno. |
transport |
Union[str,
Es el transporte que se usará. Si se configura como None, se elige un transporte automáticamente. |
client_options |
ClientOptions
Son opciones personalizadas para el cliente. No tendrá efecto si se proporciona una instancia de |
| Excepciones | |
|---|---|
| Tipo | Descripción |
google.auth.exceptions.MutualTlsChannelError | Si falló la creación del transporte de TLS mutuo por algún motivo. |
common_billing_account_path
common_billing_account_path(billing_account: str) -> strDevuelve una cadena billing_account completamente calificada.
common_folder_path
common_folder_path(folder: str) -> strDevuelve una cadena de carpeta completamente calificada.
common_location_path
common_location_path(project: str, location: str) -> strDevuelve una cadena de ubicación completamente calificada.
common_organization_path
common_organization_path(organization: str) -> strDevuelve una cadena de organización completamente calificada.
common_project_path
common_project_path(project: str) -> strDevuelve una cadena de proyecto completamente calificada.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> strDevuelve una cadena custom_class completa.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)Crea una instancia de este cliente con el archivo de credenciales proporcionado.
| Parámetro | |
|---|---|
| Nombre | Descripción |
filename |
str
Es la ruta de acceso al archivo JSON de la clave privada de la cuenta de servicio. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
SpeechAsyncClient | Es el cliente construido. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)Crea una instancia de este cliente con la información de credenciales proporcionada.
| Parámetro | |
|---|---|
| Nombre | Descripción |
info |
dict
Es la información de la clave privada de la cuenta de servicio. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
SpeechAsyncClient | Es el cliente construido. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)Crea una instancia de este cliente con el archivo de credenciales proporcionado.
| Parámetro | |
|---|---|
| Nombre | Descripción |
filename |
str
Es la ruta de acceso al archivo JSON de la clave privada de la cuenta de servicio. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
SpeechAsyncClient | Es el cliente construido. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)Devuelve el extremo de API y la fuente del certificado del cliente para TLS mutua.
La fuente del certificado de cliente se determina en el siguiente orden: (1) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE no es "true", la fuente del certificado de cliente es None.
(2) Si se proporciona client_options.client_cert_source, usa el proporcionado; si existe la fuente predeterminada del certificado de cliente, usa la predeterminada; de lo contrario, la fuente del certificado de cliente es None.
El extremo de API se determina en el siguiente orden:
(1) Si se proporciona client_options.api_endpoint, se usa el proporcionado.
(2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE es "always", usa el extremo mTLS predeterminado; si la variable de entorno es "never", usa el extremo de la API predeterminado; de lo contrario, si existe la fuente del certificado del cliente, usa el extremo mTLS predeterminado; de lo contrario, usa el extremo de la API predeterminado.
Puedes encontrar más detalles en https://google.aip.dev/auth/4114.
| Parámetro | |
|---|---|
| Nombre | Descripción |
client_options |
google.api_core.client_options.ClientOptions
Son opciones personalizadas para el cliente. En este método, solo se pueden usar las propiedades |
| Excepciones | |
|---|---|
| Tipo | Descripción |
google.auth.exceptions.MutualTLSChannelError | Si se produce algún error |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | Devuelve el extremo de API y la fuente del certificado del cliente que se usarán. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.OperationObtiene el último estado de una operación de larga duración.
| Parámetros | |
|---|---|
| Nombre | Descripción |
request |
Objeto de solicitud. Mensaje de solicitud para el método |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
| Un objeto Operation. |
get_transport_class
get_transport_class() -> (
typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)Devuelve una clase de transporte adecuada.
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponseEnumera las operaciones que coinciden con el filtro especificado en la solicitud.
| Parámetros | |
|---|---|
| Nombre | Descripción |
request |
Objeto de solicitud. Mensaje de solicitud para el método |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
| Mensaje de respuesta para el método ListOperations. |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperationRealiza un reconocimiento de voz asíncrono: recibe resultados a través de la interfaz google.longrunning.Operations. Devuelve un Operation.error o un Operation.response que contiene un mensaje LongRunningRecognizeResponse. Para obtener más información sobre el reconocimiento de voz asíncrono, consulta <https://cloud.google.com/speech-to-text/docs/async-recognize>.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = (await operation).result()
# Handle the response
print(response)
| Parámetros | |
|---|---|
| Nombre | Descripción |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]
Objeto de solicitud. Es el mensaje de nivel superior que envía el cliente para el método |
config |
RecognitionConfig
Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la solicitud. Esto corresponde al campo |
audio |
RecognitionAudio
Obligatorio. Los datos de audio que se reconocerán. Esto corresponde al campo |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
google.api_core.operation_async.AsyncOperation | Es un objeto que representa una operación de larga duración. El tipo de resultado de la operación será LongRunningRecognizeResponse. Es el único mensaje que muestra el método LongRunningRecognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. Se incluye en el campo result.response de la operación que devuelve la llamada GetOperation del servicio google::longrunning::Operations. |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]Analiza una ruta de acceso a billing_account en sus segmentos de componentes.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]Analiza una ruta de acceso a una carpeta en sus segmentos de componentes.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]Analiza una ruta de ubicación en sus segmentos de componentes.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]Analiza una ruta de organización en sus segmentos de componentes.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]Analiza una ruta de acceso del proyecto en sus segmentos de componentes.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]Analiza una ruta de custom_class en sus segmentos de componentes.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]Analiza una ruta de acceso a phrase_set en sus segmentos de componentes.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> strDevuelve una cadena phrase_set completa.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponseRealiza reconocimiento de voz síncrono: recibe resultados después de que se envíe y procese todo el audio.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = await client.recognize(request=request)
# Handle the response
print(response)
| Parámetros | |
|---|---|
| Nombre | Descripción |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]
Objeto de solicitud. Es el mensaje de nivel superior que envía el cliente para el método |
config |
RecognitionConfig
Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la solicitud. Esto corresponde al campo |
audio |
RecognitionAudio
Obligatorio. Los datos de audio que se reconocerán. Esto corresponde al campo |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | Es el único mensaje que muestra el método Recognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.AsyncIterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
typing.AsyncIterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
]Realiza reconocimiento de voz de transmisión bidireccional: recibe resultados mientras envía audio. Este método solo está disponible a través de la API de gRPC (no la de REST).
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = await client.streaming_recognize(requests=request_generator())
# Handle the response
async for response in stream:
print(response)
| Parámetros | |
|---|---|
| Nombre | Descripción |
requests |
AsyncIterator[
Es el objeto de solicitud AsyncIterator. Es el mensaje de nivel superior que envía el cliente para el método |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
| Qué muestra | |
|---|---|
| Tipo | Descripción |
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse es el único mensaje que StreamingRecognize devuelve al cliente. Una serie de cero o más mensajes StreamingRecognizeResponse se transmiten al cliente. Si no hay audio reconocible y single_utterance está configurado como falso, no se transmitirá ningún mensaje al cliente. Este es un ejemplo de una serie de StreamingRecognizeResponses que se pueden devolver mientras se procesa el audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Notas: - Solo dos de las respuestas anteriores, la 4 y la 7, contienen resultados finales, lo que se indica con is_final: true. La concatenación de estas respuestas genera la transcripción completa: “ser o no ser esa es la cuestión”. - Las otras contienen resultados provisionales. El n° 3 y el n° 6 contienen dos \results provisionales: la primera parte tiene una alta estabilidad y es menos probable que cambie, la segunda parte tiene baja estabilidad y es muy probable que cambie. Un diseñador de IU podría optar por mostrar solo los resultados de alta estabilidad. - Los valores específicos de estabilidad y confianza que se muestran arriba son solo para fines ilustrativos. Los valores reales pueden variar. - En cada respuesta, solo se establecerá uno de estos campos: error, speech_event_type o uno o más resultados (repetidos). |