Configurar el idioma y la voz

En este documento se describe cómo configurar las respuestas de voz sintetizada y la detección de actividad de voz en la API Live. Puedes configurar las respuestas en una variedad de voces e idiomas en alta definición, así como los ajustes de detección de actividad de voz para permitir que los usuarios interrumpan el modelo.

Definir el idioma y la voz

Para definir el idioma y la voz de la respuesta, sigue estos pasos:

Consola

  1. Abre Vertex AI Studio > Stream realtime (Vertex AI Studio > Transmitir en tiempo real).
  2. En el desplegable Salidas, selecciona una voz en el menú desplegable Voz.
  3. En el mismo desplegable, seleccione un idioma en el menú desplegable Idioma.
  4. Haz clic en Iniciar sesión para iniciar la sesión.

Python

from google.genai.types import LiveConnectConfig, SpeechConfig, VoiceConfig, PrebuiltVoiceConfig

config = LiveConnectConfig(
    response_modalities=["AUDIO"],
    speech_config=SpeechConfig(
        voice_config=VoiceConfig(
            prebuilt_voice_config=PrebuiltVoiceConfig(
                voice_name=voice_name,
            )
        ),
        language_code="en-US",
    ),
)
      

Voces admitidas

La API Live admite las siguientes 30 opciones de voz en el campo voice_name:

Zephyr: Brillante
Kore: Firme
Orus: Firme
Autonoe: Brillante
Umbriel: Tranquilo
Erinome: Claro
Laomedeia: Optimista
Schedar: Equilibrado
Achird: Amable
Sadachbia: Animado
Puck: Animada
Fenrir: Entusiasmada
Aoede: Ligera
Encélado: Suave
Algieba: Fluida
Algenib: Grave
Achernar: Suave
Gacrux: Madura
Zubenelgenubi: Informal
Sadaltager: Informada
Carón: informativo
Leda: juvenil
Calírroe: tranquilo
Jápeto: claro
Despina: suave
Rasalgethi: informativo
Alnilam: firme
Pulcherrima: directo
Vindemiatrix: delicado
Sulafat: cálido

Idiomas disponibles

La API Live admite los siguientes 24 idiomas:

Idioma Código BCP-47 Idioma Código BCP-47
Árabe (Egipto) ar-EG Alemán (Alemania) de-DE
inglés (EE. UU.) en-US Español (EE. UU.) es-US
Francés (Francia) fr-FR Hindi (India) hi-IN
Indonesio (Indonesia) id-ID Italiano (Italia) it-IT
Japonés (Japón) ja-JP Coreano (Corea) ko-KR
Portugués (Brasil) pt-BR Ruso (Rusia) ru-RU
Neerlandés (Países Bajos) nl-NL Polaco (Polonia) pl-PL
Tailandés (Tailandia) th-TH Turco (Turquía) tr-TR
Vietnamita (Vietnam) vi-VN Rumano (Rumanía) ro-RO
Ucraniano (Ucrania) uk-UA Bengalí (Bangladés) bn-BD
Inglés (India) Paquete de en-IN y hi-IN Maratí (India) mr-IN
Tamil (India) ta-IN Telugu (India) te-IN

Configurar la detección de actividad de voz

La detección de actividad de voz (VAD) permite que el modelo reconozca cuándo está hablando una persona. Esto es esencial para crear conversaciones naturales, ya que permite que los usuarios interrumpan el modelo en cualquier momento.

Cuando la detección de actividad de voz detecta una interrupción, se cancela y se descarta la generación en curso. En el historial de la sesión solo se conserva la información que ya se ha enviado al cliente. A continuación, el servidor envía un mensaje BidiGenerateContentServerContent para informar de la interrupción. A continuación, el servidor descarta las llamadas a funciones pendientes y envía un mensaje BidiGenerateContentServerContent con los IDs de las llamadas canceladas.

Python

config = {
    "response_modalities": ["audio"],
    "realtime_input_config": {
        "automatic_activity_detection": {
            "disabled": False, # default
            "start_of_speech_sensitivity": "low",
            "end_of_speech_sensitivity": "low",
            "prefix_padding_ms": 20,
            "silence_duration_ms": 100,
        }
    }
}
      

Siguientes pasos