Dieser Leitfaden enthält zusätzliche erweiterte Einstellungen für Sprachfunktionen. Sie können diese erweiterten Einstellungen aktivieren und deaktivieren, indem Sie zu Agent-Einstellungen > Sprache und IVR > Speech-to-Text > Erweiterte Spracheinstellungen gehen.
Diese Einstellungen sind verfügbar in den Agent-Einstellungen (gilt für den gesamten Agent), Ablaufeinstellungen (gilt für den gesamten Ablauf und überschreibt Agent-Einstellungen), Seiteneinstellungen (gilt für die Seite und überschreibt die Ablauf- und Agent-Einstellungen) sowie Auftragsausführungseinstellungen (gilt für die Auftragsausführung; überschreibt die Seite, den Ablauf und die Agent-Einstellungen). Je nach Relevanz der Einstellung für eine Ebene ist eine Teilmenge dieser Einstellungen auf jeder Ebene verfügbar. *Bevor Sie diese Einstellungen auf einer niedrigeren Ebene konfigurieren können, müssen Sie zuerst das Kästchen Erweiterte Spracheinstellungen aktivieren auf Agent-Ebene aktivieren (Agent-Einstellungen > Sprache und IVR > Speech-to-Text > Erweiterte Spracheinstellungen)*.
Aktualisierte Einstellungen auf Agent-Ebene werden nicht auf die Ablauf-, Seiten- und Auftragsausführungsebene übertragen, wenn auf diesen niedrigeren Ebenen die Option Anpassen ausgewählt ist. Wenn die Option Anpassen mehrere Einstellungen umfasst und Sie nur einige davon aktualisieren möchten, müssen Sie möglicherweise auch andere Einstellungen aktualisieren, damit sie mit den Einstellungen auf Agent-Ebene übereinstimmen.
Verfügbarkeit von Einstellungen nach Ebene
In der folgenden Tabelle ist angegeben, welche erweiterten Spracheinstellungen auf jeder Ebene verfügbar sind:
| Name der Einstellung | Agent | Ablauf | Seite | Auftragsausführung |
|---|---|---|---|---|
| Modellauswahl (Speech-to-Text) | ✔ | ✔ | ✔ | |
| Empfindlichkeit zum Erkennen des Redeendes | ✔ | ✔ | ✔ | |
| Erweiterte Empfindlichkeit zum Erkennen des Redeendes basierend auf dem Zeitlimit | ✔ | ✔ | ✔ | |
| Intelligente Endpunkterkennung aktivieren | ✔ | |||
| Zeitlimit ohne Sprache | ✔ | ✔ | ✔ | |
| Eingreifen | ✔ | ✔ | ✔ | |
| Wiedergabe von Teilantworten darf abgebrochen werden | ✔ | |||
| Bucket für den Audioexport | ✔ | ✔ | ||
| DTMF | ✔ | ✔ | ✔ |
Modellauswahl (Speech-to-Text)
Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.
Legt das Sprachmodell fest, das für die Spracherkennung verwendet wird. Diese Einstellung ist sprachspezifisch. Sie können also für verschiedene Sprachen unterschiedliche Modelle auswählen. Sie können auch Sprachmodell auf Anfrageebene überschreiben auswählen. Dadurch wird das ausgewählte Modell auch dann verwendet, wenn in einem API-Aufruf zur Laufzeit ein anderes Modell angegeben ist.
Informationen zu Dialogflow CX Phone Gateway finden Sie unter Einschränkungen. Weitere Informationen finden Sie unter Sprachmodelle.
Empfindlichkeit zum Erkennen des Redeendes
Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.
Steuert die Empfindlichkeit zum Erkennen des Endes von Sprache in der Audioeingabe des Endnutzers. Der Wert reicht von 0 (niedrige Empfindlichkeit, weniger wahrscheinlich Endsprache) bis 100 (hohe Empfindlichkeit, eher zu Endsprache).
Erweiterte Empfindlichkeit zum Erkennen des Redeendes basierend auf dem Zeitlimit
Kann auf Agent-Ebene festgelegt und auf Ablauf- und Seitenebene deaktiviert werden.
Wenn diese Einstellung aktiviert ist, wird der Wert der Einstellung Empfindlichkeit zum Erkennen des Redeendes als Maßstab verwendet, um ein relatives Zeitlimit für die Audio-Stille festzulegen, um das Ende der Sprache zu bestimmen. Wenn diese Einstellung deaktiviert ist (Standardeinstellung), wird der Wert der Einstellung Empfindlichkeit zum Erkennen des Redeendes verwendet, um das Ende der Sprache durch das ML-Modell zu bestimmen, das von Google Cloud Speech-to-Text bereitgestellt wird.
Die Einstellung Empfindlichkeit zum Erkennen des Redeendes unterstützt standardmäßig nur das phone_call
Sprachmodell für das en-US Sprach
Tag. Mit der Einstellung Erweiterte Empfindlichkeit zum Erkennen des Redeendes basierend auf dem Zeitlimit
können Sie jedoch die Empfindlichkeit zum Erkennen des Redeendes für alle Sprachen und
Sprachmodelle konfigurieren, die von Dialogflow unterstützt werden.
Intelligente Endpunkterkennung aktivieren
Kann nur auf Agent-Ebene festgelegt werden.
Wenn diese Einstellung aktiviert ist, analysiert Dialogflow CX die teilweise Nutzereingabe, um das Ende der Sprache zu bestimmen. Wenn der Nutzer beispielsweise „Ich möchte“ sagt und eine Pause macht, wartet Dialogflow CX, bis der Nutzer den Satz fortsetzt.
Dies ist besonders nützlich für die Erfassung numerischer Parameter, bei denen der Nutzer möglicherweise „1234“ sagt und eine Pause macht, bevor er „5678“ sagt. Wenn Sie diese Einstellung für einen bestimmten Parameter anwenden möchten, müssen Sie die intelligente Endpunkterkennung Smart endpointing in dem Formular des Parameters einrichten.
Diese Einstellung ist nur für das Sprach-Tag en-US verfügbar und standardmäßig deaktiviert.
Zeitlimit ohne Sprache
Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.
Die Zeitdauer in Sekunden, für die Dialogflow CX auf die Audioeingabe des Endnutzers wartet. Der Standardwert ist 5 Sekunden und der Höchstwert 60 Sekunden. Für dieses Zeitlimit ruft Dialogflow CX ein No-input-Ereignis auf.
Eingreifen
Kann auf Agent-, Ablauf- und Auftragsausführungsebene festgelegt werden.
Wenn diese Option aktiviert ist, kann ein Endnutzer die Antwortantwort von Dialogflow CX unterbrechen. Bei Unterbrechung sendet Dialogflow CX keine Audiodaten mehr und verarbeitet die nächste Endnutzereingabe.
Wenn sich in der Nachrichtenwarteschlange mehrere Nachrichten befinden, und eine Nachricht von einer Auftragsausführung in eine Warteschlange gestellt wurde, die einer Seite, einem Ablauf oder einem Agent zugeordnet ist, für den das Eingreifen aktiviert ist, wird für alle folgenden Nachrichten in der Warteschlange ebenfalls das Eingreifen aktiviert. In diesem Fall wird die Integration der Integration für alle Nachrichten in der Warteschlange beendet, bei denen das Eingreifen aktiviert ist.
Wiedergabe von Teilantworten darf abgebrochen werden
Kann nur auf Auftragsausführungsebene festgelegt werden.
Sie können diese Einstellung aktivieren, wenn das Kästchen Erweiterte Spracheinstellungen aktivieren unter Agent-Einstellungen > Sprache und IVR aktiviert ist und die Teilantwort auf Auftragsausführungsebene aktiviert ist. Mit dieser Einstellung kann die Wiedergabe einer Teilantwort abgebrochen werden.
Wenn eine Nachricht in der Nachrichtenwarteschlange von einer Auftragsausführung erstellt wird, die den Abbruch zulässt, wird die Wiedergabe der Nachricht abgebrochen, wenn der Warteschlange eine weitere Nachricht hinzugefügt wird. Dies ist nützlich, wenn Sie möchten, dass die Wiedergabe einer ersten Nachricht gestartet wird, aber abgebrochen werden soll, wenn ein funktionierender Webhook eine andere Nachricht erzeugt, bevor die Wiedergabe der ersten Nachricht abgeschlossen ist.
Bucket für den Audioexport
Kann auf Agent- und Ablaufebene festgelegt werden.
Wenn angegeben, werden alle Audiodaten, die mit einer Anfrage verknüpft sind, im folgenden Cloud Storage-Bucket gespeichert:
| Audio gespeichert | Anwendbare Anfragen |
|---|---|
| Audioeingabe des Endnutzers | DetectIntent, StreamingDetectIntent, AnalyzeContent, StreamingAnalyzeContent |
| Für eine Antwort synthetisiertes Text-to-Speech-Audio (TTS) | AnalyzeContent, StreamingAnalyzeContent |
Weisen Sie den folgenden Dienstkonten in Ihrem Projekt die Rolle Storage-Objekt-Ersteller zu:
Dem Dienstkonto des Formats
one-click@df-cx-ALPHANUMERIC_VALUE-ALPHANUMERIC_VALUE.iam.gserviceaccount.com, wenn Sie eine integrierte Partner-Telefonieintegration verwenden.Dem Dienstkonto des Formats
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com, wenn Sie die Einbindung Dialogflow CX Phone Gateway verwenden. Wenn Sie dieses Dienstkonto in IAM suchen möchten, aktivieren Sie die Option Von Google bereitgestellte Rollenzuweisungen einschließen.
DTMF
Weitere Informationen zu dieser Funktion finden Sie in der Dokumentation zu DTMF (Dual-Tone Multi-Frequency Signaling).