通过应用强大的神经网络模型将音频转换为文本。
服务:speech.googleapis.com
创建 RPC 客户端存根需要名为 speech.googleapis.com 的服务。
google.cloud.location.Locations
| 方法 | |
|---|---|
|
获取位置相关信息。 |
|
列出有关此服务所支持位置的信息。 |
google.cloud.speech.v1.Adaptation
| 方法 | |
|---|---|
|
创建自定义类。 |
|
创建一组短语提示。 |
|
删除自定义类。 |
|
删除短语集。 |
|
获取自定义类。 |
|
获取短语集。 |
|
列出自定义类。 |
|
列出短语集。 |
|
更新自定义类。 |
|
更新短语集。 |
google.cloud.speech.v1.Speech
| 方法 | |
|---|---|
|
执行异步语音识别:通过 google.longrunning.Operations 接口接收结果。 |
|
执行同步语音识别:在发送和处理完所有音频后接收结果。 |
|
执行双向流式语音识别:在发送音频时接收结果。 |
google.cloud.speech.v1p1beta1.Adaptation
| 方法 | |
|---|---|
|
创建自定义类。 |
|
创建一组短语提示。 |
|
删除自定义类。 |
|
删除短语集。 |
|
获取自定义类。 |
|
获取短语集。 |
|
列出自定义类。 |
|
列出短语集。 |
|
更新自定义类。 |
|
更新短语集。 |
google.cloud.speech.v1p1beta1.Speech
| 方法 | |
|---|---|
|
执行异步语音识别:通过 google.longrunning.Operations 接口接收结果。 |
|
执行同步语音识别:在发送和处理完所有音频后接收结果。 |
|
执行双向流式语音识别:在发送音频时接收结果。 |
google.cloud.speech.v2.Speech
| 方法 | |
|---|---|
|
执行批量异步语音识别:发送包含 N 个音频文件的请求,并接收长时间运行的操作(可以轮询该操作以查看转写完成时间)。 |
|
创建 CustomClass。 |
|
创建 PhraseSet。 |
|
创建 Recognizer。 |
|
删除 CustomClass。 |
|
删除 PhraseSet。 |
|
删除 Recognizer。 |
|
返回所请求的 Config。 |
|
返回所请求的 CustomClass。 |
|
返回所请求的 PhraseSet。 |
|
返回所请求的 Recognizer。 |
|
列出 CustomClass。 |
|
列出 PhraseSet。 |
|
列出识别器。 |
|
执行同步语音识别:在发送和处理完所有音频后接收结果。 |
|
执行双向流式语音识别:在发送音频时接收结果。 |
|
取消删除 CustomClass。 |
|
取消删除 PhraseSet。 |
|
取消删除 Recognizer。 |
|
更新 Config。 |
|
更新 CustomClass。 |
|
更新 PhraseSet。 |
|
更新 Recognizer。 |
google.longrunning.Operations
| 方法 | |
|---|---|
|
对长时间运行的操作启动异步取消。 |
|
删除长时间运行的操作。 |
|
获取长时间运行的操作的最新状态。 |
|
列出与请求中指定的过滤条件匹配的操作。 |
|
等到指定的长时间运行的操作完成,或最多达到指定的超时,从而返回最新状态。 |