跳至主要内容

限制条件

本文介绍 AmiVoice API 的限制条件。

WebSocket 接口

会话最长保持时间:24 小时

WebSocket 接口可以保持会话的最长时间为 24 小时。无论是否正在进行处理,超过会话最长保持时间后,连接将被断开。如需继续进行识别处理,请重新建立连接。

非语音区间强制断开时间:600 秒

如果 600 秒内未检测到语音,连接将被断开。如需继续进行识别处理,请重新建立连接。

发生此断开时,您将在 p 响应数据包中收到以下消息:

p can't feed audio data to recognizer server

另请参阅参考文档中的p命令响应数据包和使用指南中 WebSocket 接口的会话维护部分。

无通信强制断开时间:60 秒

如果 60 秒内未收到任何数据,连接将被断开。

发生此断开时,如果尚未开始识别处理,您将收到以下消息:

e timeout occurred

如果正在进行识别处理,您将收到以下消息:

e timeout occurred while recognizing audio data from client

另请参阅参考文档中的e命令响应数据包和使用指南中 WebSocket 接口的会话维护部分。

单个语音段的最长时间:30 秒

如果语音段超过最长时间,系统将认为语音在最长时间处结束,并返回语音识别结果。之后的音频将被视为新的语音段进行识别处理。

※ 语音段指的是由 1 秒左右或更长的无声(无语音时间)分隔的"有声"区间。

同步 HTTP 接口

可接受的音频数据最大容量:16,777,215 字节(约 16 MiB)

同步 HTTP 接口单次请求可发送的最大音频数据大小为 16,777,215 字节。如需发送超过此上限的音频数据,请使用非同步 HTTP 接口。

非语音区间强制断开时间:50 秒

如果 50 秒内未检测到语音,连接将被断开。如需继续进行识别处理,请重新建立连接并发送音频。

单个语音段的最长时间:30 秒

如果音频数据中的语音段持续时间超过最长时间,系统将认为语音在该时间点结束,生成并返回确定的识别结果。之后的音频将被视为新的语音段进行识别处理。

※ 语音段指的是由 1 秒左右或更长的无声时间(无语音时间)分隔的"有声"区间。

无通信强制断开时间:60 秒

如果 60 秒内未收到任何数据,连接将被断开。

异步 HTTP 接口

可接受的音频数据最大容量:2,147,483,647 字节(约 2 GiB)(启用说话人区分时最长 3 小时)

非同步 HTTP 接口单次请求可发送的最大音频数据大小为 2,147,483,647 字节。

此外,对于启用说话人区分的请求,音频的最长时间为 3 小时。超过限制将在请求时报错。

{"results":[{"tokens":[],"tags":[],"rulename":"","text":""}],"code":"^","message":"request too large (audio duration exceeded 3 hours with speaker diarization)"}

单个语音段的最长时间:60 秒

如果音频数据中的语音段持续时间超过最长时间,系统将认为语音在该时间点结束,生成并返回确定的识别结果。之后的音频将被视为新的语音段进行识别处理。

※ 语音段指的是由 1 秒左右或更长的无声时间(无语音时间)分隔的"有声"区间。

非语音区间强制断开时间:无限制

不会发生。

语音识别结果保存期限:7 天

语音识别处理结束后,结果将保存 7 天(168 小时)。

无通信强制断开时间:60 秒

如果 60 秒内未收到任何数据,连接将被断开。