限制条件
本文介绍 AmiVoice API 的限制条件。
WebSocket 接口
会话最长保持时间:24 小时
WebSocket 接口可以保持会话的最长时间为 24 小时。无论是否正在进行处理,超过会话最长保持时间后,连接将被断开。如需继续进行识别处理,请重新建立连接。
非语音区间强制断开时间:600 秒
如果 600 秒内未检测到语音,连接将被断开。如需继续进行识别处理,请重新建立连接。
发生此断开时,您将在 p 响应数据包中收到以下消息:
p can't feed audio data to recognizer server
另请参阅参考文档中的p命令响应数据包和使用指南中 WebSocket 接口的会话维护部分。
无通信强制断开时间:60 秒
如果 60 秒内未收到任何数据,连接将被断开。
发生此断开时,如果尚未开始识别处理,您将收到以下消息:
e timeout occurred
如果正在进行识别处理,您将收到以下消息:
e timeout occurred while recognizing audio data from client
另请参阅参考文档中的e命令响应数据包和使用指南中 WebSocket 接口的会话维护部分。
单个语音段的最长时间:30 秒
如果语音段超过最长时间,系统将认为语音在最长时间处结束,并返回语音识别结果。之后的音频将被视为新的语音段进行识别处理。
※ 语音段指的是由 1 秒左右或更长的无声(无语音时间)分隔的"有声"区间。
同步 HTTP 接口
可接受的音频数据最大容量:16,777,215 字节(约 16 MiB)
同步 HTTP 接口单次请求可发送的最大音频数据大小为 16,777,215 字节。如需发送超过此上限的音频数据,请使用非同步 HTTP 接口。
非语音区间强制断开时间:50 秒
如果 50 秒内未检测到语音,连接将被断开。如需继续进行识别处理,请重新建立连接并发送音频。
单个语音段的最长时间:30 秒
如果音频数据中的语音段持续时间超过最长时间,系统将认为语音在该时间点结束,生成并返回确定的识别结果。之后的音频将被视为新的语音段进行识别处理。
※ 语音段指的是由 1 秒左右或更长的无声时间(无语音时间)分隔的"有声"区间。
无通信强制断开时间:60 秒
如果 60 秒内未收到任何数据,连接将被断开。
异步 HTTP 接口
可接受的音频数据最大容量:2,147,483,647 字节(约 2 GiB)(启用说话人区分时最长 3 小时)
非同步 HTTP 接口单次请求可发送的最大音频数据大小为 2,147,483,647 字节。
此外,对于启用说话人区分的请求,音频的最长时间为 3 小时。超过限制将在请求时报错。
{"results":[{"tokens":[],"tags":[],"rulename":"","text":""}],"code":"^","message":"request too large (audio duration exceeded 3 hours with speaker diarization)"}
单个语音段的最长时间:60 秒
如果音频数据中的语音段持续时间超过最长时间,系统将认为语音在该时间点结束,生成并返回确定的识别结果。之后的音频将被视为新的语音段进行识别处理。
※ 语音段指的是由 1 秒左右或更长的无声时间(无语音时间)分隔的"有声"区间。
非语音区间强制断开时间:无限制
不会发生。
语音识别结果保存期限:7 天
语音识别处理结束后,结果将保存 7 天(168 小时)。
无通信强制断开时间:60 秒
如果 60 秒内未收到任何数据,连接将被断开。