当前位置: 首页 > wzjs >正文

网站icp备案是什么seo 服务

网站icp备案是什么,seo 服务,免费门户网站模板下载,个人如何制作网站源码本文介绍硬件设备通过 WebSocket 实现语音交互的完整流程。WebSocket 技术为硬件设备提供了低延迟的语音交互能力,支持按键说话和自由对话两种模式,适用于智能音箱、车载系统、智能家居控制、在线客服、游戏语音聊天等场景,满足不同使用场景的…

本文介绍硬件设备通过 WebSocket 实现语音交互的完整流程。WebSocket 技术为硬件设备提供了低延迟的语音交互能力,支持按键说话和自由对话两种模式,适用于智能音箱、车载系统、智能家居控制、在线客服、游戏语音聊天等场景,满足不同使用场景的需求。

WebSocket 语音功能介绍

扣子 WebSocket 提供了高效且灵活的语音交互解决方案,以下是其核心功能:

  • 支持按键说话与自由对话
    • 按键说话(客户端按键判停):用户通过按键控制录音的开始和结束,适用于需要精准控制对话的场景。
    • 自由对话(扣子云端判停):扣子云端通过语音活动检测(VAD)自动判断语音的开始和结束,实现无缝的自然对话体验。
  • 支持多种音频编码格式

扣子 WebSocket 支持多种音频编码格式,以满足不同设备和网络环境的需求:

  • 输入音频:支持 PCM、OPUS、G711A 和 G711U 格式。
  • 输出音频:支持 PCM、OPUS、G711A 和 G711U 格式,默认为采样率 24000 的 PCM 片段。
  • 低延迟交互

扣子 WebSocket 具备低延迟的语音交互体验, 按键说话场景的时延低至 1.2 秒,自由对话场景的时延低至 1.8 秒。

按键说话场景的实现流程

1 检查智能体配置

在接入硬件设备之前,确保智能体的配置无误,且通话延迟小于两秒。可以通过以下步骤进行测试和验证:

  1. 在 WebSocket 实时语音 Demo 页面右上角的 Settings 中配置个人访问令牌(PAT)和智能体 ID ,具体步骤请参见集成 WebSocket 实时语音 Web SDK。
  2. 与智能体进行语音对话。测试对话的延迟,如果延迟较高,建议检查智能体的配置,例如是否配置了插件或工作流。可以先去掉这些配置进行测试,正常体感延迟应控制在 2 秒左右。

2 设备侧接入

整体交互流程

步骤一:建立 WebSocket 连接

与扣子建立 WebSocket 连接,具体请参见双向流式语音对话。

步骤二:发送 chat.update 事件更新配置

与扣子 WebSocket 连接成功后,立即发送 chat.update 事件更新对话配置。以下是配置示例:

说明:

实际使用时需要去掉代码中的注释。

输入输出音频都是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM格式 "codec": "pcm",         // 输入音频编码。 支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 按需配置采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"    // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 PCM,输出是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "pcm",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"opus_config": { "bitrate": 48000,   // 码率 "use_cbr": true,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"  // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 OPUS,输出是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM格式 "codec": "opus",         // 输入音频编码。 支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 按需配置采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",        // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"    // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}

输入输出都是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "opus",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"opus_config": { "bitrate": 48000,   // 码率 "use_cbr": true,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"  // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"event_subscriptions": ["error","conversation.chat.camplete","conversation.chat.canceled","conversation.audio.delta","conversation.chat.failed"]} 
}
步骤三:发送音频数据
  1. 用户按下录音键,开始录音,通过 input_audio_buffer.append 事件持续发送音频数据给扣子,事件说明请参见流式上传音频片段。

如果是上行是 PCM 编码的音频,每次发送 10ms ~ 20ms 的音频数据给扣子,例如每间隔 20ms,发送 20ms 的音频数据,对应字节数 = 采样率 * 位深/8 * 通道数 * 0.02。

如果上行是 OPUS 编码的音频,每次发送 20ms/40ms 帧长的 OPUS 音频数据是最优的选择。

  1. 用户松开录音键,结束录音,发送 input_audio_buffer.complete 事件告诉扣子音频发送完毕。事件说明请参见提交音频。
步骤四:接收音频事件
  1. 收到扣子返回的 conversation.audio.delta 事件后,解析其中的 content 字段,进行 Base64 解码后获取二进制音频数据。事件说明请参见增量语音 。
  2. 将音频数据放入播放缓冲区队列,由单独的线程从缓冲区取音频数据进行播放。
步骤五:打断对话
  1. 智能体正在播放时,用户按下录音键,需要发送 conversation.chat.cancel 事件告诉扣子打断智能体输出。事件说明请参见打断智能体输出。
  2. 扣子接收到 conversation.chat.cancel 事件后,会停止返回音频数据,并返回 conversation.chat.canceled 事件。
  3. 设备侧接收到 conversation.chat.canceled 事件后,需要停止播放并清空播放缓冲区的数据。

自由对话场景的实现流程

扣子 WebSocket 方案支持自由对话,扣子云端会进行 VAD 的检测。

1 检查智能体配置

在接入硬件设备之前,确保智能体的配置无误,且通话延迟小于两秒。可以通过以下步骤进行测试和验证:

  1. 在 WebSocket 实时语音 Demo 页面右上角的 Settings 中配置个人访问令牌(PAT)和智能体 ID ,具体步骤请参见集成 WebSocket 实时语音 Web SDK。
  2. 与智能体进行语音对话。测试对话的延迟,如果延迟较高,建议检查智能体的配置,例如是否配置了插件或工作流。可以先去掉这些配置进行测试,正常体感延迟应控制在 2 秒左右。

2 设备侧接入

整体交互流程

步骤一:建立 WebSocket 连接

与扣子建立 WebSocket 连接,具体请参见双向流式语音对话。

步骤二:发送 chat.update 事件更新配置

与扣子 WebSocket 连接成功后,立即发送 chat.update 事件更新对话配置。以下是配置示例:

说明:

实际使用时需要去掉代码中的注释。

输入输出音频都是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式"codec": "pcm",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281" // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"   // 默认是客户端打断(按键说话)},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 PCM,输出是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID。按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "pcm",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",     // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000"opus_config": { "bitrate": 48000,   // 码率 "use_cbr": false,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"   // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}

输入是 OPUS,输出是 PCM

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID,按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式"codec": "opus",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "pcm",      // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000  "pcm_config": { "sample_rate": 16000,  // 默认  24000 "frame_size_ms": 50, "limit_config": { "period": 1, "max_frame_num": 22 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281" // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"   // 默认是客户端打断(按键说话)},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}

输入输出都是 OPUS

{ "id": "event_id", "event_type": "chat.update", "data": { "chat_config": { "auto_save_history": true, // 保存历史记录。默认 true "conversation_id": "", // 会话 ID。按需配置,可以不设置,不设置就去掉这行配置,不要传空!,你可以通过查看会话列表 API 的返回参数中获取 conversation_id。"user_id": "xxx",  // 标识当前与智能体的用户,由使用方自行定义、生成与维护。user_id 用于标识对话中的不同用户,不同的 user_id,其对话的上下文消息、数据库等对话记忆数据互相隔离。如果不需要用户数据隔离,可将此参数固定为一个任意字符串 "meta_data": {}, // 附加信息,通常用于封装一些业务相关的字段。查看对话消息详情时,系统会透传此附加信息。 "custom_variables": {}, // 智能体中定义的变量。在智能体prompt中设置变量{{key}}后,可以通过该参数传入变量值,同时支持Jinja2语法。详细说明可参考变量示例。变量名只支持英文字母和下划线。 "extra_params": {},   // 附加参数,通常用于特殊场景下指定一些必要参数供模型判断,例如指定经纬度,并询问智能体此位置的天气。自定义键值对格式,其中键(key)仅支持设置为:latitude:纬度,此时值(Value)为纬度值,例如39.9800718。longitude:经度,此时值(Value)为经度值,例如116.309314。 "parameters": {"custom_var_1": "测试"} }, "input_audio": {         // 输入音频格式 "format": "pcm",       // 输入音频格式,支持 PCM 格式 "codec": "opus",         // 输入音频编码。支持 pcm/g711a/g711u/opus。默认 pcm "sample_rate": 24000,  // 采样率 "channel": 1, // 通道数 "bit_depth": 16 // 位深 }, "output_audio": {        // 输出音频格式 "codec": "opus",     // 支持 pcm/g711a/g711u/opus。默认 pcm。如果是 g711a/g711u,pcm_config 的 sample_rate 只能是 8000 "opus_config": { "bitrate": 48000,   // 码率 "use_cbr": false,     // 是否使用 cbr 编码 "frame_size_ms": 60,   // 帧长(单位ms) "limit_config": { "period": 1,   // 周期(单位 s) "max_frame_num": 17 // 周期内返回最大 opus 帧数量 } }, "speech_rate": 0,  // 回复的语速,取值范围 [-50, 100],默认为 0,-50 表示 0.5 倍速,100 表示 2倍速 "voice_id": "7426720361733046281"   // 音色id,你可以通过查看音色列表 API 获取可用的音色,具体请参见https://www.coze.cn/open/docs/developer_guides/list_voices},"turn_detection": {"type": "server_vad"},"event_subscriptions": ["error","input_audio_buffer.speech_started","input_audio_buffer.speech_stopped","conversation.audio.delta","conversation.chat.failed"]} 
}
步骤三:开启录音

通过 input_audio_buffer.append 事件持续发送音频给扣子,事件的详细说明请参见流式上传音频片段。

如果上行是 PCM 编码的音频,每次发送 10ms ~ 20ms 的音频数据给扣子,例如每间隔 20ms,发送 20ms 的音频数据,对应字节数 = 采样率 * 位深/8 * 通道数 * 0.02。

如果上行是 OPUS 编码的音频,每次发送 20ms/40ms 帧长的 OPUS 音频数据是最优的选择。

步骤四:接收音频事件
  1. 收到扣子返回的 conversation.audio.delta 事件后,解析其中的 content 字段,进行 Base64 解码后获取二进制音频数据。事件说明请参见增量语音 。
  2. 将音频数据放入播放缓冲区队列,由单独的线程从缓冲区取音频数据进行播放。
步骤五:停止播放声音

设备端收到以下两个事件后,需要停止播放声音,并清空播放缓冲区:

  1. 收到扣子返回的 input_audio_buffer.speech_started 事件后,表示扣子服务端识别到用户正在说话。事件说明请参见用户开始说话。
  2. 收到扣子返回的 conversation.chat.canceled 事件后,表示扣子服务器打断了智能体说话。事件说明请参见智能体输出中断。
http://www.dtcms.com/wzjs/451548.html

相关文章:

  • 阿里巴巴数据分析官网昆明网络推广优化
  • php网站开发答辩问的问题线下推广方式有哪些
  • 淄博市住房和城乡建设局网站推广文案范例
  • 大型网站建设公司制作网站在线seo优化
  • 成人网站怎么做semi final
  • 长春集团网站建设nba排名榜
  • ppt链接网站怎么做的重庆seo管理平台
  • seo在线排名优化吉安seo招聘
  • 2015年做哪些网站致富万网官网域名注册
  • 沈阳做网站哪家便宜seo的课谁讲的好
  • 网站名称是网址吗深圳关键词排名推广
  • 如何做阿里巴巴免费网站十大免费网站推广入口
  • 单位服务器网站打不开淄博网站推广
  • 教做美甲的网站百度网站下拉排名
  • 商务网站建设实验百度百度地图
  • 网站的icp备案信息奶茶店推广软文500字
  • 深圳办公室租金广州网站优化步骤
  • 中国第一个做电商网站优化大师官方
  • 什么网站可以做免费广告海南seo
  • 河南建站网站seo站长助手
  • 厦门建设局网站首页6海外推广渠道都有哪些
  • 高淳哪家做网站不错营销渠道的概念
  • 贸易公司网站建设百度明星人气榜排名
  • 手机网页设计appseo外链技巧
  • 爱网站免费一站二站seo优化关键词
  • 在家用服务器做网站西安seo按天收费
  • 互联网开发工资一般多少seo推广公司价格
  • 伊春网站建设百度公司的发展历程
  • wordpress如何修改代码贵港seo关键词整站优化
  • erp开发和网站开发福州seo排名优化公司