微信小程序的基础库升级到了 1.6.0 之后,提供了许多新的 API,其中新增了 录音管理 的 API,不同于以前只有 wx.startRecord 和 wx.stopRecord 两个简单的录音功能,新的 wx.getRecorderManager 接口提供了包括扩展时长、采样率、录音通道、码率、格式等在内的许多配置项。基于此,我们能更加轻松的控制录音,新提供的 onFrameRecorded 的事件,甚至可以实现流式语音识别。
本文就介绍一下使用 Wafer Node.js SDK 提供的腾讯云智能语音识别接口来实现录音转文字的功能。请您先从 Github 下载 语音识别 Demo ,本文会根据 Demo 来介绍 SDK 中语音识别接口的使用。
使用语音识别需要开通腾讯云智能语音。
打开 server/config.js ,添加上 qcloudAppId , qcloudSecretId , qcloudSecretKey 三个配置项,并在代码目录中打开 CMD,运行如下代码:
cd server && npm i
安装完成依赖,选择小程序开发者工具右上角的【腾讯云】按钮,点击【上传测试环境】上传代码到测试环境中,一键部署程序。你也可以自行部署代码,部署过程同 《自行部署 Node.js Demo》 ,这里不再介绍。
最终实现的效果如下:
具体是如何实现的呢?接下来我们来分析一下 Demo 里的有关代码。
首先查阅 SDK API 文档可知,SDK 提供的语音识别接口是分片识别接口,原理是将语音文件切分成一个个分片,将每个分片以 buffer 格式传入接口,最后一个分片调用接口时需要将 isEnd 参数置为 true ,最后会返回完整的识别结果,以此来流式识别语音。
由于智能语音识别只支持以下几种编码格式的音频文件:
- pcm
- adpcm
- feature
- speex
- amr
- silk
- wav
所以小程序端通过 recorderManager 获取到的录音文件需要提前转换为这几种格式中的一种,然后才能识别。Demo 里选择了将 mp3 格式转换为 wav 格式文件的形式。
Demo 中采用了 ffmpeg 对语音文件进行转码,使用 ffmpeg 的前提是需要在环境中安装 ffmpeg ,然后在 Node.js 中使用 fluent-ffmpeg 调用 ffmpeg 实现转码。
注意: ffmpeg 并没有默认预装在开发环境和生产环境中,如果您需要使用语音识别的转码功能,可以提交工单,我们会为您配置好环境。
打开 Demo 中的 server/controllers/recognize.js 文件,首先调用了 multiparty 从请求体中读取出上传上来的音频数据,接着对语音的类型进行一些判断。
... const { files } = await resolveUploadFileFromRequest(ctx.req); ... if (!resultType || !['audio/mpeg', 'audio/mp3'].includes(resultType.mime)) { throw new Error('上传的文件格式不是 mp3') } ...
第 46 行开始对音频文件进行处理,首先先生成了 voiceId , voiceId 告诉了语音识别接口每个语音分片属于哪个语音,每个语音的 voiceId 应当是先进。
接着调用了 convertMp3ToWav 函数对语音进行转换, convertMp3ToWav 函数的实现如下:
/** * mp3 转 wav * @param {string} srcPath 源文件地址 * @param {string} newPath 新文件地址 */ function convertMp3ToWav (srcPath, newPath) { return new Promise((resolve, reject) => { ffmpeg(srcPath) .format('wav') .on('error', reject) .on('end', function () { resolve(newPath) }) .save(newPath) }) }
由于每次识别的文件大小较好不要超过 10K byte,所以需要对音频文件进行切片,原理就是将音频文件读取为 buffer,然后按每 9K byte 大小切片识别。
// 将文件读取为 Buffer const voiceBuffer = fs.readFileSync(newVoicePath); const taskList = []; let leftBufferSize = 0; let idx = 0; // 按 9K 大小切分分片并识别 while (leftBufferSize < voiceBuffer.length) { const newBufferSize = leftBufferSize + 9 * 1024; // 切分分片 const chunk = voiceBuffer.slice( leftBufferSize, newBufferSize > voiceBuffer.length ? voiceBuffer.length : newBufferSize ) // 提交每个切片去识别,并将任务推入任务列表 taskList.push( voice.recognize( chunk, newBufferSize > voiceBuffer.length, voiceId, idx ) ); leftBufferSize = newBufferSize; idx++; }
以上就是语音识别 Demo 代码的分析,您可以直接运行 Demo,在手机端 真机调试 体验。
注意:开发者工具的录音接口返回的数据不是 MP3 格式,与真机行为不完全相同,所以录音相关的测试请直接使用真机调试。
原创声明,本文系作者授权云+社区-专栏发表,未经许可,不得转载。
如有侵权,请联系zhuanlan_guanli@qq.com删除。
编辑于 15 小时前