更新记录

1.0.0(2023-06-25)

依赖微软cognitive-services-speech-sdk,提供安卓端语音识别和发音评估


平台兼容性

Android Android CPU类型 iOS
适用版本区间:6.0 - 12.0 armeabi-v7a:支持,arm64-v8a:支持,x86:未测试 ×

原生插件通用使用流程:

  1. 购买插件,选择该插件绑定的项目。
  2. 在HBuilderX里找到项目,在manifest的app原生插件配置中勾选模块,如需要填写参数则参考插件作者的文档添加。
  3. 根据插件作者的提供的文档开发代码,在代码中引用插件,调用插件功能。
  4. 打包自定义基座,选择插件,得到自定义基座,然后运行时选择自定义基座,进行log输出测试。
  5. 开发完毕后正式云打包

付费原生插件目前不支持离线打包。
Android 离线打包原生插件另见文档 https://nativesupport.dcloud.net.cn/NativePlugin/offline_package/android
iOS 离线打包原生插件另见文档 https://nativesupport.dcloud.net.cn/NativePlugin/offline_package/ios

注意事项:使用HBuilderX2.7.14以下版本,如果同一插件且同一appid下购买并绑定了多个包名,提交云打包界面提示包名绑定不一致时,需要在HBuilderX项目中manifest.json->“App原生插件配置”->”云端插件“列表中删除该插件重新选择


前置条件

申请微软SPEECH_KEY和SPEECH_REGION 申请资源

引入 App 原生语言插件

const SpeechRecognition = uni.requireNativePlugin("FY-SpeechRecognition");

开始识别

创建配置

let config ={
        "speechConfig":{
            "speechRegion":"you-region",
            "speechKey":"you-key",
            "language":"en-us"
        }
    }

口语评估配置

参数参考

config['assessmentConfig']={
            "referenceText": "good morning",
            "gradingSystem": "HundredMark",
            "granularity": "Phoneme",
            "phonemeAlphabet": "IPA"
        }

设置识别回调

SpeechRecognition.recognizeOnceAsync(config,result => {  
        //处理识别结果
        console.log(result)
    },e => {  
        console.log("stopped " + e)
    })

识别结果参考

结束识别

SpeechRecognition.stop()

隐私、权限声明

1. 本插件需要申请的系统权限列表:

android.permission.RECORD_AUDIO

2. 本插件采集的数据、发送的服务器地址、以及数据用途说明:

插件使用的com.microsoft.cognitiveservices.speech:client-sdk会采集数据,详情可参考:https://learn.microsoft.com/zh-cn/azure/cognitive-services/speech-service/speech-sdk

3. 本插件是否包含广告,如包含需详细说明广告表达方式、展示频率:

暂无用户评论。

使用中有什么不明白的地方,就向插件作者提问吧~ 我要提问