【从零之三(更)】自定义类中调用讯飞语音包错误解决办法

本文详细介绍了如何将科大讯飞语音包中的方法从Activity移动到自定义类中,并通过继承Application类获取Context对象。同时,文章解释了如何使用SharedPreferences来配置语音合成参数,以及如何在自定义类中调用语音合成方法。此外,文章还指导如何在Manifest文件中添加自定义类的位置,确保应用正确运行。最终,通过主函数创建自定义类的对象并调用相关方法,实现了语音合成功能。

原文:http://blog.youkuaiyun.com/monkeyduck/article/details/24302655

在科大讯飞语音包的Mscdemo中它的方法都是写在Activity中的,这样其实并不是很好,因为Activity只是负责UI交互的,如果项目很简单自然可以,但是一旦比较复杂肯定要自己定义很多包很多类,但是写在Activity中的方法就不能被自己定义的类调用了,咋办尼,那就把方法写在自己的类里就行了。
准备工作:把Msc.jar包和libmsc.so拷贝到自己工程的libs目录下,这样才能用它的方法和类。libmsc.so一定要用自己Id下载的包,因为这个包和你的那个appid是绑定的,拷贝别人的是不行的,会有用户校验失败的错误,我就困扰了很久很久。。。

以语音合成方法为例,我在自己的应用程序中需要调用它的合成函数,所以在自己的类里调用了它的synthetizeInSilence()方法。如下

 

[java]  view plain copy 在CODE上查看代码片 派生到我的代码片
 
  1. /** 
  2.  * 使用SpeechSynthesizer合成语音,不弹出合成Dialog. 
  3. * @param 
  4. */  
  5. private void synthetizeInSilence() {  
  6.     if (null == mSpeechSynthesizer) {  
  7.             //创建合成对象.  
  8.             mSpeechSynthesizer = SpeechSynthesizer.createSynthesizer(this);  
  9.         }  
  10.         //设置合成发音人.  
  11.         String role = mSharedPreferences.getString(  
  12.                 getString(R.string.preference_key_tts_role),  
  13.                 getString(R.string.preference_default_tts_role));  
  14.           
  15.         //设置发音人  
  16.         mSpeechSynthesizer.setParameter(SpeechConstant.VOICE_NAME, role);  
  17.         //获取语速  
  18.         int speed = mSharedPreferences.getInt(  
  19.                 getString(R.string.preference_key_tts_speed),  
  20.                 50);  
  21.         //设置语速  
  22.         mSpeechSynthesizer.setParameter(SpeechConstant.SPEED, ""+speed);  
  23.         //获取音量.  
  24.         int volume = mSharedPreferences.getInt(  
  25.                 getString(R.string.preference_key_tts_volume),  
  26.                 50);  
  27.         //设置音量  
  28.         mSpeechSynthesizer.setParameter(SpeechConstant.VOLUME, ""+volume);  
  29.         //获取语调  
  30.         int pitch = mSharedPreferences.getInt(  
  31.                 getString(R.string.preference_key_tts_pitch),  
  32.                 50);  
  33.         //设置语调  
  34.         mSpeechSynthesizer.setParameter(SpeechConstant.PITCH, ""+pitch);  
  35.         //获取合成文本.  
  36.         Editable editable = mSourceText.getText();  
  37.         String source = null;  
  38.         if (null != editable) {  
  39.             source = editable.toString();  
  40.         }  
  41.         //进行语音合成.  
  42.         mSpeechSynthesizer.startSpeaking(source, this);  
  43.         showTip(String.format(getString(R.string.tts_toast_format),0 ,0));  
  44.     }  


这里会遇到几个问题,一个是SpeechSynthesizer.createSynthesizer(this)方法中的this源程序是指Activity对象,因为这个参数要求是Context,即上下文对象,在Activity里可以写this,在自己类里写this就成指代类对象,自然报错了。解决办法是将自己的类继承Application,可以用getApplicationContext()方法获取Context对象。第二个错误就是mSharedPreferences,这里是定义很多参数,可有可无,不定义就用默认值,想定义就直接调用setParameter就可以了,在这偷个懒就用其默认值了,修改后的类书写如下。

 

 

[java]  view plain copy 在CODE上查看代码片 派生到我的代码片
 
  1. package dmcore.outputs;  
  2. import android.app.Application;  
  3. import android.content.Context;  
  4.   
  5. import com.iflytek.cloud.speech.SpeechError;  
  6. import com.iflytek.cloud.speech.SpeechSynthesizer;  
  7. import com.iflytek.cloud.speech.SynthesizerListener;  
  8.   
  9. public class MyOutput extends Application implements SynthesizerListener{  
  10.     //缓存对象.  
  11.     //private SharedPreferences mSharedPreferences;  
  12.     //合成对象.  
  13.     private SpeechSynthesizer mSpeechSynthesizer;  
  14.     private static Context context;   
  15.   
  16.     public void onCreate() {  
  17.         super.onCreate();  
  18.         MyOutput.context = getApplicationContext();  
  19.     }  
  20.   
  21.     public static Context getAppContext() {  
  22.         return MyOutput.context;  
  23.     }  
  24.       
  25.     //-------------------------------------------------------------------------  
  26.     // Constructor  
  27.     //-------------------------------------------------------------------------  
  28.     public MyOutput(){  
  29.           
  30.     }  
  31.     public void SetParameter(){  
  32.         if (mSpeechSynthesizer == null) {  
  33.             //创建合成对象.  
  34.             mSpeechSynthesizer = SpeechSynthesizer.createSynthesizer(context);  
  35.         }  
  36.         /*//设置合成发音人. 
  37.         String role = mSharedPreferences.getString( 
  38.                 getString(R.string.preference_key_tts_role), 
  39.                 getString(R.string.preference_default_tts_role)); 
  40.          
  41.         //设置发音人 
  42.         mSpeechSynthesizer.setParameter(SpeechConstant.VOICE_NAME, role); 
  43.         //获取语速 
  44.         int speed = mSharedPreferences.getInt( 
  45.                 getString(R.string.preference_key_tts_speed), 
  46.                 50); 
  47.         //设置语速 
  48.         mSpeechSynthesizer.setParameter(SpeechConstant.SPEED, ""+speed); 
  49.         //获取音量. 
  50.         int volume = mSharedPreferences.getInt( 
  51.                 getString(R.string.preference_key_tts_volume), 
  52.                 50); 
  53.         //设置音量 
  54.         mSpeechSynthesizer.setParameter(SpeechConstant.VOLUME, ""+volume); 
  55.         //获取语调 
  56.         int pitch = mSharedPreferences.getInt( 
  57.                 getString(R.string.preference_key_tts_pitch), 
  58.                 50); 
  59.         //设置语调 
  60.         mSpeechSynthesizer.setParameter(SpeechConstant.PITCH, ""+pitch);*/  
  61.     }  
  62.     /** 
  63.      * 使用SpeechSynthesizer合成语音,不弹出合成Dialog. 
  64.      * @param 
  65.      */  
  66.     public void synthetizeInSilence(String SourceText) {  
  67.         //进行语音合成.  
  68.         mSpeechSynthesizer.startSpeaking(SourceText, this);  
  69.     }  
  70.       
  71.     @Override  
  72.     public void onBufferProgress(int arg0, int arg1, int arg2, String arg3) {  
  73.         // TODO Auto-generated method stub  
  74.           
  75.     }  
  76.     @Override  
  77.     public void onCompleted(SpeechError arg0) {  
  78.         // TODO Auto-generated method stub  
  79.           
  80.     }  
  81.     @Override  
  82.     public void onSpeakBegin() {  
  83.         // TODO Auto-generated method stub  
  84.           
  85.     }  
  86.     @Override  
  87.     public void onSpeakPaused() {  
  88.         // TODO Auto-generated method stub  
  89.           
  90.     }  
  91.     @Override  
  92.     public void onSpeakProgress(int arg0, int arg1, int arg2) {  
  93.         // TODO Auto-generated method stub  
  94.           
  95.     }  
  96.     @Override  
  97.     public void onSpeakResumed() {  
  98.         // TODO Auto-generated method stub  
  99.           
  100.     }  
  101. }  


注意!!!还没完,要到Manifest.xml文件的application标签里加上你的类的位置,我的是android:name="dmcore.outputs.MyOutput",当然还要加上那些uses-permission,如下:
<uses-permission
android:name="android.permission.RECORD_AUDIO" />
<uses-permission
android:name="android.permission.INTERNET" />
<uses-permission
android:name="android.permission.ACCESS_NETWORK_STATE" />
<uses-permission
android:name="android.permission.ACCESS_WIFI_STATE" />
<uses-permission
android:name="android.permission.CHANGE_NETWORK_STATE" />
<uses-permission
android:name="android.permission.READ_PHONE_STATE" />
<uses-permission 
android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
<uses-permission 
android:name="android.permission.READ_CONTACTS"/>

主函数中先创建MyOutput对象,再调用SetParameter方法,再调用synthetizeInSilence()方法,参数传入你想输出的话,大功告成!!!

转载于:https://www.cnblogs.com/tc310/p/3995972.html

<think>好的,我现在需要解决用户提出的问题:语音唤醒在热中无效的问题。用户希望找到解决方案。首先,我需要理解这个问题的背景和可能的原因。 语音唤醒功能通常依赖于本地的原生库和资源文件。当应用进行热新时,可能只新了部分的代码或资源,而没有含必要的原生组件。热新通常是通过动态加载补丁或资源来实现的,但某些功能,比如涉及硬件或底层系统调用的模块,可能需要完整的原生库支持,这在热中可能没有被正确含。 接下来,我需要分析可能的原因。首先,检查热是否遗漏了语音相关的.so文件或者配置文件。这些文件如果没有被打进去,会导致功能失效。其次,热新的代码可能没有正确初始化SDK,或者在加载时路径不正确,导致无法找到需要的资源。另外,权限问题也是一个可能性,热新后的应用可能缺少必要的权限,比如麦克风权限,导致唤醒功能无法启用。 然后,我需要考虑解决方案。首先,确保热含所有必要的原生库和资源文件,检查打脚本是否正确处理了这些文件。其次,验证热新后的代码是否正确初始化了SDK,特别是路径配置是否正确。可能需要在热新后重新初始化SDK或检查文件路径是否可访问。此外,检查应用权限是否在热新后被修改,可能需要动态申请权限或确保权限未被撤销。 还需要查看官方文档或社区,看看是否有关于热新兼容性的特别说明,或者是否有其他开发者遇到类似问题及其解决方法。可能还需要在热新后测试语音唤醒功能,查看日志输出,定位具体的错误信息,比如加载失败、权限拒绝等。 最后,综合这些可能性,给出步骤性的解决方案,括检查文件完整性、验证初始化流程、检查权限、查看日志和联系技术支持等步骤。同时,提醒用户在热新中处理原生库的注意事项,可能需要通过完整的APK新来确保稳定性。</think>关于语音唤醒功能在热失效的问题,可通过以下步骤排查与解决: --- ### 一、核心原因分析 1. **原生库缺失** 语音唤醒依赖.so文件(如`libmsc.so`),热若未含或未正确加载这些文件,会导致功能失效[^1]。 2. **资源配置路径错误** 热新后资源文件(如唤醒词文件`ivw_xxxx.jet`)可能未被正确释放到`assets`或指定目录,导致SDK初始化失败。 3. **权限动态申请失效** 热新可能触发系统权限回收机制,未重新申请`RECORD_AUDIO`权限或未检查权限状态[^2]。 4. **SDK初始化时序问题** 热新后的代码可能未在正确生命周期(如`Application.onCreate`)初始化语音组件。 --- ### 二、解决方案 #### 步骤1:验证文件完整性 - **检查热内容** 确认含以下文件: ``` /libs/armeabi-v7a/libmsc.so /assets/ivw_xxxx.jet /res/raw/xxx.wak(如有自定义唤醒词) ``` 需通过差分对比工具(如bsdiff)确保文件同步。 #### 步骤2:修复初始化流程 - **强制重新初始化SDK** 在热新完成后调用: ```java // 销毁原有实例 SpeechUtility.destroy(); // 重新初始化(确保AppID和路径正确) SpeechUtility.createUtility(context, "appid=YOUR_APP_ID,engine_mode=ivw"); ``` #### 步骤3:动态申请权限 - 在热新完成后触发权限检查: ```java if (ContextCompat.checkSelfPermission(this, Manifest.permission.RECORD_AUDIO) != PackageManager.PERMISSION_GRANTED) { ActivityCompat.requestPermissions(this, new String[]{Manifest.permission.RECORD_AUDIO}, REQUEST_CODE); } ``` #### 步骤4:日志诊断 - 过滤日志关键字`IvwRecognizer`,检查是否报错: ``` adb logcat | grep "IvwRecognizer" ``` 常见错误示例: ``` E/IvwRecognizer: [ivw] wakeup resource not found // 唤醒词文件路径错误 E/AudioRecord: startRecording() failed // 麦克风权限未开启 ``` --- ### 三、扩展建议 1. **热新框架兼容性** 若使用Tinker或Sophix,需在`build.gradle`中配置`ndk { abiFilters "armeabi-v7a" }`避免SO库冲突。 2. **唤醒词文件热新** 若需动态新唤醒词,需通过接口`IvwRecognizer.setParameter`重新指定路径: ```java IvwRecognizer recognizer = IvwRecognizer.createRecognizer(context, null); recognizer.setParameter(SpeechConstant.IVW_RES_PATH, "新的唤醒词文件绝对路径"); ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值