实现智能语音识别服务

  • Post author:
  • Post category:其他


本文将在上一篇文章

Android Native SDK集成流程


基础之上介绍如何在Android端提供Dart调用的智能语音接口服务,以及如何实现Dart端和Native端之间的交互。



Dart端

asr_manager.dart

Dart端语音识别接口,调用Android端提供的语音接口服务,实现和Android端的消息交互。

class AsrManager {
  static const MethodChannel _channel = const MethodChannel("asr_plugin");

  /// 开始录音
  static Future<String> start({Map params}) async {
    return await _channel.invokeMethod("start", params ?? {});
  }

  /// 结束录音
  static Future<String> stop() async {
    return await _channel.invokeMethod("stop");
  }

  /// 取消录音
  static Future<String> cancel() async {
    return await _channel.invokeMethod("cancel");
  }
}



Native端



集成Flutter

在module工程的

build.gradle

中引入flutter配置。

def localProperties = new Properties()
def localPropertiesFile = rootProject.file('local.properties')
if (localPropertiesFile.exists()) {
    localPropertiesFile.withReader('UTF-8') { reader ->
        localProperties.load(reader)
    }
}

def flutterRoot = localProperties.getProperty('flutter.sdk')

dependencies {
    implementation fileTree(dir: 'libs', include: ['*.jar'])
    implementation 'androidx.appcompat:appcompat:1.1.0'
    implementation 'com.google.android.material:material:1.1.0'
    testImplementation 'junit:junit:4.+'
    androidTestImplementation 'androidx.test.ext:junit:1.1.1'
    androidTestImplementation 'androidx.test.espresso:espresso-core:3.2.0'

    compileOnly files("$flutterRoot//bin/cache/artifacts/engine/android-arm/flutter.jar")
}


解决flutter依赖冲突

app主工程和module工程同时配置了flutter依赖,所以需要解决依赖冲突。

在app工程的

build.gradle

添加如下配置:

defaultConfig {
	   // 解决app和module工程同时引入flutter依赖的冲突
        ndk {
            abiFilters "armeabi-v7a","arm64-v8a","x86_64","x86" //只打包flutter所支持的架构,flutter没有armeabi架构的so,加x86的原因是为了能够兼容模拟器
//            abiFilters "armeabi-v7a" //release 时只打"armeabi-v7包
        }
 }
 packagingOptions {
        // 确保app与asr_plugin都依赖的libflutter.so libapp.so merge时不冲突@https://github.com/card-io/card.io-Android-SDK/issues/186#issuecomment-427552552
        pickFirst 'lib/x86_64/libflutter.so'
        pickFirst 'lib/x86/libflutter.so'
        pickFirst 'lib/arm64-v8a/libflutter.so'
    }


功能实现

Native端在语音识别sdk基础上进行功能实现,并添加Flutter端插件,实现和Dart端的交互。

下面介绍Native端实现语音识别以及和Dart端消息交互的核心类。


  1. RecogEventAdapter.java


    监听语音SDK的事件回调,针对不同的回调事件对结果进行解析操作。

  2. AsrManager.java


    实现智能语音核心功能:调用sdk提供的功能,完成语音识别状态监听和回调

  3. OnAsrListener.java


    与SDK中回调参数的对应关系定义在RecogEventAdapter类中

  4. AsrPlugin.java


    自定义Flutter插件:接收来自Dart端的请求,并调用

    ResultStateful

    中提供的方法实现Dart端的结果回调

  5. ResultStateful.java


    对MethodChannel.Result进行包装,实现通知Dart端结果请求


插件注册

在app主工程的

MainActivity.java

中完成Flutter插件注册

public class MainActivity extends FlutterActivity {

    @Override
    protected void onCreate(@Nullable Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
    }

    @Override
    public void configureFlutterEngine(@NonNull FlutterEngine flutterEngine) {
        GeneratedPluginRegistrant.registerWith(flutterEngine);
        // flutter sdk >= v1.17.0 时使用下面方法注册自定义plugin
        AsrPlugin.registerWith(this,flutterEngine.getDartExecutor().getBinaryMessenger());
    }
}

下一篇文章将介绍Dart端如何使用Native提供的通用接口服务来实现语音搜索功能。



版权声明:本文为weixin_43800535原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。