💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
> 编写: [kesenhoo](https://github.com/kesenhoo) - 原文: [http://developer.android.com/training/wearables/apps/voice.html](http://developer.android.com/training/wearables/apps/voice.html) 语音指令是可穿戴体验的一个重要的部分。这使得用户可以释放双手,快速发出指令。穿戴提供了2种类型的语音操作: - **系统提供的** 这些语音指令都是基于任务的,并且内置在Wear的平台内。我们在[activity](# "An activity represents a single screen with a user interface.")中过滤我们想要接收的指令。例如包含"Take a note" 或者 "Set an alarm"的指令。 - **应用提供的** 这些语音指令都是基于应用的,我们需要像声明一个Launcher Icon一样声明这些指令。用户通过说"Start "来使用那些语音指令,然后会启动我们指定启动的[activity](# "An activity represents a single screen with a user interface.")。 ### 声明系统提供的语音指令 Android Wear平台基于用户的操作提供了一些语音指令,例如"Take a note" 或者 "Set an alarm"。用户发出想要做的操作指令,让系统启动最合适的[activity](# "An activity represents a single screen with a user interface.")。 当用户说出语音指令时,我们的应用能够过滤出用于启动[activity](# "An activity represents a single screen with a user interface.")的intent。如果我们想要启动一个在后台执行任务的service,需要显示一个[activity](# "An activity represents a single screen with a user interface.")作为视觉线索,并且在该[activity](# "An activity represents a single screen with a user interface.")中启动service。当我们想要废弃这个视觉线索时,需要确保执行了finish()。 例如,对于"Take a note"的指令,声明下面这个intent filter来启动一个名为`MyNoteActivity`的[activity](# "An activity represents a single screen with a user interface."): ~~~ <activity android:name="MyNoteActivity"> <intent-filter> <action android:name="android.intent.action.SEND" /> <category android:name="com.google.android.voicesearch.SELF_NOTE" /> </intent-filter> </activity> ~~~ 下面列出了Wear平台支持的语音指令: ![voice_intent_1](https://box.kancloud.cn/2015-07-28_55b7247316450.png) ![voice_intent_2](https://box.kancloud.cn/2015-07-28_55b7247331ed9.png) ![voice_intent_3](https://box.kancloud.cn/2015-07-28_55b724734a766.png) 关于注册intent与获取intent extra的信息,请参考[Common intents](http://developer.android.com/guide/components/intents-common.html). ### 声明应用提供的语音指令 如果系统提供的语音指令无法满足我们的需求,我们可以使用"Start MyActivityName"语音指令来直接启动我们的应用。 注册一个"Start"指令的方法和注册手持应用上的Launcher Icon是一样的。除了在launcher里面需要一个应用图标,而我们的应用需要一个语音指令。 为了指定在"Start"指令之后需要说出的文本, 我们需要指定想要启动的[activity](# "An activity represents a single screen with a user interface.")的`label`属性。例如,下面的intent filter能够识别"Start MyRunningApp"语音指令并启动`StartRunActivity`。 ~~~ <application> <activity android:name="StartRunActivity" android:label="MyRunningApp"> <intent-filter> <action android:name="android.intent.action.MAIN" /> <category android:name="android.intent.category.LAUNCHER" /> </intent-filter> </activity> </application> ~~~ ### 获取自由格式的语音输入 除了使用语音指令来启动[activity](# "An activity represents a single screen with a user interface.")之外,我们也可以执行系统内置的语言识别[activity](# "An activity represents a single screen with a user interface.")来获取用户的语音输入。这对于获取用户的输入信息非常有帮助,例如执行搜索或者发送一个消息。 在我们的应用中,使用[ACTION_RECOGNIZE_SPEECH](http://developer.android.com/reference/android/speech/RecognizerIntent.html#ACTION_RECOGNIZE_SPEECH) action并调用[startActivityForResult()](http://developer.android.com/reference/android/app/Activity.html#startActivityForResult(android.content.Intent, int))。这样可以启动系统语音识别应用,并且我们可以在[onActivityResult()](http://developer.android.com/reference/android/app/Activity.html#onActivityResult(int, int, android.content.Intent))中处理返回的结果: ~~~ private static final int SPEECH_REQUEST_CODE = 0; // Create an intent that can start the Speech Recognizer activity private void displaySpeechRecognizer() { Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH); intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL, RecognizerIntent.LANGUAGE_MODEL_FREE_FORM); // Start the activity, the intent will be populated with the speech text startActivityForResult(intent, SPEECH_REQUEST_CODE); } // This callback is invoked when the Speech Recognizer returns. // This is where you process the intent and extract the speech text from the intent. @Override protected void onActivityResult(int requestCode, int resultCode, Intent data) { if (requestCode == SPEECH_REQUEST && resultCode == RESULT_OK) { List<String> results = data.getStringArrayListExtra( RecognizerIntent.EXTRA_RESULTS); String spokenText = results.get(0); // Do something with spokenText } super.onActivityResult(requestCode, resultCode, data); } ~~~