iOS10語音識別框架SpeechFramework應用

iOS10語音識別框架SpeechFramework應用

1、引言

        iOS10系統是一個較有突破性的系統,其在Message,Notification等方面都開放了不少實用性的開發接口。本篇博客將主要探討iOS10中新引入的SpeechFramework框架。有個這個框架,開發者能夠十分容易的爲本身的App添加語音識別功能,不須要再依賴於其餘第三方的語音識別服務,而且,Apple的Siri應用的強大也證實了Apple的語音服務是足夠強大的,不經過第三方,也大大加強了用戶的安全性。數組

2、SpeechFramework框架中的重要類

        SpeechFramework框架比較輕量級,其中的類並不十分冗雜,在學習SpeechFramework框架前,咱們須要對其中類與類與類之間的關係有個大體的熟悉瞭解。安全

SFSpeechRecognizer:這個類是語音識別的操做類,用於語音識別用戶權限的申請,語言環境的設置,語音模式的設置以及向Apple服務發送語音識別的請求。app

SFSpeechRecognitionTask:這個類是語音識別服務請求任務類,每個語音識別請求均可以抽象爲一個SFSpeechRecognitionTask實例,其中SFSpeechRecognitionTaskDelegate協議中約定了許多請求任務過程當中的監聽方法。框架

SFSpeechRecognitionRequest:語音識別請求類,須要經過其子類來進行實例化。ide

SFSpeechURLRecognitionRequest:經過音頻URL來建立語音識別請求。學習

SFSpeechAudioBufferRecognitionRequest:經過音頻流來建立語音識別請求。atom

SFSpeechRecognitionResult:語音識別請求結果類。spa

SFTranscription:語音轉換後的信息類。代理

SFTranscriptionSegment:語音轉換中的音頻節點類。code

        瞭解了上述類的做用於其之間的聯繫,使用SpeechFramework框架將十分容易。

3、申請用戶語音識別權限與進行語音識別請求

        開發者若要在本身的App中使用語音識別功能,須要獲取用戶的贊成。首先須要在工程的Info.plist文件中添加一個Privacy-Speech Recognition Usage Description鍵,其實須要對應一個String類型的值,這個值將會在系統獲取權限的警告框中顯示,Info.plist文件以下圖所示:

使用SFSpeechRecognize類的requestAuthorization方法來進行用戶權限的申請,用戶的反饋結果會在這個方法的回調block中傳入,以下:

//申請用戶語音識別權限
  [SFSpeechRecognizer requestAuthorization:^(SFSpeechRecognizerAuthorizationStatus status) {     
  }];

SFSpeechRecognizerAuthorzationStatus枚舉中定義了用戶的反饋結果,以下:

typedef NS_ENUM(NSInteger, SFSpeechRecognizerAuthorizationStatus) {
    //結果未知 用戶還沒有進行選擇
    SFSpeechRecognizerAuthorizationStatusNotDetermined,
    //用戶拒絕受權語音識別
    SFSpeechRecognizerAuthorizationStatusDenied,
    //設備不支持語音識別功能
    SFSpeechRecognizerAuthorizationStatusRestricted,
    //用戶受權語音識別
    SFSpeechRecognizerAuthorizationStatusAuthorized,
};

        若是申請用戶語音識別權限成功,開發者能夠經過SFSpeechRecognizer操做類來進行語音識別請求,示例以下:

//建立語音識別操做類對象
    SFSpeechRecognizer * rec = [[SFSpeechRecognizer alloc]init];
    //經過一個音頻路徑建立音頻識別請求
    SFSpeechRecognitionRequest * request = [[SFSpeechURLRecognitionRequest alloc]initWithURL:[[NSBundle mainBundle] URLForResource:@"7011" withExtension:@"m4a"]];
    //進行請求
    [rec recognitionTaskWithRequest:request resultHandler:^(SFSpeechRecognitionResult * _Nullable result, NSError * _Nullable error) {
        //打印語音識別的結果字符串
        NSLog(@"%@",result.bestTranscription.formattedString);
    }];

4、深刻SFSpeechRecognizer類

        SFSpeechRecognizer類的主要做用是申請權限,配置參數與進行語音識別請求。其中比較重要的屬性與方法以下:

//獲取當前用戶權限狀態
+ (SFSpeechRecognizerAuthorizationStatus)authorizationStatus;
//申請語音識別用戶權限
+ (void)requestAuthorization:(void(^)(SFSpeechRecognizerAuthorizationStatus status))handler;
//獲取所支持的全部語言環境
+ (NSSet<NSLocale *> *)supportedLocales;
//初始化方法 須要注意 這個初始化方法將默認以設備當前的語言環境做爲語音識別的語言環境
- (nullable instancetype)init;
//初始化方法 設置一個特定的語言環境
- (nullable instancetype)initWithLocale:(NSLocale *)locale NS_DESIGNATED_INITIALIZER;
//語音識別是否可用
@property (nonatomic, readonly, getter=isAvailable) BOOL available;
//語音識別操做類協議代理
@property (nonatomic, weak) id<SFSpeechRecognizerDelegate> delegate;
//設置語音識別的配置參數 須要注意 在每一個語音識別請求中也有這樣一個屬性 這裏設置將做爲默認值
//若是SFSpeechRecognitionRequest對象中也進行了設置 則會覆蓋這裏的值
/*
typedef NS_ENUM(NSInteger, SFSpeechRecognitionTaskHint) {
    SFSpeechRecognitionTaskHintUnspecified = 0,     // 無定義
    SFSpeechRecognitionTaskHintDictation = 1,       // 正常的聽寫風格
    SFSpeechRecognitionTaskHintSearch = 2,          // 搜索風格
    SFSpeechRecognitionTaskHintConfirmation = 3,    // 短語風格
};
*/
@property (nonatomic) SFSpeechRecognitionTaskHint defaultTaskHint;
//使用回調Block的方式進行語音識別請求 請求結果會在Block中傳入
- (SFSpeechRecognitionTask *)recognitionTaskWithRequest:(SFSpeechRecognitionRequest *)request
                                          resultHandler:(void (^)(SFSpeechRecognitionResult * __nullable result, NSError * __nullable error))resultHandler;
//使用代理回調的方式進行語音識別請求
- (SFSpeechRecognitionTask *)recognitionTaskWithRequest:(SFSpeechRecognitionRequest *)request
                                               delegate:(id <SFSpeechRecognitionTaskDelegate>)delegate;
//設置請求所佔用的任務隊列
@property (nonatomic, strong) NSOperationQueue *queue;

SFSpeechRecognizerDelegate協議中只約定了一個方法,以下:

//當語音識別操做可用性發生改變時會被調用
- (void)speechRecognizer:(SFSpeechRecognizer *)speechRecognizer availabilityDidChange:(BOOL)available;

        經過Block回調的方式進行語音識別請求十分簡單,若是使用代理回調的方式,開發者須要實現SFSpeechRecognitionTaskDelegate協議中的相關方法,以下:

//當開始檢測音頻源中的語音時首先調用此方法
- (void)speechRecognitionDidDetectSpeech:(SFSpeechRecognitionTask *)task;
//當識別出一條可用的信息後 會調用
/*
須要注意,apple的語音識別服務會根據提供的音頻源識別出多個可能的結果 每有一條結果可用 都會調用此方法
*/
- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didHypothesizeTranscription:(SFTranscription *)transcription;
//當識別完成全部可用的結果後調用
- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didFinishRecognition:(SFSpeechRecognitionResult *)recognitionResult;
//當再也不接受音頻輸入時調用 即開始處理語音識別任務時調用
- (void)speechRecognitionTaskFinishedReadingAudio:(SFSpeechRecognitionTask *)task;
//當語音識別任務被取消時調用
- (void)speechRecognitionTaskWasCancelled:(SFSpeechRecognitionTask *)task;
//語音識別任務完成時被調用
- (void)speechRecognitionTask:(SFSpeechRecognitionTask *)task didFinishSuccessfully:(BOOL)successfully;

        SFSpeechRecognitionTask類中封裝了屬性和方法以下:

//此任務的當前狀態
/*
typedef NS_ENUM(NSInteger, SFSpeechRecognitionTaskState) {
    SFSpeechRecognitionTaskStateStarting = 0,       // 任務開始
    SFSpeechRecognitionTaskStateRunning = 1,        // 任務正在運行
    SFSpeechRecognitionTaskStateFinishing = 2,      // 不在進行音頻讀入 即將返回識別結果
    SFSpeechRecognitionTaskStateCanceling = 3,      // 任務取消
    SFSpeechRecognitionTaskStateCompleted = 4,      // 全部結果返回完成
};
*/
@property (nonatomic, readonly) SFSpeechRecognitionTaskState state;
//音頻輸入是否完成
@property (nonatomic, readonly, getter=isFinishing) BOOL finishing;
//手動完成音頻輸入 再也不接收音頻
- (void)finish;
//任務是否被取消
@property (nonatomic, readonly, getter=isCancelled) BOOL cancelled;
//手動取消任務
- (void)cancel;

        關於音頻識別請求類,除了可使用SFSpeechURLRecognitionRequest類來進行建立外,還可使用SFSpeechAudioBufferRecognitionRequest類來進行建立:

@interface SFSpeechAudioBufferRecognitionRequest : SFSpeechRecognitionRequest

@property (nonatomic, readonly) AVAudioFormat *nativeAudioFormat;
//拼接音頻流
- (void)appendAudioPCMBuffer:(AVAudioPCMBuffer *)audioPCMBuffer;
- (void)appendAudioSampleBuffer:(CMSampleBufferRef)sampleBuffer;
//完成輸入
- (void)endAudio;

@end

5、語音識別結果類SFSpeechRecognitionResult

        SFSpeechRecognitionResult類是語音識別結果的封裝,其中包含了許多套平行的識別信息,其每一份識別信息都有可信度屬性來描述其準確程度。SFSpeechRecognitionResult類中屬性以下:

//識別到的多套語音轉換信息數組 其會按照準確度進行排序
@property (nonatomic, readonly, copy) NSArray<SFTranscription *> *transcriptions;
//準確性最高的識別實例
@property (nonatomic, readonly, copy) SFTranscription *bestTranscription;
//是否已經完成 若是YES 則全部全部識別信息都已經獲取完成
@property (nonatomic, readonly, getter=isFinal) BOOL final;

SFSpeechRecognitionResult類只是語音識別結果的一個封裝,真正的識別信息定義在SFTranscription類中,SFTranscription類中屬性以下:

//完整的語音識別準換後的文本信息字符串
@property (nonatomic, readonly, copy) NSString *formattedString;
//語音識別節點數組
@property (nonatomic, readonly, copy) NSArray<SFTranscriptionSegment *> *segments;

當對一句完整的話進行識別時,Apple的語音識別服務實際上會把這句語音拆分紅若干個音頻節點,每一個節點可能爲一個單詞,SFTranscription類中的segments屬性就存放這些節點。SFTranscriptionSegment類中定義的屬性以下:

//當前節點識別後的文本信息
@property (nonatomic, readonly, copy) NSString *substring;
//當前節點識別後的文本信息在總體識別語句中的位置
@property (nonatomic, readonly) NSRange substringRange;
//當前節點的音頻時間戳
@property (nonatomic, readonly) NSTimeInterval timestamp;
//當前節點音頻的持續時間
@property (nonatomic, readonly) NSTimeInterval duration;
//可信度/準確度 0-1之間
@property (nonatomic, readonly) float confidence;
//關於此節點的其餘可能的識別結果 
@property (nonatomic, readonly) NSArray<NSString *> *alternativeSubstrings;

舒適提示:SpeechFramework框架在模擬器上運行會出現異常狀況,沒法進行語音識別請求。會報出kAFAssistantErrorDomain的錯誤,還望有知道解決方案的朋友,給些建議,Thanks。

專一技術,熱愛生活,交流技術,也作朋友。

——琿少 QQ羣:203317592

相關文章
相關標籤/搜索