最近項目剛剛交付级及,偶然間用到了語音播報和語音搜索的功能。語音搜索我用的是訊飛的demo,感覺效果還不錯额衙,感興趣的話可以去官網(wǎng)上面下載demo,里面講的特別的詳細(xì)饮焦,不過稍顯麻煩一些怕吴。語音播報訊飛也有demo,不過做開發(fā)當(dāng)然要尋求最簡潔的處理方式,ios7.0之后新添加了一些新的功能县踢,里面就有系統(tǒng)自帶的語音播報庫AVFoundation转绷。關(guān)于語音播報的文章其實挺多的。文本轉(zhuǎn)語音技術(shù),也叫TTS, 是Text To Speech的縮寫. iOS如果想做有聲書等功能的時候, 會用到這門技術(shù).
一硼啤,使用iOS自帶TTS需要注意的幾點:
iOS7之后才有該功能
需要 AVFoundation 庫
AVSpeechSynthesizer: 語音合成器, 可以假想成一個可以說話的人, 是最主要的接口
AVSpeechSynthesisVoice: 可以假想成人的聲音
AVSpeechUtterance: 可以假想成要說的一段話
二议经,代碼示例, 播放語音
//語音播報 AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:@"床前明月光,疑是地上霜谴返。"];? utterance.pitchMultiplier=0.8;? //中式發(fā)音 AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"zh-CN"]; //英式發(fā)音 // AVSpeechSynthesisVoice *voice = [AVSpeechSynthesisVoice voiceWithLanguage:@"en-GB"];? utterance.voice = voice;? NSLog(@"%@",[AVSpeechSynthesisVoice speechVoices]);? AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc]init];? [synth speakUtterance:utterance];
三爸业,AVSpeechSynthesizer介紹
這個類就像一個會說話的人, 可以”說話”, 可以”暫停”說話, 可以”繼續(xù)”說話, 可以判斷他當(dāng)前是否正在說話.有以下的方法或者屬性:
說話: speakUtterance
控制: continueSpeaking(繼續(xù)說), pauseSpeakingAtBoundary(暫停說話), paused(暫停狀態(tài)的屬性), speaking(說話的狀態(tài)), stopSpeakingAtBoundary(停止說話)
委托: delegate
四亏镰,AVSpeechBoundary介紹
這是一個枚舉. 在暫停, 或者停止說話的時候, 停下的方式用這個枚舉標(biāo)示. 包括兩種:
AVSpeechBoundaryImmediate: 立即停
AVSpeechBoundaryWord : 說完一個整詞再停
五扯旷,AVSpeechSynthesizerDelegate介紹
合成器的委托, 對于一些事件, 提供了響應(yīng)的接口.
didCancelSpeechUtterance: 已經(jīng)取消說話
didContinueSpeechUtterance: 已經(jīng)繼續(xù)說話
didFinishSpeechUtterance: 已經(jīng)說完
didPauseSpeechUtterance: 已經(jīng)暫停
didStartSpeechUtterance:已經(jīng)開始
willSpeakRangeOfSpeechString:將要說某段話
六,AVSpeechSynthesisVoice介紹
AVSpeechSynthesisVoice定義了一系列的聲音, 主要是不同的語言和地區(qū).
voiceWithLanguage: 根據(jù)制定的語言, 獲得一個聲音.
speechVoices: 獲得當(dāng)前設(shè)備支持的聲音
currentLanguageCode: 獲得當(dāng)前聲音的語言字符串, 比如”ZH-cn”
language: 獲得當(dāng)前的語言
七索抓,AVSpeechUtterance介紹
這個類就是一段要說的話. 主要的屬性和方法有:
pitchMultiplier: 音高
postUtteranceDelay: 讀完一段后的停頓時間
preUtteranceDelay: 讀一段話之前的停頓
rate: 讀地速度, 系統(tǒng)提供了三個速度: AVSpeechUtteranceMinimumSpeechRate, AVSpeechUtteranceMaximumSpeechRate, AVSpeechUtteranceDefaultSpeechRate
speechString: 要讀的字符串
voice: 使用的聲音, 是AVSpeechSynthesisVoice對象
上面這些是關(guān)于語音播報的基本用法和一些屬性钧忽、方法,但是如何結(jié)合程序推送逼肯,在程序后臺運行的時候?qū)崿F(xiàn)語音播報的效果呢耸黑?當(dāng)然還有很多需要注意的地方。
1.啟用推送喚醒
和上面的后臺獲取類似篮幢,更改Info.plist大刊,在UIBackgroundModes下加入remote-notification即可開啟,當(dāng)然同樣的更簡單直接的辦法是使用Capabilities三椿,勾選下面的三個modes缺菌。
2.更改推送的payload
在iOS7中,如果想要使用推送來喚醒應(yīng)用運行代碼的話搜锰,需要在payload中加入content-available伴郁,并設(shè)置為1。
{"aps":{"content-available":1,"alert":"今天是個好天氣"}}? "content-available":1推送喚醒? "alert":""推送內(nèi)容? "badge":1 app右上角數(shù)字? “sound”:”default” 默認(rèn)聲音? aps? {? content-available: 1? alert: {...}? }
3.實現(xiàn)推送喚醒代碼并通知系統(tǒng)
最后在appDelegate中實現(xiàn)-application:didReceiveRemoteNotification:fetchCompletionHandle:蛋叼。這部分內(nèi)容和上面的后臺獲取部分完全一樣焊傅,在此不再重復(fù)。
//接收到推送消息? - (void)application:(UIApplication *)application didReceiveRemoteNotification:(NSDictionary *)userInfo fetchCompletionHandler:(nonnull void (^)(UIBackgroundFetchResult))completionHandler {? NSLog(@"remote: %@", userInfo);? //回調(diào)? completionHandler(UIBackgroundFetchResultNewData);? //語音播報? AVSpeechUtterance *utterance = [AVSpeechUtterance speechUtteranceWithString:userInfo[@"aps"][@"alert"]];? AVSpeechSynthesizer *synth = [[AVSpeechSynthesizer alloc] init];? [synth speakUtterance:utterance];? }
完成以上步驟就可在后臺進行語音播報了狈涮。