AVPlayer
是蘋果提供的用來管理多媒體播放的控制器橙喘,提供了播放所需要的控制接口和支持KVO的屬性,支持播放本地和網絡視頻言秸,以及實時視頻流。它一次只能播放一個AVPlayerItem迎捺,如果需要切換媒體源举畸,需要使用replaceCurrentItem(with:)
函數。如果需要播放多個視頻凳枝,可以考慮使用AVQueuePlayer
抄沮。在不同性能的設備上,甚至相同設備的不同iOS版本上岖瑰,AVPlayer的最大支持清晰度都會不一樣叛买,例如在iOS10的某些機器上不支持4k播放,但是到iOS11就支持了蹋订,關于測定視頻是否可以用AVPlayer來解碼率挣,可以直接在safari中輸入視頻網址來測試。
如果只需要播放視頻露戒,可以直接使用CALayer
的子類AVPlayerLayer
椒功。這里不做過多的說明捶箱,可以查看蘋果的Demo代碼。
這里主要說明從AVPlayerOutput
中獲取視頻紋理的以用于OpenGl
的下一步處理动漾。
進度丁屎、播放狀態(tài)控制
播放信息監(jiān)聽
利用KVO和通知中心監(jiān)聽以下Key
即可,雖然KVO的機制不太推薦使用旱眯,但是看了官方文檔晨川,確實說這么用。
//已緩存進度
self.playerItem!.addObserver(self, forKeyPath: "loadedTimeRanges", options: NSKeyValueObservingOptions.new, context: nil)
//狀態(tài)改變
self.playerItem!.addObserver(self, forKeyPath: "status", options: NSKeyValueObservingOptions.new, context: nil)
//緩沖
self.playerItem!.addObserver(self, forKeyPath: "playbackBufferEmpty", options: NSKeyValueObservingOptions.new, context: nil)
//緩沖可播
self.playerItem!.addObserver(self, forKeyPath: "playbackLikelyToKeepUp", options: NSKeyValueObservingOptions.new, context: nil)
//播放完成
NotificationCenter.default.addObserver(self, selector: #selector(didPlayToEnd(notify:)), name: NSNotification.Name.AVPlayerItemDidPlayToEndTime, object: nil)
狀態(tài)控制
所有的狀態(tài)控制都需要在AVPlayerItemStatus
變成readyToPlay
的時候才可以使用删豺,并且只有這個時候可以取到視頻的Size共虑,所以在KVO的回調里
if keyPath == "status"{
switch (object as! AVPlayerItem).status {
case .readyToPlay:
// 只有在這個狀態(tài)下才能播放
//準備就緒
let pixelBuffer:CVPixelBuffer? = self.videoOutPut.copyPixelBuffer(forItemTime:(self.playerItem!.currentTime()), itemTimeForDisplay: nil)
if(pixelBuffer != nil){
//獲取size
let width:Int = CVPixelBufferGetWidth(pixelBuffer!)
let height:Int = CVPixelBufferGetHeight(pixelBuffer!)
self.playerItem?.videoSize = CGSize.init(width: width, height: height)
}
self.notify(state: .prepared)
if(self.shouldPlayAfterPrepared)
{
self.play()
}
case .unknown:
self.notify(state: .unknown)
//print("視頻加載未知錯誤")
case .failed:
self.notify(state: .failed,error: self.avPlayer?.error)
//print("視頻加載錯誤,\(String(describing: self.avPlayer?.error))")
}
}
如果播放遇到錯誤可以用self.avPlayer?.error
來查看錯誤類型。
輸出紋理
YUV紋理
由于視頻的編碼格式基本都是YUV420
吼鳞,可以查看蘋果的Demo代碼 ,通過AVPlayerItemVideoOutput
獲取Y-Pannel
和UV-Pannel
兩張紋理看蚜,最后在Shader中對兩種紋理組合處理。
設置AVPlayerItemVideoOutput
的部分代碼
NSDictionary *pixBuffAttributes = @{(id)kCVPixelBufferPixelFormatTypeKey: @(kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange)};
self.videoOutput = [[AVPlayerItemVideoOutput alloc] initWithPixelBufferAttributes:pixBuffAttributes];
輸出紋理的部分代碼
//Y-Plane
glActiveTexture(GL_TEXTURE0);
err = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, _videoTextureCache, pixelBuffer, NULL, GL_TEXTURE_2D, GL_RED_EXT, frameWidth, frameHeight, GL_RED_EXT, GL_UNSIGNED_BYTE, 0, &_lumaTexture);
//UV-plane
glActiveTexture(GL_TEXTURE1);
err = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, _videoTextureCache, pixelBuffer, NULL, GL_TEXTURE_2D, GL_RG_EXT, frameWidth / 2, frameHeight / 2, GL_RG_EXT, GL_UNSIGNED_BYTE, 1, &_chromaTexture);
其中的kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange
是CoreVideo中指定的Pixel Format Identifiers 類型赔桌,在OpenGLES2
環(huán)境下其對應的參數是GL_RED_EXT
和GL_RG_EXT
供炎。視頻支持的PixelFormat格式如下
獲取紋理之后,還要使用Shader混合兩張紋理疾党,片元著色器(.fsh)代碼如下
void main()
{
mediump vec3 yuv;
lowp vec3 rgb;
// Subtract constants to map the video range start at 0
yuv.x = (texture2D(SamplerY, texCoordVarying).r - (16.0/255.0))* lumaThreshold;
yuv.yz = (texture2D(SamplerUV, texCoordVarying).rg - vec2(0.5, 0.5))* chromaThreshold;
rgb = colorConversionMatrix * yuv;
gl_FragColor = vec4(rgb,1);
}
RGB紋理
首先要明白一點音诫,上圖中明確說明,BGRA
的輸出格式是420v
的兩倍多帶寬(More than 2x bandwidth)雪位,并且在該圖來源,WWDC的這個視頻的27:00
位置明確說明420v的輸出格式效率會明顯高于BGRA的輸出格式(It does come across if you can avoid using BGRA and doing your work in YUV, it's more efficient from bandwidth standpoint),但是反過來竭钝,對于OpenGL來說,兩張紋理的性能又會低于一張紋理雹洗。而且直接使用使用BGRA
畢竟會方便很多香罐,因為輸出的直接就是一張紋理,個人認為在iOS5時代可能需要考慮420和BGRA的輸出效率时肿,但是現在畢竟都iOS11時代了庇茫,所以影響可以忽略不計。
設置AVPlayerItemVideoOutput
的代碼
NSDictionary *pixBuffAttributes = @{(id)kCVPixelBufferPixelFormatTypeKey: @(kCVPixelFormatType_32BGRA)};
self.videoOutput = [[AVPlayerItemVideoOutput alloc] initWithPixelBufferAttributes:pixBuffAttributes];
輸出紋理的代碼
CVReturn textureRet = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, self.videoTextureCache, pixelBuffer, nil, GL_TEXTURE_2D, GL_RGBA, width, height, GL_BGRA, GL_UNSIGNED_BYTE, 0, &_textureOutput);
BGRA
對應的輸出格式是kCVPixelFormatType_32BGRA
,其對應的從Buffer讀紋理的參數是GL_RGBA
和GL_BGRA
螃成。
完整的從VideoOutput
中獲取紋理的代碼如下
-(CVOpenGLESTextureRef)getVideoTextureWithOpenGlContext:(EAGLContext *)context{
if(self.videoOutput == nil){
NSLog(@"ferrisxie: 輸出對象為空");
return nil;
}
//step1:構造緩存
if(self.videoTextureCache == nil){
CVReturn ret = CVOpenGLESTextureCacheCreate(kCFAllocatorDefault, nil, context, nil, &_videoTextureCache);
if(ret != 0){
NSLog(@"構造緩存失敗");
return nil;
}
}
//step2: 取紋理
CMTime currentTime = self.currentItem.currentTime;
if(![self.videoOutput hasNewPixelBufferForItemTime:currentTime]){
//沒有新的紋理 返回上一幀
return self.textureOutput;
}
CVPixelBufferRef pixelBuffer = [self.videoOutput copyPixelBufferForItemTime:currentTime itemTimeForDisplay:nil];
CGFloat width = CVPixelBufferGetWidth(pixelBuffer);
CGFloat height = CVPixelBufferGetHeight(pixelBuffer);
if(CGSizeEqualToSize(CGSizeZero, self.videoSize)){
self.videoSize = CGSizeMake(width, height);
}
CVOpenGLESTextureCacheFlush(self.videoTextureCache, 0);
if(self.textureOutput != nil){
//釋放上一幀
CFRelease(self.textureOutput);
self.textureOutput = nil;
}
CVReturn textureRet = CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault, self.videoTextureCache, pixelBuffer, nil, GL_TEXTURE_2D, GL_RGBA, width, height, GL_BGRA, GL_UNSIGNED_BYTE, 0, &_textureOutput);
if(textureRet != 0){
NSLog(@"解析紋理失敗%u,%@",textureRet,self.textureOutput);
if(self.textureOutput != nil){
//解析紋理失敗不需要Release
//CFRelease(self.textureOutput);
self.textureOutput = nil;
}
return nil;
}
if(pixelBuffer != nil){
CVPixelBufferRelease(pixelBuffer);
}
return self.textureOutput;
}
//usage
CVOpenGLESTextureRef texureRef = [self.player getVideoTextureWithOpenGlContext:[EAGLContext currentContext]];
GLuint target = CVOpenGLESTextureGetTarget(texureRef);
GLuint name = CVOpenGLESTextureGetName(texureRef);
//用完記得釋放
CFRelease(texureRef);
Swift由于取消了CFRelease
等CoreFoundation的內存管理接口旦签,在取紋理的時候需要使用Unmanaged
對象,利用takeUnretainedValue
,可以不需要釋放代碼了寸宏。
if let videoPlayer = self.videoPlayer{
if let unmangaed:Unmanaged<CVOpenGLESTexture> = videoPlayer.getVideoTexture(withOpen: self.context){
let testure:CVOpenGLESTexture = unmangaed.takeUnretainedValue()
let target:GLuint = CVOpenGLESTextureGetTarget(testure)
let name:GLuint = CVOpenGLESTextureGetName(testure)
}
}
//不再需要釋放了
其他
切換播放源
針對需要切換播放源的場景宁炫,重新構造播放器顯然是最簡單易行的,但是測試發(fā)現氮凝,頻繁的構造和銷毀AVPlayer
對象雖然不會導致內存增加羔巢,但是很奇怪的是,會導致OtherProccesses
的內存增大,從而導致Free
內存減小朵纷,減小到某個值的時候炭臭,就會觸發(fā)didReceiveMemeoryWarning
內存警告,暫時還沒有發(fā)現原因袍辞,因此這種方法不可取。
其實AVPlayer
本身提供了切換播放源的函數常摧。
func replaceCurrentItem(with item: AVPlayerItem?)
當要切換播放源時搅吁,需要指定新的AVPlayerItem
,這時候又會面臨狀態(tài)問題,之前說過只有在AVPlayerItemStatus
變成readyToPlay
的時候才可以調用play
和seek
等函數落午,可以使用AVUrlAsset
來預加載這個Item:
func loadValuesAsynchronously(forKeys keys: [String], completionHandler handler: (() -> Void)? = nil)
通過預加載duration
(視頻總進度)來判斷視頻是否可播放谎懦,當加載完成后再replaceCurrentItem
// Load the asset's "playable" key
asset.loadValuesAsynchronously(forKeys: ["duration"]) {
var error: NSError? = nil
let status = asset.statusOfValue(forKey: "duration", error: &error)
switch status {
case .loaded:
// Sucessfully loaded, continue processing
//在這里替換播放源,并且直接開始播放
let playerItem = AVPlayerItem.init(asset: asset)
self.videoPlayer?.replaceCurrentItem(with: playerItem)
self.resumePlay()
case .failed:
// Examine NSError pointer to determine failure
case .cancelled:
// Loading cancelled
default:
// Handle all other cases
}
}
如果實在需要控制多個播放源溃斋,可以考慮使用AVQueuePlayer
來處理界拦。
聲音優(yōu)先級
默認的聲音優(yōu)先級為視頻播放的默認優(yōu)先級AVAudioSessionCategoryAmbient
,靜音狀態(tài)不會有聲音梗劫,退出后臺就停止播放享甸。AudioSessionCategoriesandModes有關于聲音優(yōu)先級的介紹。
使用如下函數切換
AVAudioSession.sharedInstance().setCategory(_ category: String)
一般的梳侨,如果需要靜音狀態(tài)下也有聲音可以直接使用AVAudioSessionCategoryPlayback
這個Value蛉威。
硬件加速
iOS6以后可以使用底層框架VideoToolbox
來實現硬解碼,具體視頻工具箱和硬件加速有很清楚的解釋走哺,基本的場景蚯嫌,使用AVPlayer即可滿足需求。