編譯ffmpeg
首先下載ffmpeg壓縮包.
終端進(jìn)入下載的ffmpeg文件夾,輸入命令: ./build-ffmoeg.sh 進(jìn)行編譯
然后就是漫長(zhǎng)的等待...編譯完成后,會(huì)多出一個(gè)FFmpeg-iOS文件夾,將這個(gè)文件直接拖入工程項(xiàng)目中.
設(shè)置頭文件路徑
導(dǎo)入依賴庫(kù)
試著寫(xiě)一段代碼,編譯成功,就可以開(kāi)始使用了
,
視頻解碼
//創(chuàng)建一個(gè)視圖展示解碼后的一幀幀圖片
[self.view addSubview:self.imageView];
//網(wǎng)絡(luò)視頻url
NSString *path = @"http://baobab.wdjcdn.com/1451897812703c.mp4";
//注冊(cè)所有解碼器
av_register_all();
avcodec_register_all();
//對(duì)網(wǎng)絡(luò)組件進(jìn)行全局初始化,若是解碼本地視頻,可以不初始化
avformat_network_init();
//分配一個(gè)空間,提供給打開(kāi)的視頻文件
pFormatCtx = avformat_alloc_context();
//打開(kāi)視頻文件
if(avformat_open_input(&pFormatCtx, [path UTF8String], NULL, NULL)){
printf("can not open video\n");
return;
}
//檢查流數(shù)據(jù)
if(avformat_find_stream_info(pFormatCtx, NULL)){
printf("can not find stream info \n");
return;
}
//根據(jù)數(shù)據(jù)流,找到第一個(gè)完整的視頻流
videoIndex = -1;
if((videoIndex = av_find_best_stream(pFormatCtx, AVMEDIA_TYPE_VIDEO, -1, -1, &pCodec, 0)) < 0){
printf("can not find first stream\n");
return;
}
//第一個(gè)視頻流,根據(jù)流找到解碼器
stream = pFormatCtx->streams[videoIndex];
pCodecCtx = stream->codec;
//尋找解碼器
pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
if(pCodecCtx == NULL){
printf("can not find codec");
return;
}
//打開(kāi)解碼器
if(avcodec_open2(pCodecCtx, pCodec,NULL) < 0){
printf("Couldn't open codec.\n");
return;
}
//獲取視頻的幀數(shù)
double fps;
if(stream->avg_frame_rate.den && stream->avg_frame_rate.num) {
fps = av_q2d(stream->avg_frame_rate);
} else { fps = 30;}
//分配一個(gè)緩沖區(qū),緩存解碼的數(shù)據(jù),必須使用av_frame_free()釋放內(nèi)存
pFrame = av_frame_alloc();
output_width = pCodecCtx->width;
output_height = pCodecCtx->height;
//創(chuàng)建定時(shí)器 開(kāi)始一幀幀解碼 并且把解碼后的圖片暫時(shí)在imageView上
[NSTimer scheduledTimerWithTimeInterval: 1 / fps
target:self
selector:@selector(displayNextFrame:)
userInfo:nil
repeats:YES];
[self seekTime:0];
-(void)displayNextFrame:(NSTimer *)timer{
if (![self stepFrame]) {
[timer invalidate];
return;
}
//顯示解碼后的幀圖片,用定時(shí)器刷新每一幀圖片的方式不對(duì)(性能超級(jí)差),這里只是展示作用
//正確的方式應(yīng)該用openGL來(lái)渲染解碼后的每幀圖片
self.imageView.image = [self imageFromAVPicture:picture width:output_width height:output_height];
}
- (void)seekTime:(double)seconds {
AVRational timeBase = pFormatCtx->streams[videoIndex]->time_base;
int64_t targetFrame = (int64_t)((double)timeBase.den / timeBase.num * seconds);
avformat_seek_file(pFormatCtx,
videoIndex,
0,
targetFrame,
targetFrame,
AVSEEK_FLAG_FRAME);
avcodec_flush_buffers(pCodecCtx);
}
/**
通過(guò)定時(shí)器循環(huán)調(diào)用這個(gè)方法將
解碼的視頻流轉(zhuǎn)為RGB圖片,
@return image
*/
- (UIImage *)imageFromAVPicture:(AVPicture)pict width:(int)width height:(int)height {
avpicture_free(&picture);
avpicture_alloc(&picture, AV_PIX_FMT_RGB24, output_width, output_height);
// sws_getContext():
// 使用參數(shù)初始化SwsContext結(jié)構(gòu)體粥惧。
// sws_scale():轉(zhuǎn)換一幀圖像。
// sws_freeContext():釋放SwsContext結(jié)構(gòu)體菠齿。
struct SwsContext * imgConvertCtx = sws_getContext(pFrame->width,
pFrame->height,
AV_PIX_FMT_YUV420P,
output_width,
output_height,
AV_PIX_FMT_RGB24,
SWS_FAST_BILINEAR,
NULL,
NULL,
NULL);
sws_scale(imgConvertCtx,
pFrame->data,
pFrame->linesize,
0,
pFrame->height,
picture.data,
picture.linesize);
sws_freeContext(imgConvertCtx);
CGBitmapInfo bitmapInfo = kCGBitmapByteOrderDefault;
CFDataRef data = CFDataCreateWithBytesNoCopy(kCFAllocatorDefault,pict.data[0],pict.linesize[0] * height,kCFAllocatorNull);
CGDataProviderRef provider = CGDataProviderCreateWithCFData(data);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGImageRef cgImage = CGImageCreate(output_width,
output_height,
8,
24,
picture.linesize[0],
colorSpace,
bitmapInfo,
provider,
NULL,
NO,
kCGRenderingIntentDefault);
CGColorSpaceRelease(colorSpace);
UIImage *image = [UIImage imageWithCGImage:cgImage];
CGImageRelease(cgImage);
CGDataProviderRelease(provider);
CFRelease(data);
return image;
}