一:推流需要的三方庫和一些常用格式和協(xié)議介紹
1.rtmp協(xié)議 :實時消息傳輸協(xié)議,Adobe Systems公司為Flash播放器和服務器之間音頻、視頻和數(shù)據傳輸開發(fā)的開 ?放協(xié)議抹恳,因為是開放協(xié)議所以都可以使用了懊亡。RTMP協(xié)議用于對象响鹃、視頻、音頻的傳輸案训。這個協(xié)議建立在TCP協(xié)議或者輪詢HTTP協(xié)議之上买置。RTMP協(xié)議就像一個用來裝數(shù)據包的容器,這些數(shù)據可以是FLV中的視音頻數(shù)據强霎。一個單一的連接可以通過不同的通道傳輸多路網絡流忿项,這些通道中的包都是按照固定大小的包傳輸?shù)?/p>
2.nginx:免費開源web服務器,常用來配置流媒體服務器城舞。(后面會寫一篇介紹如何在mac上搭建Nginx服務器)
3.常用直播協(xié)議介紹與對比
HLS:由Apple公司定義的用于實時流傳輸?shù)膮f(xié)議,HLS基于HTTP協(xié)議實現(xiàn)轩触,傳輸內容包括兩部分,一是M3U8描述文件家夺,二是TS媒體文件脱柱。可實現(xiàn)流媒體的直播和點播拉馋,主要應用在iOS系統(tǒng)
HLS是以點播的技術方式來實現(xiàn)直播
HLS是自適應碼率流播榨为,客戶端會根據網絡狀況自動選擇不同碼率的視頻流,條件允許的情況下使用高碼率椅邓,網絡繁忙的時候使用低碼率柠逞,并且自動在二者間隨意切換。這對移動設備網絡狀況不穩(wěn)定的情況下保障流暢播放非常有幫助景馁。
實現(xiàn)方法是服務器端提供多碼率視頻流板壮,并且在列表文件中注明,播放器根據播放進度和下載速度自動調整合住。
HLS與RTMP對比:HLS主要是延時比較大绰精,RTMP主要優(yōu)勢在于延時低
HLS協(xié)議的小切片方式會生成大量的文件,存儲或處理這些文件會造成大量資源浪費
相比使用RTSP協(xié)議的好處在于透葛,一旦切分完成笨使,之后的分發(fā)過程完全不需要額外使用任何專門軟件,普通的網絡服務器即可僚害,大大降低了CDN邊緣服務器的配置要求硫椰,可以使用任何現(xiàn)成的CDN,而一般服務器很少支持RTSP。
HTTP-FLV:基于HTTP協(xié)議流式的傳輸媒體內容萨蚕。
相對于RTMP靶草,HTTP更簡單和廣為人知,內容延遲同樣可以做到1~3秒岳遥,打開速度更快奕翔,因為HTTP本身沒有復雜的狀態(tài)交互。所以從延遲角度來看浩蓉,HTTP-FLV要優(yōu)于RTMP派继。
RTSP:實時流傳輸協(xié)議,定義了一對多應用程序如何有效地通過IP網絡傳送多媒體數(shù)據.
RTP:實時傳輸協(xié)議,RTP是建立在UDP協(xié)議上的宾袜,常與RTCP一起使用,其本身并沒有提供按時發(fā)送機制或其它服務質量(QoS)保證驾窟,它依賴于低層服務去實現(xiàn)這一過程阅悍。
RTCP:RTP的配套協(xié)議,主要功能是為RTP所提供的服務質量(QoS)提供反饋昨稼,收集相關媒體連接的統(tǒng)計信息寻行,例如傳輸字節(jié)數(shù)牙丽,傳輸分組數(shù),丟失分組數(shù),單向和雙向網絡延遲等等
關于協(xié)議的選擇方面:即時性要求較高或有互動需求的可以采用RTMP,RTSP芙代;對于有回放或跨平臺需求的召边,推薦使用HLS
4.視頻封裝格式:
TS: 一種流媒體封裝格式邦马,流媒體封裝有一個好處症昏,就是不需要加載索引再播放,大大減少了首次載入的延遲,如果片子比較長,mp4文件的索引相當大,影響用戶體驗
為什么要用TS:這是因為兩個TS片段可以無縫拼接觅捆,播放器能連續(xù)播放
FLV: 一種流媒體封裝格式,由于它形成的文件極小职辅、加載速度極快鱼喉,使得網絡觀看視頻文件成為可能,因此FLV格式成為了當今主流視頻格式
5 需要的庫文件
librtmp:這是一個C++的開源工程。主要作用是下載RTMP流媒體
libfaac :將獲取到的音頻數(shù)據編碼成acc格式以及將aac數(shù)據合成flv格式
libx264:把視頻原數(shù)據YUV編碼壓縮成H.264格式
libyuv:將獲取到的視頻轉化為yuv(NV12)格式
二:推流流程
關于推流流程我會主要用代碼截圖來展示
1 :獲取視頻音頻流 此處主要用不帶美顏效果的系統(tǒng)獲取方法
(1):初始化視頻設備
(2)創(chuàng)建輸入輸出管道
(3)創(chuàng)建會話
(4)創(chuàng)建預覽
(5)在前面幾步實現(xiàn)后我們就可以來用系統(tǒng)方法獲取視頻音頻流了吭服,這個方法是AVCaptureAudioDataOutputSampleBufferDelegate的代理方法沼琉,由于系統(tǒng)返回沒有區(qū)分是視頻數(shù)據還是音頻數(shù)據 所以我們需要自己代碼判斷如下圖:
2.視頻編碼及推流
(1)將視頻流變成yuvdata數(shù)據
-(NSData*) convertVideoSmapleBufferToYuvData:(CMSampleBufferRef) videoSample{
//獲取yuv數(shù)據
//通過CMSampleBufferGetImageBuffer方法,獲得CVImageBufferRef桩匪。
//這里面就包含了yuv420數(shù)據的指針
CVImageBufferRefpixelBuffer =CMSampleBufferGetImageBuffer(videoSample);
//表示開始操作數(shù)據
CVPixelBufferLockBaseAddress(pixelBuffer,0);
//圖像寬度(像素)
size_tpixelWidth =CVPixelBufferGetWidth(pixelBuffer);
//圖像高度(像素)
size_tpixelHeight =CVPixelBufferGetHeight(pixelBuffer);
//yuv中的y所占字節(jié)數(shù)
size_ty_size = pixelWidth * pixelHeight;
//yuv中的u和v分別所占的字節(jié)數(shù)
size_tuv_size = y_size /4;
uint8_t*yuv_frame =aw_alloc(uv_size *2+ y_size);
//獲取CVImageBufferRef中的y數(shù)據
uint8_t*y_frame =CVPixelBufferGetBaseAddressOfPlane(pixelBuffer,0);
memcpy(yuv_frame, y_frame, y_size);
//獲取CMVImageBufferRef中的uv數(shù)據
uint8_t*uv_frame =CVPixelBufferGetBaseAddressOfPlane(pixelBuffer,1);
memcpy(yuv_frame + y_size, uv_frame, uv_size *2);
CVPixelBufferUnlockBaseAddress(pixelBuffer,0);
NSData*nv12Data = [NSDatadataWithBytesNoCopy:yuv_framelength:y_size + uv_size *2];
//旋轉
return[selfrotateNV12Data:nv12Data];
}
(2)yuv格式---->nv12格式
-(NSData*)rotateNV12Data:(NSData*)nv12Data{
intdegree =0;
switch(self.videoConfig.orientation) {
caseUIInterfaceOrientationLandscapeLeft:
degree =90;
break;
caseUIInterfaceOrientationLandscapeRight:
degree =270;
break;
default:
//do nothing
break;
}
if(degree !=0) {
uint8_t*src_nv12_bytes = (uint8_t*)nv12Data.bytes;
uint32_twidth = (uint32_t)self.videoConfig.width;
uint32_theight = (uint32_t)self.videoConfig.height;
uint32_tw_x_h = (uint32_t)(self.videoConfig.width*self.videoConfig.height);
uint8_t*rotatedI420Bytes =aw_alloc(nv12Data.length);
NV12ToI420Rotate(src_nv12_bytes, width,
src_nv12_bytes + w_x_h, width,
rotatedI420Bytes, height,
rotatedI420Bytes + w_x_h, height /2,
rotatedI420Bytes + w_x_h + w_x_h /4, height /2,
width, height, (RotationModeEnum)degree);
I420ToNV12(rotatedI420Bytes, height,
rotatedI420Bytes + w_x_h, height /2,
rotatedI420Bytes + w_x_h + w_x_h /4, height /2,
src_nv12_bytes, height, src_nv12_bytes + w_x_h, height,
height, width);
aw_free(rotatedI420Bytes);
}
returnnv12Data;
}
(3)nv12格式數(shù)據合成flv格式
-(aw_flv_video_tag*)encodeYUVDataToFlvTag:(NSData*)yuvData{
if(!_vEnSession) {
returnNULL;
}
//yuv變成轉CVPixelBufferRef
OSStatusstatus =noErr;
//視頻寬度
size_tpixelWidth =self.videoConfig.pushStreamWidth;
//視頻高度
size_tpixelHeight =self.videoConfig.pushStreamHeight;
//現(xiàn)在要把NV12數(shù)據放入CVPixelBufferRef中瑟慈,因為硬編碼主要調用VTCompressionSessionEncodeFrame函數(shù)纤虽,此函數(shù)不接受yuv數(shù)據菠发,但是接受CVPixelBufferRef類型。
CVPixelBufferRefpixelBuf =NULL;
//初始化pixelBuf贺嫂,數(shù)據類型是kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange糜俗,此類型數(shù)據格式同NV12格式相同。
CVPixelBufferCreate(NULL, pixelWidth, pixelHeight,kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange,NULL, &pixelBuf);
// Lock address,鎖定數(shù)據悠抹,應該是多線程防止重入操作寞射。
if(CVPixelBufferLockBaseAddress(pixelBuf,0) !=kCVReturnSuccess){
[selfonErrorWithCode:AWEncoderErrorCodeLockSampleBaseAddressFaileddes:@"encode video lock base address failed"];
returnNULL;
}
//將yuv數(shù)據填充到CVPixelBufferRef中
size_ty_size =aw_stride(pixelWidth) * pixelHeight;
size_tuv_size = y_size /4;
uint8_t*yuv_frame = (uint8_t*)yuvData.bytes;
//處理y frame
uint8_t*y_frame =CVPixelBufferGetBaseAddressOfPlane(pixelBuf,0);
memcpy(y_frame, yuv_frame, y_size);
uint8_t*uv_frame =CVPixelBufferGetBaseAddressOfPlane(pixelBuf,1);
memcpy(uv_frame, yuv_frame + y_size, uv_size *2);
//硬編碼CmSampleBufRef
//時間戳
uint32_tptsMs =self.manager.timestamp+1;//self.vFrameCount++ * 1000.f / self.videoConfig.fps;
CMTimepts =CMTimeMake(ptsMs,1000);
//硬編碼主要其實就這一句。將攜帶NV12數(shù)據的PixelBuf送到硬編碼器中锌钮,進行編碼。
status =VTCompressionSessionEncodeFrame(_vEnSession, pixelBuf, pts,kCMTimeInvalid,NULL, pixelBuf,NULL);
if(status ==noErr) {
dispatch_semaphore_wait(self.vSemaphore,DISPATCH_TIME_FOREVER);
if(_naluData) {
//此處硬編碼成功引矩,_naluData內的數(shù)據即為h264視頻幀梁丘。
//我們是推流,所以獲取幀長度旺韭,轉成大端字節(jié)序氛谜,放到數(shù)據的最前面
uint32_tnaluLen = (uint32_t)_naluData.length;
//小端轉大端。計算機內一般都是小端区端,而網絡和文件中一般都是大端值漫。大端轉小端和小端轉大端算法一樣,就是字節(jié)序反轉就行了织盼。
uint8_tnaluLenArr[4] = {naluLen >>24&0xff, naluLen >>16&0xff, naluLen >>8&0xff, naluLen &0xff};
//將數(shù)據拼在一起
NSMutableData*mutableData = [NSMutableDatadataWithBytes:naluLenArrlength:4];
[mutableDataappendData:_naluData];
//將h264數(shù)據合成flv tag杨何,合成flvtag之后就可以直接發(fā)送到服務端了。后續(xù)會介紹
aw_flv_video_tag*video_tag =aw_encoder_create_video_tag((int8_t*)mutableData.bytes, mutableData.length, ptsMs,0,self.isKeyFrame);
//到此沥邻,編碼工作完成危虱,清除狀態(tài)。
_naluData=nil;
_isKeyFrame=NO;
CVPixelBufferUnlockBaseAddress(pixelBuf,0);
CFRelease(pixelBuf);
returnvideo_tag;
}
}else{
[selfonErrorWithCode:AWEncoderErrorCodeEncodeVideoFrameFaileddes:@"encode video frame error"];
}
CVPixelBufferUnlockBaseAddress(pixelBuf,0);
CFRelease(pixelBuf);
returnNULL;
}
(4)發(fā)送視頻flv到rtmp服務器
3 音頻數(shù)據編碼和推流
(1)將音頻流轉換成data數(shù)據
-(NSData*) convertAudioSmapleBufferToPcmData:(CMSampleBufferRef) audioSample{
//獲取pcm數(shù)據大小
NSIntegeraudioDataSize =CMSampleBufferGetTotalSampleSize(audioSample);
//分配空間
int8_t*audio_data =aw_alloc((int32_t)audioDataSize);
//獲取CMBlockBufferRef
//這個結構里面就保存了PCM數(shù)據
CMBlockBufferRefdataBuffer =CMSampleBufferGetDataBuffer(audioSample);
//直接將數(shù)據copy至我們自己分配的內存中
CMBlockBufferCopyDataBytes(dataBuffer,0, audioDataSize, audio_data);
//返回數(shù)據
return[NSDatadataWithBytesNoCopy:audio_datalength:audioDataSize];
}
(2)將音頻data數(shù)據編碼成acc格式并合成為flv
-(aw_flv_audio_tag*)encodePCMDataToFlvTag:(NSData*)pcmData{
self.curFramePcmData= pcmData;
AudioBufferListoutAudioBufferList = {0};
outAudioBufferList.mNumberBuffers=1;
outAudioBufferList.mBuffers[0].mNumberChannels= (uint32_t)self.audioConfig.channelCount;
outAudioBufferList.mBuffers[0].mDataByteSize=self.aMaxOutputFrameSize;
outAudioBufferList.mBuffers[0].mData=malloc(self.aMaxOutputFrameSize);
uint32_toutputDataPacketSize =1;
OSStatusstatus =AudioConverterFillComplexBuffer(_aConverter,aacEncodeInputDataProc, (__bridgevoid*_Nullable)(self), &outputDataPacketSize, &outAudioBufferList,NULL);
if(status ==noErr) {
NSData*rawAAC = [NSDatadataWithBytesNoCopy: outAudioBufferList.mBuffers[0].mDatalength:outAudioBufferList.mBuffers[0].mDataByteSize];
self.manager.timestamp+=1024*1000/self.audioConfig.sampleRate;
returnaw_encoder_create_audio_tag((int8_t*)rawAAC.bytes, rawAAC.length, (uint32_t)self.manager.timestamp, &_faacConfig);
}else{
[selfonErrorWithCode:AWEncoderErrorCodeAudioEncoderFaileddes:@"aac編碼錯誤"];
}
returnNULL;
}
(3)發(fā)送音頻flv到rtmp服務器
至此 我們就把flv格式的音視頻數(shù)據發(fā)送到了rtmp服務器唐全,服務器通過cdn分發(fā)后我們用ijkplayer打開就可以播了
三 需要注意的部分
1:獲取完視頻退出是要記得銷毀會話
2 編(解)碼分硬(解)編碼和軟編(解)碼
軟編碼:使用CPU進行編碼埃跷,性能高,低碼率下通常質量低于硬編碼器邮利,但部分產品在GPU硬件平臺移植了優(yōu)秀的軟編碼算法(如X264)的弥雹,質量基本等同于軟編碼。
硬編碼:使用非CPU進行編碼延届,如顯卡GPU剪勿、專用的DSP、FPGA方庭、ASIC芯片等窗宦,實現(xiàn)直接、簡單二鳄,參數(shù)調整方便赴涵,升級易,但CPU負載重订讼,性能較硬編碼低髓窜,低碼率下質量通常比硬編碼要好一點。