iOS 直播類APP開發流程分解:

 

1 . 音視頻處理的通常流程:

數據採集→數據編碼→數據傳輸(流媒體服務器) →解碼數據→播放顯示
一、數據採集:
攝像機及拾音器收集視頻及音頻數據,此時獲得的爲原始數據
涉及技術或協議:
攝像機:CCD、CMOS
拾音器:聲電轉換裝置(咪頭)、音頻放大電路
二、數據編碼:
使用相關硬件或軟件對音視頻原始數據進行編碼處理(數字化)及加工(如音視頻混合、打包封裝等),獲得可用的音視頻數據
涉及技術或協議:
編碼方式:CBR、VBR
編碼格式
視頻:H.26五、H.26四、MPEG-4等,封裝容器有TS、MKV、AVI、MP4等
音頻:G.711μ、AAC、Opus等,封裝有MP三、OGG、AAC等
三、數據傳輸:
將編碼完成後的音視頻數據進行傳輸,早期的音視頻經過同軸電纜之類的線纜進行傳輸,IP網絡發展後,使用IP網絡優傳輸
涉及技術或協議:
傳輸協議:RTP與RTCP、RTSP、RTMP、HTTP、HLS(HTTP Live Streaming)等
控制信令:SIP和SDP、SNMP等
四、解碼數據:
使用相關硬件或軟件對接收到的編碼後的音視頻數據進行解碼,獲得能夠直接顯示的圖像/聲音
涉及技術或協議:
通常對應的編碼器都會帶有相應的解碼器,也有一些第三方解碼插件等
五、播放顯示:
在顯示器(電視、監視屏等)或揚聲器(耳機、喇叭等)裏,顯示相應的圖像畫面或聲音
涉及技術或協議:
顯示器、揚聲器、3D眼鏡等

 

(二) 視頻推流與視頻拉流的工做過程解析:

1.視頻推流端

 

推流,就是將採集到的音頻,視頻數據經過流媒體協議發送到流媒體服務器。html

1、選擇流媒體協議

如今直播應用,採用RTMP協議居多,也有部分使用HLS協議。android

採用RTMP協議,就要看下它與流媒體服務器交互的過程,RTMP協議的默認端口是1935,採用TCP協議。而且須要瞭解FLV的封裝格式。ios

採用HLS協議,由於涉及到切片,延時會比較大,須要瞭解TS流。git

2、採集音視頻數據

作直播,數據的來源不可缺乏,就是採集攝像頭,麥克風的數據。github

iOS平臺上採集音視頻數據,須要使用AVFoundation.Framework框架,從captureSession會話的回調中獲取音頻,視頻數據。swift

3、硬編碼,軟編碼音視頻數據

軟編碼就是利用CPU資源來壓縮音視頻數據,硬編碼與之相反。windows

軟編碼的話,如今普遍採用FFmpeg庫結合編碼庫來實現,FFmpeg+X624來編碼視頻數據YUV/RGB輸出H264數據,
FFmpeg+fdk_aac來編碼音頻數據PCM輸出AAC數據。api

4、根據所選流媒體協議封包音視頻數據

將音頻,視頻打包成packet。緩存

5、與服務器交互發送封包數據

根據所選流媒體協議,發送相應指令鏈接服務器,鏈接服務器成功後,就能夠發送packet數據了。服務器

Part 2. 拉流端

拉流,就是從流媒體服務器獲取音頻,視頻數據。

1、解析協議

播放器端根據URL解析所用的流媒體協議(RTMP,HLS)。

2、解封裝

解封裝,就是demux的過程,從容器格式(FLV,TS)中,分離出音視頻數據。

3、解碼

解碼,就是把獲取到的數據解壓縮,恢復成原始數據。解碼就是將H264變成YUV,AAC變成PCM。

解碼可使用軟解碼,硬解碼。

軟解碼就是利用CPU資源去解壓縮數據,採用的方式是FFmpeg解碼。

硬解碼,對於iOS平臺來講,可使用VideoToolbox.Framework(該框架只能在iOS 8.0及以上系統使用)
硬解碼視頻數據。Android平臺上,可使用MediaCodec來硬解碼視頻數據。

4、渲染數據

採用OpenGL渲染YUV數據,呈現視頻畫面。將PCM送入設備的硬件資源播放,產生聲音。

iOS播放流式音頻,使用Audio Queue 的方式,即,利用AudioToolbox.Framework 框架。

 

 

三: iOS開發之iOS直播平臺有用的第三方資源共享:

1.  實時美顏參考網址:http://altitudelabs.com/blog/real-time-filter/
2. 直播測試地址:
HLS: http://live.3gv.ifeng.com/live/hongkong.m3u8 鳳凰衛視香港臺
      3.  HLS streaming工具下載,用於處理m3u8音、視頻源的HLS Streaming Tool Download

   4. 直播相關SDK

        1.  VideoCore 在新浪雲上有文檔說明,可閱讀 iOS推流SDK使用文檔
        2.  網易雲信直播SDK 好像是收費的,價格還不便宜,通常公司可能也不會用,不過能夠嘗試看看,瞭解一下,有助於學習!
3. 暴風雲直播   http://www.baofengcloud.com/apisdk/sdk/live/iossdk.html
  4. 融雲直播     http://www.rongcloud.cn/live
        5. 騰訊直播SDK  https://www.qcloud.com/solution/video.html

   5. 直播相關開源庫

       1. BeautifyFaceDemo 基於GPUImage的圖片處理,作美顏方面能夠參考一下

       2.   lf.swift 開源RTMP Swift版的,能夠學習一下!好像做者是日本的,或者是在日本工做的,寫了很多日文!

       3.  PLPlayerKit 一個不依賴FFmpeg的播放器,支持RTMP

       4.  HLS-Demo   https://github.com/yangchao0033/HLS-Demo  HLS播放demo

       5. SmarterStreaming  https://github.com/daniulive/SmarterStreaming  直播SDK(支持私有協議和RTMP推流,如windows推流/android推流/iOS推流/windows播放器/android播放器/iOS播放器)

四: iOS開發之 iOS 直播平臺 常見的視頻直播相關協議詳解

 

一、    RTMP(Real Time Messaging Protocol,實時消息傳送協議)

RTMP是Adobe Systems公司爲Flash播放器和服務器之間音頻、視頻和數據傳輸開發的開放協議。它有三種變種:

1)、工做在TCP之上的明文協議,使用端口1935;

2)、RTMPT封裝在HTTP請求之中,可穿越防火牆;

3)、RTMPS相似RTMPT,但使用的是HTTPS鏈接;

RTMP協議是被Flash用於對象、視頻、音頻的傳輸。這個協議創建在TCP協議或者輪詢HTTP協議之上。RTMP協議就像一個用來裝數據包的容器,這些數據既能夠是AMF格式的數據,也能夠是FLV中的視音頻數據。一個單一的鏈接能夠經過不一樣的通道傳輸多路網絡流,這些通道中的包都是按照固定大小的包傳輸的。

二、RTSP(Real Time Streaming Protocol,實時流傳輸協議)

RTSP定義了一對多應用程序如何有效地經過IP網絡傳送多媒體數據。RTSP提供了一個可擴展框架,數據源能夠包括實時數據與已有的存儲的數據。該協議目的在於控制多個數據發送鏈接,爲選擇發送通道如UDP、組播UDP與TCP提供途徑,併爲選擇基於RTP上發送機制提供方法。

RTSP語法和運做跟HTTP/1.1相似,但並不特別強調時間同步,因此比較能容忍網絡延遲。代理服務器的緩存功能也一樣適用於RTSP,而且由於RTSP具備從新導向功能,可根據實際負載狀況來切換提供服務的服務器,以免過大的負載集中於同一服務器而形成延遲。

三、RTP(Real-time Transport Protocol,實時傳輸協議)

RTP是針對多媒體數據流的一種傳輸層協議,詳細說明了在互聯網上傳遞音頻和視頻的標準數據包格式。RTP協議經常使用於流媒體系統(配合RTCP協議),視頻會議和一鍵通系統(配合H.323或SIP),使它成爲IP電話產業的技術基礎。

RTP是創建在UDP協議上的,常與RTCP一塊兒使用,其自己並無提供按時發送機制或其它服務質量(QoS)保證,它依賴於低層服務去實現這一過程。

RTP 並不保證傳送或防止無序傳送,也不肯定底層網絡的可靠性,只管發送,無論傳輸是否丟包,也無論接收方是否有收到包。RTP 實行有序傳送,RTP中的序列號容許接收方重組發送方的包序列,同時序列號也能用於決定適當的包位置,如在視頻解碼中,就不須要順序解碼。

四、RTCP(Real-time Transport Control Protocol,實時傳輸控制協議)

RTCP是RTP的配套協議,爲RTP媒體流提供信道外的控制。RTCP和RTP一塊兒協做將多媒體數據打包和發送,按期在多媒體流會話參與者之間傳輸控制數據。

RTCP的主要功能是爲RTP所提供的服務質量(QoS)提供反饋,收集相關媒體鏈接的統計信息,例如傳輸字節數,傳輸分組數,丟失分組數,單向和雙向網絡延遲等等。網絡應用程序能夠利用RTCP所提供的信息來提升服務質量,好比限制流量或改用壓縮比小的編解碼器。

 

 

摘自這裏 

1.實時美顏參考網址:http://altitudelabs.com/blog/real-time-filter/
相關文章
相關標籤/搜索