1.分離視頻音頻流html
ffmpeg -i input_file -vcodec copy -an output_file_video //分離視頻流 ffmpeg -i input_file -acodec copy -vn output_file_audio //分離音頻流
2.視頻解複用bash
ffmpeg –i test.mp4 –vcodec copy –an –f m4v test.264 ffmpeg –i test.avi –vcodec copy –an –f m4v test.264
3.視頻轉碼app
ffmpeg –i test.mp4 –vcodec h264 –s 352*278 –an –f m4v test.264 //轉碼爲碼流原始文件 ffmpeg –i test.mp4 –vcodec h264 –bf 0 –g 25 –s 352*278 –an –f m4v test.264 //轉碼爲碼流原始文件 ffmpeg –i test.avi -vcodec mpeg4 –vtag xvid –qsame test_xvid.avi //轉碼爲封裝文件 //-bf B幀數目控制,-g 關鍵幀間隔控制,-s 分辨率控制
4.視頻封裝ide
ffmpeg –i video_file –i audio_file –vcodec copy –acodec copy output_file
5.視頻剪切oop
ffmpeg –i test.avi –r 1 –f image2 image-%3d.jpeg //提取圖片 ffmpeg -ss 0:1:30 -t 0:0:20 -i input.avi -vcodec copy -acodec copy output.avi //剪切視頻 //-r 提取圖像的頻率,-ss 開始時間,-t 持續時間
6.視頻錄製測試
ffmpeg –i rtsp://192.168.3.205:5555/test –vcodec copy out.avi
7.YUV序列播放ui
ffplay -f rawvideo -video_size 1920x1080 input.yuv
8.YUV序列轉AVIspa
ffmpeg –s w*h –pix_fmt yuv420p –i input.yuv –vcodec mpeg4 output.avi
經常使用參數說明:命令行
主要參數: -i 設定輸入流 -f 設定輸出格式 -ss 開始時間 視頻參數: -b 設定視頻流量,默認爲200Kbit/s -r 設定幀速率,默認爲25 -s 設定畫面的寬與高 -aspect 設定畫面的比例 -vn 不處理視頻 -vcodec 設定視頻編解碼器,未設定時則使用與輸入流相同的編解碼器 音頻參數: -ar 設定採樣率 -ac 設定聲音的Channel數 -acodec 設定聲音編解碼器,未設定時則使用與輸入流相同的編解碼器 -an 不處理音頻3d
------------------------------------------------------------------------
----------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------
一、將文件當作直播送至live
ffmpeg -re -i localFile.mp4 -c copy -f flv rtmp://server/live/streamName
二、將直播媒體保存至本地文件
ffmpeg -i rtmp://server/live/streamName -c copy dump.flv
三、將其中一個直播流,視頻改用h264壓縮,音頻不變,送至另一個直播服務流
ffmpeg -i rtmp://server/live/originalStream -c:a copy -c:v libx264 -vpre slow -f flv rtmp://server/live/h264Stream
四、將其中一個直播流,視頻改用h264壓縮,音頻改用faac壓縮,送至另一個直播服務流
ffmpeg -i rtmp://server/live/originalStream -c:a libfaac -ar 44100 -ab 48k -c:v libx264 -vpre slow -vpre baseline -f flv rtmp://server/live/h264Stream
五、將其中一個直播流,視頻不變,音頻改用faac壓縮,送至另一個直播服務流
ffmpeg -i rtmp://server/live/originalStream -acodec libfaac -ar 44100 -ab 48k -vcodec copy -f flv rtmp://server/live/h264_AAC_Stream
六、將一個高清流,複製爲幾個不一樣視頻清晰度的流從新發布,其中音頻不變
ffmpeg -re -i rtmp://server/live/high_FMLE_stream -acodec copy -vcodec x264lib -s 640×360 -b 500k -vpre medium -vpre baseline rtmp://server/live/baseline_500k -acodec copy -vcodec x264lib -s 480×272 -b 300k -vpre medium -vpre baseline rtmp://server/live/baseline_300k -acodec copy -vcodec x264lib -s 320×200 -b 150k -vpre medium -vpre baseline rtmp://server/live/baseline_150k -acodec libfaac -vn -ab 48k rtmp://server/live/audio_only_AAC_48k
七、功能同樣,只是採用-x264opts選項
ffmpeg -re -i rtmp://server/live/high_FMLE_stream -c:a copy -c:v x264lib -s 640×360 -x264opts bitrate=500:profile=baseline:preset=slow rtmp://server/live/baseline_500k -c:a copy -c:v x264lib -s 480×272 -x264opts bitrate=300:profile=baseline:preset=slow rtmp://server/live/baseline_300k -c:a copy -c:v x264lib -s 320×200 -x264opts bitrate=150:profile=baseline:preset=slow rtmp://server/live/baseline_150k -c:a libfaac -vn -b:a 48k rtmp://server/live/audio_only_AAC_48k
八、將當前攝像頭及音頻經過DSSHOW採集,視頻h26四、音頻faac壓縮後發佈
ffmpeg -r 25 -f dshow -s 640×480 -i video=」video source name」:audio=」audio source name」 -vcodec libx264 -b 600k -vpre slow -acodec libfaac -ab 128k -f flv rtmp://server/application/stream_name
九、將一個JPG圖片通過h264壓縮循環輸出爲mp4視頻
ffmpeg.exe -i INPUT.jpg -an -vcodec libx264 -coder 1 -flags +loop -cmp +chroma -subq 10 -qcomp 0.6 -qmin 10 -qmax 51 -qdiff 4 -flags2 +dct8x8 -trellis 2 -partitions +parti8x8+parti4x4 -crf 24 -threads 0 -r 25 -g 25 -y OUTPUT.mp4
十、將普通流視頻改用h264壓縮,音頻不變,送至高清流服務(新版本FMS live=1)
ffmpeg -i rtmp://server/live/originalStream -c:a copy -c:v libx264 -vpre slow -f flv 「rtmp://server/live/h264Stream live=1〃
十一、濾鏡
FFmpeg添加了不少濾鏡,查看哪些濾鏡有效可用命令:
# ./ffmpeg -filters.
1. FFmpeg濾鏡文檔
更多的信息和每一個濾鏡的使用示例可查看FFmpeg的濾鏡文檔:
http://ffmpeg.org/ffmpeg-filters.html
2. 示例
2.1 縮放
將輸入的640x480縮小到320x240輸出:
# ./ffmpeg -i input -vf scale=iw/2:-1 output
iw : 是輸入的寬度;在本例中,輸入寬度爲640. 640/2 = 320.
-1 : 通知縮放濾鏡在輸出時保持原始的寬高比,所以本例中縮放濾鏡將選擇240.
2.2 視頻加速
1. 加速/減慢視頻
可使用 「setpts"(http://ffmpeg.org/ffmpeg.html#asetpts_002c-setpts)濾鏡來改變視頻速度。
加速視頻命令:
# ./ffmpeg -i input.mkv -filter:v "setpts=0.5*PTS" output.mkv
Note : 這個方法在實現你想要的速度時,會採起丟幀策略。
若是想避免丟幀,能夠指定輸出的幀率比輸入的幀率高的辦法。
例如,輸入的幀率爲4, 指定輸出的幀率爲4x, 即16fps :
# ./ffmpeg -i input.mkv -r 16 -filter:v "setpts=0.125*PTS" -an output.mkv
減慢視頻命令:
# ./ffmpeg -i input.mkv -filter:v "setpts=2.0*PTS" output.mkv
2. 加速/減慢音頻
可使用" atempo" 音頻濾鏡來加速或減慢音頻。如雙倍速音頻命令:
# ./ffmpeg -i input.mkv -filter:a "atempo=2.0" -vn output.mkv
"atempo"濾鏡對音頻速度調整限制在0.5 到 2.0 之間,(即半速或倍速)。
若是有必要,可使用多個atempo濾鏡來實現,以下面的命令實現四倍速音頻:
# ./ffmpeg -i input.mkv -filter:a "atempo=2.0,atempo=2.0" -vn output.mkv
使用更復雜的濾鏡圖,能夠同時加速視頻和音頻:
# ./ffmpeg -i input.mkv -filter_complex "[0:v]setpts=0.5*PTS[v];[0:a]atempo=2.0[a]" -map "[v]" -map "[a]" output.mkv
2.3 濾鏡圖,鏈,和濾鏡關係
FFmpeg命令行中,跟在 "-vf"以後的就是一個濾鏡圖。
濾鏡圖能夠包含多個濾鏡鏈,而每一個濾鏡鏈又能夠包含多個濾鏡。
雖然一個完整的濾鏡圖描述很複雜,但能夠簡化以免歧義。
濾鏡鏈使用";"分隔,濾鏡鏈中濾鏡使用","分隔;
而且,濾鏡鏈若是沒有指定輸入或輸出,則默認使用前面的濾鏡鏈的輸出爲輸入,並輸出給後面的濾鏡鏈作輸入。
下面的命令行是相等的:
ffmpeg -i input -vf [in]scale=iw/2:-1[out] output
ffmpeg -i input -vf scale=iw/2:-1 output # the input and output are implied without ambiguity
對於下面:
ffmpeg -i input -vf [in]yadif=0:0:0[middle];[middle]scale=iw/2:-1[out] output
# 兩個鏈的方式,每一個鏈一個濾鏡,鏈間使用[middle]填充
ffmpeg -i input -vf [in]yadif=0:0:0,scale=iw/2:-1[out] output
# 一個鏈的方式,鏈包含兩個濾鏡,使用默認連接
ffmpeg -i input -vf yadif=0:0:0,scale=iw/2:-1 output # 輸入輸出也使用默認連接
2.4. 多個輸入覆蓋同一個2x2網格
下例中有四個輸入,並使用 -filter_complex濾鏡連接。
這個例子中四個輸入都是 "-f lavfi -i testsrc", 也能夠用別的輸入代替。
在濾鏡圖中,第一個輸入被填充到右下角,並設置成高度的兩倍。
其它三個輸入使用獨立的濾鏡"hflip, negate,和 edgedetect"。
覆蓋視頻濾鏡被使用屢次,後面三個都覆蓋到第一個之上。
覆蓋濾鏡的偏移量在輸入上造成一個網格。
# ./ffmpeg -f lavfi -i testsrc -f lavfi -i testsrc -f lavfi -i testsrc -f lavfi -i testsrc
-filter_complex "[0:0]pad=iw*2:ih*2[a];[1:0]negate[b];[2:0]hflip[c];
[3:0]edgedetect[d];[a][b]overlay=w[x];[x][c]overlay=0:h[y];[y][d]overlay=w:h"
-y -c:v ffv1 -t 5 multiple_input_grid.avi
2.5 轉義字符
如文檔中的描述,濾鏡間的","分隔符是必須的,但它也會出如今參數中,以下面的"select"濾鏡:
# ./ffmpeg -i input -vf select='eq(pict_type\,PICT_TYPE_I)' output # to select only I frames
做爲一個選擇,在濾鏡圖中一樣能夠在雙引號中使用空格,這樣更方便閱讀:
# ./ffmpeg -i input -vf "select=eq(pict_type,PICT_TYPE_I)" output # to select only I frames
# ./ffmpeg -i input -vf "yadif=0:-1:0, scale=iw/2:-1" output # deinterlace then resize
2.6 燒錄時間碼
使用 "drawtext"視頻濾鏡。
PAL 25 fps non drop frame:
ffmpeg -i in.mp4 -vf "drawtext=fontfile=/usr/share/fonts/truetype/DroidSans.ttf: timecode='09\:57\:00\:00': r=25: \
x=(w-tw)/2: y=h-(2*lh): fontcolor=white: box=1: boxcolor=0x00000000@1" -an -y out.mp4
NTSC 30 fps drop frame
(change the : to a ; before the frame count)_________________________________________________________
\
ffmpeg -i in.mp4 -vf "drawtext=fontfile=/usr/share/fonts/truetype/DroidSans.ttf: timecode='09\:57\:00\;00': r=30: \
x=(w-tw)/2: y=h-(2*lh): fontcolor=white: box=1: boxcolor=0x00000000@1" -an -y out.mp4
2.7 描述命令行參數
構建複雜的濾鏡圖時,會使命令行看起來一團混亂,如何使濾鏡圖命令行可管理就變得頗有用了。
下面的例子包含三個濾鏡,yadif, scale, drawtext的濾鏡圖的腳本:
#!/bin/bash
# ffmpeg test script
path="/path/to/file/"
in_file="in.mp4"
out_file="out.mp4"
cd $path
filter="-vf \"yadif=0:-1:0, scale=400:226, drawtext=fontfile=/usr/share/fonts/truetype/DroidSans.ttf: \
text='tod- %X':x=(w-text_w)/2:y=H-60 :fontcolor=white :box=1:boxcolor=0x00000000@1\""
codec="-vcodec libx264 -pix_fmt yuv420p -b:v 700k -r 25 -maxrate 700k -bufsize 5097k"
command_line="ffmpeg -i $in_file $filter $codec -an $out_file"
echo $command_line
eval $command_line
exit
NOTE: 包含整個濾鏡圖的雙引號須要使用轉義符 \",
eval $command_line變量用於避免轉義符丟失。
2.8 測試源
testsrc源濾鏡生成一個測試視頻源,包含有顏色模式,灰度值和時間戳。它在用於測試目的時頗有用。
下面的例子生成一個10秒的輸出,30fps,共300幀,幀大小爲 1280x720:
# ./ffmpeg -f lavfi -i testsrc=duration=10:size=1280x720:rate=30 output.mpg
使用 smptebars源濾鏡的例子:
# ./ffmpeg -f lavfi -i "smptebars=duration=5:size=1280x720:rate=30" output.mp4
ffplay一樣能用於查看結果濾鏡圖:
ffplay -f lavfi -i "testsrc=duration=10:size=1280x720:rate=30"
ffmpeg -loglevel panic -i 1.mp4 -ss 0 -y -t 10 p%3d.jpg
ffmpeg -loglevel panic -i 1.mp4 -ss 0 -r 0.2 -y -t 60 p%3d.jpg
ffmpeg -ss 0 -i 1.mp4 -r 0.2 -y -t 60 p%3d.jpg
ffmpeg -i 1.mp4 -ss 03:00 -y p%3d.jpg
ffmpeg -ss 03:00 -i 1.mp4 -y -t 20 p%3d.jpg
ffmpeg -y -ss 00:00:50.000 -i 1.mp4 -f image2 out.jpg
ffmpeg -i input.flv -f image2 -vf fps=fps=1 out%d.png
ffmpeg -y -ss 00:00:50.000 -i 1.mp4 -f image2 -vf scale=200:-2 01.jpg
ffmpeg -y -ss 00:00:50.000 -i 1.mp4 -f image2 -vf scale=200:-2 -vf fps=fps=1 %2d.jpg
ffmpeg -y -i 1.mp4 -f image2 -vf scale=200:-2 -r 1 out%3d.jpg
ffmpeg -i 1.mp4 2>&1 | grep 'Duration' | cut -d ' '-f 4 | sed s/,//
./ffmpeg -i /data/screenshot/1.mp4 2>&1 | grep 'Duration' |cut -d ' ' -f 4 | sed s/,// //獲取視頻播放時長
首幀:
ffmpeg -y -i .\Ice.Age.Continental.Drift.720p.mkv -f image2 -vframes 1 firstpic.png
關鍵幀:
ffmpeg -y -vsync passthrough -i .\Ice.Age.Continental.Drift.720p.mkv -vf 'select=expr=eq(pict_type\,I)' -f image2 .\testpic\out_%05d.png
照片牆
ffmpeg -y -vsync passthrough -i .\Ice.Age.Continental.Drift.720p.mkv -vf select='gt(scene\,0.4)',scale=160:90,tile -vframes 2 preview_%05d.png
ffmpeg -y -i 1.mp4 -f image2 -vframes 1 %4d.jpg
ffmpeg -y -vsync passthrough -i 1.mp4 -vf select=expr=eq(pict_type\,I) -f image2 %05d.jpg
ffmpeg -y -vsync passthrough -i 1.mp4 -vf select=expr=eq(pict_type\,I) -vf scale=200:-2 -f image2 %05d.jpg
ffmpeg -y -vsync passthrough -i 1.mp4 -vf select='gt(scene\,0.4)',scale=160:90,tile -vframes 2 preview_%05d.png
ffmpeg -ss 00:00:50.000 -i 1.mp4 -f image2 -vframes 1 -y 123123.jpg
time ./ffmpeg -y -i 2.mp4 -filter_complex "select=e=isnan(prev_selected_t)+gte(t-prev_selected_t\,1)" -vsync passthrough -f image2 pic_1/%05d.jpeg
ffmpeg -y -i 2.mp4 -r 1 -s 200*120 -f image2 -vsync 2 ./pic2/out_%05d.jpeg