首先是名字:中文名,就稱爲ffmpeg過濾器,固然也有人稱爲ffmpeg 濾鏡。(用濾鏡聽起來好像是給video用的,因此不太好,由於audio也能夠用)
ffmpeg目錄下,有個文件夾叫libavfilter,它能夠單獨編譯爲一個庫。幹嗎用的呢?用於音視頻過濾。
好比,我有一個mp4,想把它縮小一半,輸出一個新的mp4,那麼,作縮小動做的,就是libavfilter。
是否是想查看ffmpeg有多少filter?用下面的命令。 ./ffmpeg -filters
html
filter的使用很簡單。下面就舉兩個例子。數組
./ffmpeg -i input.mp4 -vf scale=960:540 output.mp4
//ps: 若是540不寫,寫成-1,即scale=960:-1, 那也是能夠的,ffmpeg會通知縮放濾鏡在輸出時保持原始的寬高比。緩存
好比,我有這麼一個圖片 ide
想要貼到一個視頻上,那能夠用以下命令: ./ffmpeg -i input.mp4 -i iQIYI_logo.png -filter_complex overlay output.mp4
結果以下所示:函數
要貼到其餘地方?看下面:
右上角: ./ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=W-w output.mp4
左下角: ./ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=0:H-h output.mp4
右下角: ./ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=W-w:H-h output.mp4
網站
有時候,下載了某個網站的視頻,可是有logo很煩,咋辦?有辦法,用ffmpeg的delogo過濾器。
語法:-vf delogo=x:y:w:h[:t[:show]]
x:y 離左上角的座標
w:h logo的寬和高
t: 矩形邊緣的厚度默認值4
show:若設置爲1有一個綠色的矩形,默認值0。ui
./ffmpeg -i input.mp4 -vf delogo=0:0:220:90:100:1 output.mp4
結果以下所示: this
ffmpeg還有其餘強大功能,這裏就不說啦,具體可看
http://blog.csdn.net/newchenxf/article/details/51384360編碼
既然過濾器這麼好,那如何本身實現一個呢?
很簡單,作3件事:
a). 本身寫一個XXX.c文件,好比vf_transform.c,放在libavfilter目錄下。代碼能夠參考其餘filter;
b) 在libavfilter/allfilters.c添加一行:
REGISTER_FILTER(TRANSFORM, transform, vf);
c) 修改libavfilter/Makefile,添加一行:
OBJS-$(CONFIG_TRANSFORM_FILTER) += vf_transform.o.net
步驟知道了,如今就作第一步,開始coding一個C文件吧,名字就爲vf_transform.c,給出代碼以下所示。
#include "libavutil/opt.h" #include "libavutil/imgutils.h" #include "libavutil/avassert.h" #include "avfilter.h" #include "formats.h" #include "internal.h" #include "video.h" typedef struct TransformContext { const AVClass *class; int backUp; //add some private data if you want } TransformContext; typedef struct ThreadData { AVFrame *in, *out; } ThreadData; static void image_copy_plane(uint8_t *dst, int dst_linesize, const uint8_t *src, int src_linesize, int bytewidth, int height) { if (!dst || !src) return; av_assert0(abs(src_linesize) >= bytewidth); av_assert0(abs(dst_linesize) >= bytewidth); for (;height > 0; height--) { memcpy(dst, src, bytewidth); dst += dst_linesize; src += src_linesize; } } //for YUV data, frame->data[0] save Y, frame->data[1] save U, frame->data[2] save V static int frame_copy_video(AVFrame *dst, const AVFrame *src) { int i, planes; if (dst->width > src->width || dst->height > src->height) return AVERROR(EINVAL); planes = av_pix_fmt_count_planes(dst->format); //make sure data is valid for (i = 0; i < planes; i++) if (!dst->data[i] || !src->data[i]) return AVERROR(EINVAL); const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(dst->format); int planes_nb = 0; for (i = 0; i < desc->nb_components; i++) planes_nb = FFMAX(planes_nb, desc->comp[i].plane + 1); for (i = 0; i < planes_nb; i++) { int h = dst->height; int bwidth = av_image_get_linesize(dst->format, dst->width, i); if (bwidth < 0) { av_log(NULL, AV_LOG_ERROR, "av_image_get_linesize failed\n"); return; } if (i == 1 || i == 2) { h = AV_CEIL_RSHIFT(dst->height, desc->log2_chroma_h); } image_copy_plane(dst->data[i], dst->linesize[i], src->data[i], src->linesize[i], bwidth, h); } return 0; } /************************************************************************** * you can modify this function, do what you want here. use src frame, and blend to dst frame. * for this demo, we just copy some part of src frame to dst frame(out_w = in_w/2, out_h = in_h/2) ***************************************************************************/ static int do_conversion(AVFilterContext *ctx, void *arg, int jobnr, int nb_jobs) { TransformContext *privCtx = ctx->priv; ThreadData *td = arg; AVFrame *dst = td->out; AVFrame *src = td->in; frame_copy_video(dst, src); return 0; } static int filter_frame(AVFilterLink *link, AVFrame *in) { av_log(NULL, AV_LOG_WARNING, "### chenxf filter_frame, link %x, frame %x \n", link, in); AVFilterContext *avctx = link->dst; AVFilterLink *outlink = avctx->outputs[0]; AVFrame *out; //allocate a new buffer, data is null out = ff_get_video_buffer(outlink, outlink->w, outlink->h); if (!out) { av_frame_free(&in); return AVERROR(ENOMEM); } //the new output frame, property is the same as input frame, only width/height is different av_frame_copy_props(out, in); out->width = outlink->w; out->height = outlink->h; ThreadData td; td.in = in; td.out = out; int res; if(res = avctx->internal->execute(avctx, do_conversion, &td, NULL, FFMIN(outlink->h, avctx->graph->nb_threads))) { return res; } av_frame_free(&in); return ff_filter_frame(outlink, out); } static av_cold int config_output(AVFilterLink *outlink) { AVFilterContext *ctx = outlink->src; TransformContext *privCtx = ctx->priv; //you can modify output width/height here outlink->w = ctx->inputs[0]->w/2; outlink->h = ctx->inputs[0]->h/2; av_log(NULL, AV_LOG_DEBUG, "configure output, w h = (%d %d), format %d \n", outlink->w, outlink->h, outlink->format); return 0; } static av_cold int init(AVFilterContext *ctx) { av_log(NULL, AV_LOG_DEBUG, "init \n"); TransformContext *privCtx = ctx->priv; //init something here if you want return 0; } static av_cold void uninit(AVFilterContext *ctx) { av_log(NULL, AV_LOG_DEBUG, "uninit \n"); TransformContext *privCtx = ctx->priv; //uninit something here if you want } //currently we just support the most common YUV420, can add more if needed static int query_formats(AVFilterContext *ctx) { static const enum AVPixelFormat pix_fmts[] = { AV_PIX_FMT_YUV420P, AV_PIX_FMT_NONE }; AVFilterFormats *fmts_list = ff_make_format_list(pix_fmts); if (!fmts_list) return AVERROR(ENOMEM); return ff_set_common_formats(ctx, fmts_list); } //************* #define OFFSET(x) offsetof(TransformContext, x) #define FLAGS AV_OPT_FLAG_VIDEO_PARAM|AV_OPT_FLAG_FILTERING_PARAM static const AVOption transform_options[] = { { "backUp", "a backup parameters, NOT use so far", OFFSET(backUp), AV_OPT_TYPE_STRING, {.str = "0"}, CHAR_MIN, CHAR_MAX, FLAGS }, { NULL } };// TODO: add something if needed static const AVClass transform_class = { .class_name = "transform", .item_name = av_default_item_name, .option = transform_options, .version = LIBAVUTIL_VERSION_INT, .category = AV_CLASS_CATEGORY_FILTER, }; static const AVFilterPad avfilter_vf_transform_inputs[] = { { .name = "transform_inputpad", .type = AVMEDIA_TYPE_VIDEO, .filter_frame = filter_frame, }, { NULL } }; static const AVFilterPad avfilter_vf_transform_outputs[] = { { .name = "transform_outputpad", .type = AVMEDIA_TYPE_VIDEO, .config_props = config_output, }, { NULL } }; AVFilter ff_vf_transform = { .name = "transform", .description = NULL_IF_CONFIG_SMALL("cut a part of video"), .priv_size = sizeof(TransformContext), .priv_class = &transform_class, .init = init, .uninit = uninit, .query_formats = query_formats, .inputs = avfilter_vf_transform_inputs, .outputs = avfilter_vf_transform_outputs, };
要寫一個filter,基本上按着上面的模板就能夠了,最關鍵的函數就是filter_frame。你能夠經過修改filter_frame,來作想要的變換。
固然啦,我仍是要友情介紹一下上面的代碼。
從下往上看,咱們要寫的首先是AVFilter,其中的名字就是對外宣稱的名字,和命令行要使用的」-vf transform」 是同樣的。
priv——size初始化了TransformContext,這個是你本身寫的filter的私有上下文,你能夠把各類須要的本地全局變量放在這,挺好的。
接着就是init和uninit,這個是看狀況的,若是你的私有上下文,有什麼內容要初始化,那就放在init,若是沒有,那能夠把這兩句刪掉。init/uninit函數也能夠不寫。
接着就是query_formats,這個就是宣稱你的filter支持什麼格式的frame。本例只寫着YUV420,固然你能夠根據須要添加支持。
接着就是AVFilterPad inputs/outputs,這個你能夠認爲是filter和外面交互的橋樑。
好比AVFilterPad avfilter_vf_transform_inputs,就聲明告終構體的函數指針filter_frame,將會指向本文件的filter_frame(…)函數,這時候,其餘filter能夠經過這個函數指針,間接調用filter_frame(…)。
同理AVFilterPad avfilter_vf_transform_outputs,聲明告終構體的函數指針config_props,將會指向本文件的config_output(…)函數,這時候,其餘filter能夠經過這個函數指針,間接調用config_output(…)。
filter_frame(…)是最關鍵的函數,咱們要作的變換,必須在該函數實現。
config_output(…)幹嗎用呢?用於配置輸出的frame的大小。好比輸入一個1920x1080的幀,咱們想要變換一下,並以960x540輸出,那麼,這個960x540就得在該函數設置。
說完這些,好像你基本上就懂了。本例就在filter_frame函數裏,把輸入的一幀,的左上部分,剪切的dst frame,而後輸出。
好了,從新編譯ffmpeg,而後就能夠跑起來了。 ./ffmpeg -loglevel warning -i input.mp4 -vf transform output.mp4
代碼寫好了,可是是否是雲裏霧裏,不知道爲啥那麼寫,不知道那些結構體究竟是啥關係?別怕,接下來就爲你揭開各類結構體關係的神祕面紗。
filter涉及的結構體,主要包括:
InputStream, OutputStream
FilterGraph,
AVFilterGraph, AVFilterContext, AVFilterLink, AVFilterPad。
要理清它們之間錯綜複雜的關係,單看代碼是很難記憶深入的,爲此我特意花了一張圖,以下所示。(以上面的例子爲背景)
上面的例子,用了命令: ./ffmpeg -loglevel warning -i input.mp4 -vf transform output.mp4
即用了咱們寫的transform filter。
假設源視頻input.mp4,有一路video和一路audio,那麼,audio和video各自有1個InputStream和1個OutputStream。
以video爲例,共一個InputStream & OutputStream。那麼,video所涉及的結構體正如上圖所示。
通常,一個InputStream對應一個Inputfilter,一個OutputStream對應一個OutputFilter。
FilterGraph管理Inputfilter和OutputFilter(固然,Inputfilter和OutputFilter的指針*graph均可以找到管理者FilterGraph)。此外,FilterGraph還管理一個AVFilterGraph。
AVFilterGraph是幹嗎的?它內部有個雙指針,**filters,明顯就是一個指針數組,存一堆的AVFilterContext指針。
AVFilterContext對應啥?它其實就對應一個filter!!!!!也就是說,一個filter的上下文就是AVFilterContext。因此對上圖來講,AVFilterGraph的**filters其實就指向4個AVFilterContext。
你是否是疑問,爲啥咱們本身就寫了一個filter,怎麼會涉及到4個filter?
其實ffmpeg默認是有3個filter的!名字叫「buffer」, 「format」, 「buffersink」,就在上圖上半部分的第一,第三,和第四個AVFilterContext。
AVFilterLink是幹嗎的?它是創建AVFilterContext之間的聯繫。因此,如有4個AVFilterContext,那就須要3個AVFilterLink。
AVFilterLink的src指針,指向上一個AVFilterContext,dst指針,指向下一個AVFilterContext。
AVFilterPad幹嗎的?它用於AVFilterContext之間的callback(回調)。
怎麼個回調法?
很簡單,第一個AVFilterContext的outputs[0]指針,指向第一個AVFilterLink,這個AVFilterLink的dst指針,指向第二個AVFilterContext。
若是我在前一個AVFilterContext調用
outputs[0]->dstpad->filter_frame(Frame* input_frame1), 那其實就意味着,第一個過濾器,能夠把處理好的一個frame(名字爲input_frame1),能夠經過這個調用,傳遞給第二個過濾器的input_pads的filter_frame函數。而咱們實現的vf_transform.c,就是我說的第二個過濾器,裏面就實現了filter_frame().
既然說,filter_frame是最關鍵的函數,也是咱們本身寫filter必須自定義的函數,那麼,咱們就來理一理這個函數從哪裏來,又將到哪裏去!
最初的源頭,是ffmpeg.c的decode_video函數。
將核心代碼抽取出來,以下所示:
static int decode_video(InputStream *ist, AVPacket *pkt, int *got_output) { AVFrame* decoded_frame, f; //解碼 ret = avcodec_decode_video2(ist->dec_ctx, decoded_frame, got_output, pkt); //...... //送給濾鏡 for (i = 0; i < ist->nb_filters; i++) { f = decodec_frame; ret = av_buffersrc_add_frame_flags(ist->filters[i]->filter, f, AV_BUFFERSRC_FLAG_PUSH); } }
可見,最重要作2件事,一個解碼,一個送給濾鏡。
送給哪一個濾鏡呢?InputStream *ist的nb_filters爲1,其實就是指向名字爲「buffer」的filter(源文件:buffersrc.c)。這個filter與其餘filter不一樣的是,它是全部filter的第一個入口。解碼完,都先給它,它再傳遞給下一個。爲啥先給他呢?很簡單,它是一個FIFO,緩存數據用的。
該函數直接走到av_buffersrc_add_frame_internal //buffersrc.c
static int av_buffersrc_add_frame_internal(AVFilterContext *ctx, AVFrame *frame, int flags) { //寫FIFO av_fifo_generic_write(s->fifo, ©, sizeof(copy), NULL); if ((flags & AV_BUFFERSRC_FLAG_PUSH)) if ((ret = ctx->output_pads[0].request_frame(ctx->outputs[0])) < 0) return ret; return 0; }
抽出核心代碼,可見,顯示把frame寫到FIFO,而後調了本身的output_pads[0]的request_frame。
static int request_frame(AVFilterLink *link) { BufferSourceContext *c = link->src->priv; AVFrame *frame; int ret; //省略...... av_fifo_generic_read(c->fifo, &frame, sizeof(frame), NULL); av_log(NULL, AV_LOG_WARNING, "request_frame, frame-pts %lld \n", frame->pts); //這個link,是第一個link,連接當前的AVFilterContext和下一個AVFilterContext,也就是咱們本身寫的vf_transform.c ret = ff_filter_frame(link, frame); return ret; }
抽出核心代碼,可見它從FIFO讀取一幀數據。而後調用ff_filter_frame。此時輸入的link是第一個AVFilterLink。
該函數作了一些基本檢查,走到ff_filter_frame_framed
static int ff_filter_frame_framed(AVFilterLink *link, AVFrame *frame) { //定義一個函數指針filter_frame。所指向的函數,參數爲AVFilterLink *, AVFrame *,返回值爲int int (*filter_frame)(AVFilterLink *, AVFrame *); AVFilterContext *dstctx = link->dst;//下一個AVFilterContext,對本例來講,就是咱們本身寫的transform 濾鏡,源碼在vf_transform.c AVFilterPad *dst = link->dstpad; AVFrame *out = NULL; int ret; if (!(filter_frame = dst->filter_frame))//函數指針filter_frame,link->dstpad其實就是dstctx->input_pads,也就是transform濾鏡定義的 filter_frame = default_filter_frame; //省略300字 ret = filter_frame(link, out); link->frame_count++; ff_update_link_current_pts(link, pts); return ret; }
抽出核心代碼。
定義一個函數指針filter_frame。所指向的函數,必須是參數爲AVFilterLink , AVFrame ,返回值爲int
filter_frame = dst->filter_frame
dst = link->dstpad,而link->dstpad其實就是dstctx->input_pads,也就是transform過濾器定義的input_pads
static const AVFilterPad avfilter_vf_transform_inputs[] = { { .name = "default", .type = AVMEDIA_TYPE_VIDEO, .filter_frame = filter_frame, }, { NULL } };
因此,filter_frame函數指針,指向的就是vf_transform.c實現的filter_frame函數。
static int filter_frame(AVFilterLink *link, AVFrame *in) { AVFilterContext *avctx = link->dst;//第一個link的dst AVFilterContext,其實就是當前的filter的AVFilterContext AVFilterLink *outlink = avctx->outputs[0];//當前的AVFilterContext,outputs[0]指向第二個AVFilterLink AVFrame *out; //分配一個空的AVFrame。 out = ff_get_video_buffer(outlink, outlink->w, outlink->h); if (!out) { av_frame_free(&in); return AVERROR(ENOMEM); } //分配的空buffer的參數和上一個基本一致,但修改寬高。固然啦,若是你願意,不修改寬高,那就不須要下面2句。 av_frame_copy_props(out, in); out->width = outlink->w; out->height = outlink->h; out->format = outlink->format; ThreadData td; td.in = in; td.out = out; int res; if(res = avctx->internal->execute(avctx, do_conversion, &td, NULL, FFMIN(outlink->h, avctx->graph->nb_threads))) { return res; }//啓用一個子線程,執行比較耗時的變換。do_conversion是咱們要作的變換。 av_frame_free(&in); return ff_filter_frame(outlink, out);//此時的ff_filter_frame,輸入參數和前面buffersrc.c調用的已經不同。outlink是第二個AVFilterLink,buffer也是作了變換的新的buffer }
抽出關鍵代碼,抽象,經過ff_get_video_buffer,分配一個空buffer,該buffer用於存儲變換的結果,並會經過ff_filter_frame傳遞到下一個filter。
do_conversion是一個真正作變換的函數,但其實若是要作的處理並不耗時,也不必定要用另外一個線程來處理。直接在該filter_frame作也行。
處理好的新的數據,放在out,調用ff_filter_frame,傳遞給下一個filter。注意,ff_filter_frame的oulink,對應上圖的第二個AVFilterLink。
如上已知,ff_filter_frame只作了一些基本檢查,走到ff_filter_frame_framed。故而咱們直接看ff_filter_frame_framed
static int ff_filter_frame_framed(AVFilterLink *link, AVFrame *frame) { //定義一個函數指針filter_frame。所指向的函數,參數爲AVFilterLink *, AVFrame *,返回值爲int int (*filter_frame)(AVFilterLink *, AVFrame *); AVFilterContext *dstctx = link->dst;//下一個AVFilterContext,對本例來講,就是系統默認的第三個濾鏡,名字叫"format",源碼在vf_format.c AVFilterPad *dst = link->dstpad; AVFrame *out = NULL; int ret; if (!(filter_frame = dst->filter_frame))//vf_format.c沒有實現filter函數,由於返回爲空 filter_frame = default_filter_frame;//因此函數會走到這,函數指針filter_frame 將指向default_filter_frame //省略300字 ret = filter_frame(link, out); link->frame_count++; ff_update_link_current_pts(link, pts); return ret; }
如註釋所說,因爲vf_format.c沒有實現filter函數,因此此時的filter_frame指針,指向的是defalut_filter_frame。
static int default_filter_frame(AVFilterLink *link, AVFrame *frame) { //該函數沒幹啥,又調用ff_filter_frame了,第一個參數,換成第三個AVFilterLink了,第二個參數不變,frame默默的傳遞出去 return ff_filter_frame(link->dst->outputs[0], frame); }
此時link->dst->outputs[0]對應上圖第三個AVFilterLink。
static int ff_filter_frame_framed(AVFilterLink *link, AVFrame *frame) { //定義一個函數指針filter_frame。所指向的函數,參數爲AVFilterLink *, AVFrame *,返回值爲int int (*filter_frame)(AVFilterLink *, AVFrame *); AVFilterContext *dstctx = link->dst;//下一個AVFilterContext,對本例來講,就是系統默認的最後一個濾鏡,名字叫"buffersink",源碼在bufffersink.c AVFilterPad *dst = link->dstpad; AVFrame *out = NULL; int ret; if (!(filter_frame = dst->filter_frame))//指向buffersink.c實現的filte_frame函數 filter_frame = default_filter_frame; //省略300字 ret = filter_frame(link, out); link->frame_count++; ff_update_link_current_pts(link, pts); return ret; }
此時的filter_frame指針,指向buffersink.c實現的filter_frame函數
static int filter_frame(AVFilterLink *link, AVFrame *frame) { AVFilterContext *ctx = link->dst; BufferSinkContext *buf = link->dst->priv; int ret; if ((ret = add_buffer_ref(ctx, frame)) < 0) return ret; //省略300字 return 0; } static int add_buffer_ref(AVFilterContext *ctx, AVFrame *ref) { BufferSinkContext *buf = ctx->priv; /* cache frame */ //把buffer存到FIFO av_fifo_generic_write(buf->fifo, &ref, FIFO_INIT_ELEMENT_SIZE, NULL); return 0; }
抽出關鍵代碼。很清晰的看到,其實就是把buffer存到FIFO。
至此,把filter_frame的前因後果搞清楚啦!!歐耶
當咱們寫了一個filter,把視頻作處理後,ffmpeg是如何把它編碼的呢?
經過研究,發現編碼的源頭函數是reap_filters(…),它會被transcode_step(…)函數調用。
static int reap_filters(int flush) { AVFrame *filtered_frame = NULL;//該指針將存儲一個通過濾鏡處理後的buffer,並送給encoder int i; /* Reap all buffers present in the buffer sinks */ for (i = 0; i < nb_output_streams; i++) {//一路video,一路audio,那麼nb_output_streams = 2 OutputStream *ost = output_streams[i]; OutputFile *of = output_files[ost->file_index]; AVFilterContext *filter; AVCodecContext *enc = ost->enc_ctx; int ret = 0; if (!ost->filter) continue; filter = ost->filter->filter;//OutputStream的filter指針指向buffersink.c定義的AVFilterContext。也就是本文討論的,最後一個AVFilterContext if (!ost->filtered_frame && !(ost->filtered_frame = av_frame_alloc())) { return AVERROR(ENOMEM); } filtered_frame = ost->filtered_frame; while (1) { double float_pts = AV_NOPTS_VALUE; // this is identical to filtered_frame.pts but with higher precision //av_buffersink_get_frame_flags定義在buffersink.c,用於從FIFO讀出一幀 ret = av_buffersink_get_frame_flags(filter, filtered_frame, AV_BUFFERSINK_FLAG_NO_REQUEST); if (ret < 0) { //省略,檢查ret //若是ret<0,不是別的錯誤,那認爲尚未數據,跳出循環 break; } switch (filter->inputs[0]->type) { case AVMEDIA_TYPE_VIDEO: //do_video_out函數將會作video編碼 do_video_out(of->ctx, ost, filtered_frame, float_pts); break; case AVMEDIA_TYPE_AUDIO: //do_audio_out函數將會作audioo編碼 do_audio_out(of->ctx, ost, filtered_frame); break; default: // TODO support subtitle filters av_assert0(0); } av_frame_unref(filtered_frame); } } return 0; }
前一節說了,filter_frame(…)的最終結果是,把buffer存在了buffersink.c的FIFO裏。
那麼,這一節,說的其實就是一個從buffersink的FIFO讀數據,並編碼的過程。
從上面可知,av_buffersink_get_frame_flags函數,從buffersink讀取一幀數據,放到filtered_frame。
static void do_video_out(AVFormatContext *s, OutputStream *ost, AVFrame *next_picture, double sync_ipts) { int ret; AVCodecContext *enc = ost->enc_ctx; int nb_frames, nb0_frames, i; //省略300字 for (i = 0; i < nb_frames; i++) { AVFrame *in_picture; if (i < nb0_frames && ost->last_frame) { in_picture = ost->last_frame; } else in_picture = next_picture; //省略300字 ost->frames_encoded++; //開始編碼 ret = avcodec_encode_video2(enc, &pkt, in_picture, &got_packet); } ///省略300字 }
該函數很長,作了不少瑣事,但關鍵代碼就是調用編碼函數avcodec_encode_video2
說了那麼久,得來個大招了!下面給出ffmpeg使用filter時的函數流程圖,主要把和filter相關的函數拉出來!
對於ffmpeg常規的avcodec_register_all(…), avfilter_register_all(…), av_register_all(…)等函數,我就不說啦。各類CSDN大牛說了不少了!!
transcode_init()主要用於初始化前文提到的各類結構體。
transcode_step主要工做:
解碼->送filter過濾->編碼->繼續解碼….
>choose_output()函數用於選擇一個OutputStream。好比有一個audio,一個video,那要根據pts策略,好比誰的pts比較小,就挑哪一個OutputStream先幹活。 transcode_frome_filter()函數用於選個一個InputStream,用於下一步的process_input()。 process_input()函數主要是解碼,並把解碼的buffer送往filter處理。 reap_filters()函數主要是,從filter的FIFO拿出buffer,並編碼。
FFmpeg官網: http://www.ffmpeg.org
FFmpeg doc : http://www.ffmpeg.org/documentation.html
FFmpeg wiki : https://trac.ffmpeg.org/wiki
CSDN大牛:http://blog.csdn.net/leixiaohua1020/
See FFmpeg filter HOWTO(http://blog.chinaunix.net/uid-26000296-id-3068068.html)
原文連接:http://blog.csdn.net/newchenxf/article/details/51364105