ffmpeg音视频处理大纲
FFmpeg 是一个功能强大的开源音视频处理工具集,其核心代码以 C 语言实现。下面从源码角度分析 FFmpeg 如何实现转码、压缩、提取、截取、拼接、合并和录屏等功能:
一、FFmpeg 核心架构与数据结构
FFmpeg 的源码结构围绕以下核心组件展开:
- libavformat:输入 / 输出格式处理(如 MP4、MKV、RTSP 等)
- libavcodec:编解码库(如 H.264、AAC、VP9 等)
- libavutil:工具库(内存管理、数学运算、错误处理等)
- libswscale:图像缩放与格式转换
- libswresample:音频重采样与格式转换
- libavfilter:音视频滤镜系统
关键数据结构包括:
- AVFormatContext:格式上下文,管理输入 / 输出文件
- AVCodecContext:编解码器上下文,配置编码 / 解码参数
- AVStream:媒体流(音频 / 视频 / 字幕)
- AVPacket:压缩数据(编码后的音视频数据)
- AVFrame:原始数据(解码后的音视频帧)
二、核心功能源码分析
2.1. 转码(Transcoding)
转码是将输入媒体流解码后重新编码为另一种格式的过程。核心流程在ffmpeg.c的transcode()函数中:
// ffmpeg.c: transcode() 简化版流程
static int transcode(void) {// 1. 打开输入文件并读取流信息if (open_input_file(ifile) < 0) exit_program(1);// 2. 打开输出文件并创建输出流if (open_output_file(ofile) < 0) exit_program(1);// 3. 主循环:读取输入包 -> 解码 -> 编码 -> 写入输出while (!received_sigterm) {// 从输入文件读取一个AVPacketret = get_input_packet(ifile, &pkt);// 找到对应的解码器并解码为AVFrameret = decode(ist->dec_ctx, ist->frame, &got_frame, &pkt);// 处理解码后的AVFrame(可能需要滤镜处理)if (got_frame) {// 转换帧格式(如像素格式、采样率等)filter_frame(ist, ist->filter_frame);// 找到对应的编码器并编码为AVPacketret = encode(ost->enc_ctx, &pkt_out, frame, &got_packet);// 将编码后的AVPacket写入输出文件if (got_packet) write_packet(ofile, &pkt_out, ost);}}// 4. 清理资源close_input_file(ifile);close_output_file(ofile);return 0;
}
2.2. 压缩(Compression)
压缩本质是通过编码器控制比特率。在ffmpeg.c中,编码器参数通过AVCodecContext设置:
// ffmpeg.c: open_output_file() 中设置编码器参数
static AVCodecContext *init_output_stream_encode(OutputStream *ost) {AVCodecContext *avctx = ost->enc_ctx;// 设置视频编码器参数if (avctx->codec_type == AVMEDIA_TYPE_VIDEO) {avctx->bit_rate = ost->bitrate; // 设置目标比特率avctx->width = ost->source_width; // 分辨率avctx->height = ost->source_height;avctx->time_base = ost->frame_rate; // 帧率avctx->gop_size = ost->gop_size; // I帧间隔// ...其他参数}// 设置音频编码器参数else if (avctx->codec_type == AVMEDIA_TYPE_AUDIO) {avctx->bit_rate = ost->bitrate; // 音频比特率avctx->sample_rate = ost->sample_rate; // 采样率avctx->channels = avctx->codec->channels; // 声道数// ...其他参数}// 打开编码器ret = avcodec_open2(avctx, codec, &opts);return avctx;
}
2.3. 提取(Extraction)
提取特定流(如仅提取音频或视频)通过禁用不需要的流实现:
// ffmpeg.c: open_input_file() 中设置流选择
static int open_input_file(InputFile *f) {// 打开输入文件ret = avformat_open_input(&f->ctx, filename, fmt, &format_opts);// 读取流信息ret = avformat_find_stream_info(f->ctx, NULL);// 选择需要的流(如只选视频流)for (i = 0; i < f->ctx->nb_streams; i++) {AVStream *st = f->ctx->streams[i];if (st->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) {f->streams[i]->discard = 0; // 保留视频流} else {f->streams[i]->discard = AVDISCARD_ALL; // 丢弃其他流}}return 0;
}
2.4. 截取(Trimming)
截取通过设置输入文件的开始时间(-ss)和持续时间(-t)实现:
// ffmpeg.c: transcode_init() 中处理时间选项
static int transcode_init(void) {// 处理输入文件的起始时间(-ss)if (ifile->start_time != AV_NOPTS_VALUE) {if (ifile->ctx->start_time != AV_NOPTS_VALUE) {ifile->ts_offset = ifile->ctx->start_time;}avformat_seek_file(ifile->ctx, -1, INT64_MIN, ifile->start_time, INT64_MAX, 0);}// 处理持续时间(-t)if (ofile->recording_time != INT64_MAX) {ost->max_frames = av_rescale_q(ofile->recording_time,AV_TIME_BASE_Q,ost->st->time_base);}return 0;
}
2.5. 拼接(Concatenation)
拼接多个媒体文件通过concat协议或滤镜实现。核心是使用libavfilter的concat滤镜:
// ffmpeg_filter.c: configure_filtergraph() 中配置concat滤镜
static int configure_filtergraph(FilterGraph *fg) {// 创建concat滤镜上下文AVFilter *filter = avfilter_get_by_name("concat");AVFilterContext *concat_ctx;// 设置滤镜参数(输入流数量、是否同步等)avfilter_graph_create_filter(&concat_ctx, filter, "concat",options, NULL, fg->graph);// 将多个输入流连接到concat滤镜for (i = 0; i < nb_inputs; i++) {avfilter_link(inputs[i]->filter, 0, concat_ctx, i);}// 配置滤镜图并生效return avfilter_graph_config(fg->graph, NULL);
}
2.6. 合并(Muxing)
合并多个流到一个容器(如音视频合并)通过创建多个输出流实现:
// ffmpeg.c: open_output_file() 中创建输出流
static int open_output_file(OutputFile *of) {// 创建输出格式上下文ret = avformat_alloc_output_context2(&of->ctx, NULL, fmt, filename);// 为每种媒体类型创建输出流for (i = 0; i < nb_output_streams; i++) {OutputStream *ost = output_streams[i];AVStream *st = avformat_new_stream(of->ctx, ost->enc);ost->st = st;// 复制流参数(如编解码器参数)ret = avcodec_parameters_from_context(st->codecpar, ost->enc_ctx);}// 打开输出文件if (!(of->ctx->oformat->flags & AVFMT_NOFILE)) {ret = avio_open(&of->ctx->pb, filename, AVIO_FLAG_WRITE);}// 写入文件头ret = avformat_write_header(of->ctx, &opts);return 0;
}
2.7. 录屏(Screen Recording)
录屏通过libavdevice访问系统设备实现。以 Linux 的 X11 录屏为例:
// ffmpeg.c: open_input_file() 中使用avdevice打开录屏设备
static int open_input_file(InputFile *f) {// 注册设备avdevice_register_all();// 打开X11录屏设备AVInputFormat *iformat = av_find_input_format("x11grab");ret = avformat_open_input(&f->ctx, display_name, iformat, &format_opts);// 设置录屏参数(帧率、分辨率等)if (f->framerate.num) {av_dict_set(&format_opts, "framerate", av_get_time_base_q(), 0);}if (f->video_size) {av_dict_set(&format_opts, "video_size", f->video_size, 0);}// 读取流信息ret = avformat_find_stream_info(f->ctx, NULL);return 0;
}
三、关键技术点解析
3.1. 时间戳处理
FFmpeg 使用复杂的时间戳转换机制,确保音视频同步:
- AV_TIME_BASE:全局时间基(通常为 1000000,表示微秒)
- AVStream.time_base:每个流的时间基,用于时间戳换算
- 关键函数:av_rescale_q() 用于不同时间基之间的转换
3.2. 滤镜系统
libavfilter实现了强大的滤镜链处理:
- 滤镜图(FilterGraph):由多个滤镜上下文(FilterContext)连接而成
- 关键函数:avfilter_graph_create_filter()、avfilter_link()
3.3. 多线程处理
FFmpeg 支持编解码多线程:
- 编码器多线程:通过AVCodecContext.thread_count和thread_type控制
- 帧级多线程:并行处理多个帧
- 片级多线程:并行处理同一帧的不同分片
四、总结
FFmpeg 通过模块化设计实现了强大的音视频处理能力:
- 转码:通过解码 + 编码 + 格式转换实现
- 压缩:通过编码器参数控制比特率
- 提取:通过流选择机制丢弃不需要的流
- 截取:通过时间戳控制实现
- 拼接:通过 concat 滤镜或协议实现
- 合并:通过复用器(Muxer)将多个流写入同一容器
- 录屏:通过设备驱动(libavdevice)获取系统音视频输入
源码中最核心的逻辑位于ffmpeg.c的transcode()函数,它串联了整个处理流程。理解 FFmpeg 的架构和数据结构是深入掌握其功能的关键。