1. 概述
   
本文将介绍如何利用FFMPEG对桌面进行截屏,并保存成MP4的格式。
    
    
    2. 基本工作流程
   
    
   
    初始化:利用函数
    
     avformat_network_init();
    
     和
    
     avdevice_register_all();
    
    完成FFMPEG的初始化,其中
    
     avformat_network_init()
    
    完成网络库的全局初始化,
    
     avdevice_register_all()
    
    用于注册输入/输出设备;
   
    截屏设置:
    
    
    
     AVInputFormat *pInputFormat = av_find_input_format("gdigrab");
    
    用于寻找的gdigrab输入设备。gdigrab是FFmpeg专门用于抓取Windows桌面图像的设备。
    
    
    
     avformat_open_input(&pInputFormatContext, "desktop", pInputFormat, &options);
    
    用于打开指定的视频流。
    
    
    
     pInputFormatContext
    
    :用户提供的指针,类型为
    
     AVFormatContext
    
    ,可以事先通过
    
     avformat_alloc_context()
    
    进行分配。
    
    
    
     "desktop"
    
    : 提供一个可打开的流。可以是本地文件,rtmp协议、rtp协议指定的流地址,这里为“desktop”,表示对整个桌面进行截屏。
    
    
    
     pInputFormat
    
    :如果该值不为NULL,则会强制使用该值作为输入流格式,否则将会进行自动检测。在前面,程序前面已经分配
    
     AVInputFormat *pInputFormat = av_find_input_format("gdigrab");
    
    
    
    
     option
    
    包含
    
     AVFormatContext
    
    和
    
     demuxer
    
    私有选项的字典。
   
    获取编码器信息:该步骤主要为了打开相应的解码器,用于对截屏的数据进行解码;
    
    该步骤从开始到结束主要涉及的函数如下
    
    
    
     avformat_find_stream_info(pInputFormatContext, 0);
    
    获取码流信息。例如帧率、视频宽高等;
   
videoStreamIndex = av_find_best_stream(pInputFormatContext, AVMEDIA_TYPE_VIDEO, -1, -1, &pInputCodec, 0);获取对应的数据流索引;
    
    
     pInputCodec = avcodec_find_decoder(videoStream->codecpar->codec_id);
    
    获取对应的编码器;
   
    
    
     ffret = avcodec_parameters_to_context(pInputCodecContex, videoStream->codecpar);
    
    从
    
     videoStream
    
    中拷贝编码器信息到
    
     pInputCodecContex
    
    中;
   
    
    
     fret = avcodec_open2(pInputCodecContex, pInputCodec, nullptr);
    
    打开相应的编码器;
   
设置输出的编码器:
    
    
     avformat_alloc_output_context2(&pOutputFormatContext, NULL, NULL, filename_out);
    
    在编码前需要通过这个函数申请到一个
    
     AVFormatContext
    
    
   
    
    
     p_outstream = avformat_new_stream(pOutputFormatContext, NULL);
    
     为这个新申请到的
    
     AVFormatContext
    
    分配一个新的stream
   
    
    
     pOutCodec = avcodec_find_encoder(codec_id);
    
    查找一个编码器
   
    
    
     pOutCodecContext = avcodec_alloc_context3(pOutCodec);
    
    配置编码器
   
以下是编码器的设置信息,从字面的上的意义不难理解,在这里不赘述
	pOutCodecContext->pix_fmt = AV_PIX_FMT_YUV422P;
	//size
	pOutCodecContext->width = pInputCodecContex->width;
	pOutCodecContext->height = pInputCodecContex->height;
	//目标码率
	pOutCodecContext->bit_rate = 4000000;
	//每10帧插入一个I帧,I帧越小视频越小
	pOutCodecContext->gop_size = 10;
	//Optional Param B帧
	pOutCodecContext->max_b_frames = 1;  //设置B帧为0,则DTS与PTS一致
	pOutCodecContext->time_base.num = 1;
	pOutCodecContext->time_base.den = 25;
	pOutCodecContext->framerate.num = 25;
	pOutCodecContext->framerate.den = 1;
avcodec_open2(pOutCodecContext, pOutCodec, nullptr) 打开解码器
    申请数据内存及初始化尺度变换影
    
    申请数据内存代码如下
   
	pFrame = av_frame_alloc();
	pFrameYUV = av_frame_alloc();//为转换来申请一帧的内存(把原始帧->YUV)
	pFrameYUV->format = AV_PIX_FMT_YUV422P;
	pFrameYUV->width = pInputCodecContex->width;
	pFrameYUV->height = pInputCodecContex->height;
	pFrame->format = pInputCodecContex->pix_fmt;
	pFrame->width = pInputCodecContex->width;
	pFrame->height = pInputCodecContex->height;
	if (av_frame_get_buffer(pFrame, 1) < 0) {
		qDebug() << "Failed: av_frame_get_buffer." << endl;
		return false;
	}
	uint8_t* out_buffer = (uint8_t*)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_YUV422P, pInputCodecContex->width, pInputCodecContex->height, 1));
	if (av_image_fill_arrays(pFrameYUV->data, pFrameYUV->linesize, out_buffer, AV_PIX_FMT_YUV422P, pInputCodecContex->width, pInputCodecContex->height, 1) < 0) {
		qDebug() << "Failed: av_image_fill_arrays\n" << endl;
		return false;
	}
    其中
    
     pFrame
    
    是用于存放截屏后解码出来的数据,
    
     pFrameYUV
    
    用于存储
    
     pFrame
    
    经尺度变换后的原始数据;
   
    
    
     av_frame_get_buffer
    
    用于获取存储空间;
   
    
    
     av_image_fill_arrays
    
    用于将
    
     pFrameYUV
    
    和申请到的内存进行关联;
   
    
    
     img_convert_ctx = sws_getContext(pInputCodecContex->width, pInputCodecContex->height, pInputCodecContex->pix_fmt, pInputCodecContex->width, pInputCodecContex->height, AV_PIX_FMT_YUV422P, SWS_BICUBIC, NULL, NULL, NULL);
    
    用于定义获取视频和存储视频的尺寸变换关系,并返回结构件
    
     img_convert_ctx
    
    。
    
    到这里,关于输入视频及其解码器,输出视频及其编码器,还有两者相关联的尺寸变换关系,内存空间都已经设置完成,实现真正实现视频的获取及保存。
   
视频获取及保存
    
    
     av_read_frame(pInputFormatContext, packet)
    
    从输入流中获取视频,并保存到
    
     packet
    
    中。
   
    
    
     avcodec_send_packet(pInputCodecContex, packet);
    
    ,
    
     avcodec_receive_frame(pInputCodecContex, pFrame);
    
    利用这两个函数,实现数据解码,解码的结果保存在
    
     pFrame
    
    中。
   
    
    
     sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pInputCodecContex->height, pFrameYUV->data, pFrameYUV->linesize);
    
    对视频数据进行尺度变换,并将结果保存在
    
     pFrameYUV
    
    中。
   
    
    
     avcodec_send_frame(pOutCodecContext, pFrameYUV)
    
    ,
    
     avcodec_receive_packet(pOutCodecContext, pkt)
    
    ,这两个函数实现数据的重新编码,编码后的数据保存在pkt中。
   
    
    
     ffret = avformat_write_header(pOutputFormatContext, NULL);
    
    ,
    
     ret = av_interleaved_write_frame(pOutputFormatContext, pkt);
    
    ,
    
     av_write_trailer(pOutputFormatContext);
    
    三个函数实现视频数据的保存。
   
至此,视频数据完成了保存。程序结束时,再将申请的资源进行释放即完成全部工作。
    
    
    3. 结束
   
    本文的完整代码可以从
    
     这里
    
    下载。