ffmpeg录屏并保存为MP4文件

  • Post author:
  • Post category:其他




1. 概述

本文将介绍如何利用FFMPEG对桌面进行截屏,并保存成MP4的格式。



2. 基本工作流程

程序工作流程

初始化:利用函数

avformat_network_init();

​ 和

avdevice_register_all();

​完成FFMPEG的初始化,其中

avformat_network_init()

​完成网络库的全局初始化,

avdevice_register_all()

​用于注册输入/输出设备;

截屏设置:



AVInputFormat *pInputFormat = av_find_input_format("gdigrab");

​用于寻找的gdigrab输入设备。gdigrab是FFmpeg专门用于抓取Windows桌面图像的设备。



avformat_open_input(&pInputFormatContext, "desktop", pInputFormat, &options);

​用于打开指定的视频流。



pInputFormatContext

​:用户提供的指针,类型为

AVFormatContext

​,可以事先通过

avformat_alloc_context()

​进行分配。



"desktop"

​: 提供一个可打开的流。可以是本地文件,rtmp协议、rtp协议指定的流地址,这里为“desktop”,表示对整个桌面进行截屏。



pInputFormat

​:如果该值不为NULL,则会强制使用该值作为输入流格式,否则将会进行自动检测。在前面,程序前面已经分配

AVInputFormat *pInputFormat = av_find_input_format("gdigrab");




option

​包含

AVFormatContext

​和

demuxer

​私有选项的字典。

获取编码器信息:该步骤主要为了打开相应的解码器,用于对截屏的数据进行解码;

该步骤从开始到结束主要涉及的函数如下



avformat_find_stream_info(pInputFormatContext, 0);

​获取码流信息。例如帧率、视频宽高等;

videoStreamIndex = av_find_best_stream(pInputFormatContext, AVMEDIA_TYPE_VIDEO, -1, -1, &pInputCodec, 0);获取对应的数据流索引;



pInputCodec = avcodec_find_decoder(videoStream->codecpar->codec_id);

​获取对应的编码器;



ffret = avcodec_parameters_to_context(pInputCodecContex, videoStream->codecpar);

​从

videoStream

​中拷贝编码器信息到

pInputCodecContex

​中;



fret = avcodec_open2(pInputCodecContex, pInputCodec, nullptr);

​打开相应的编码器;

设置输出的编码器:



avformat_alloc_output_context2(&pOutputFormatContext, NULL, NULL, filename_out);

​在编码前需要通过这个函数申请到一个

AVFormatContext



p_outstream = avformat_new_stream(pOutputFormatContext, NULL);

​ 为这个新申请到的

AVFormatContext

​分配一个新的stream



pOutCodec = avcodec_find_encoder(codec_id);

​查找一个编码器



pOutCodecContext = avcodec_alloc_context3(pOutCodec);

​配置编码器

以下是编码器的设置信息,从字面的上的意义不难理解,在这里不赘述

	pOutCodecContext->pix_fmt = AV_PIX_FMT_YUV422P;
	//size
	pOutCodecContext->width = pInputCodecContex->width;
	pOutCodecContext->height = pInputCodecContex->height;
	//目标码率
	pOutCodecContext->bit_rate = 4000000;
	//每10帧插入一个I帧,I帧越小视频越小
	pOutCodecContext->gop_size = 10;
	//Optional Param B帧
	pOutCodecContext->max_b_frames = 1;  //设置B帧为0,则DTS与PTS一致
	pOutCodecContext->time_base.num = 1;
	pOutCodecContext->time_base.den = 25;
	pOutCodecContext->framerate.num = 25;
	pOutCodecContext->framerate.den = 1;

avcodec_open2(pOutCodecContext, pOutCodec, nullptr) 打开解码器

申请数据内存及初始化尺度变换影

申请数据内存代码如下

	pFrame = av_frame_alloc();
	pFrameYUV = av_frame_alloc();//为转换来申请一帧的内存(把原始帧->YUV)

	pFrameYUV->format = AV_PIX_FMT_YUV422P;
	pFrameYUV->width = pInputCodecContex->width;
	pFrameYUV->height = pInputCodecContex->height;

	pFrame->format = pInputCodecContex->pix_fmt;
	pFrame->width = pInputCodecContex->width;
	pFrame->height = pInputCodecContex->height;
	if (av_frame_get_buffer(pFrame, 1) < 0) {
		qDebug() << "Failed: av_frame_get_buffer." << endl;
		return false;
	}

	uint8_t* out_buffer = (uint8_t*)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_YUV422P, pInputCodecContex->width, pInputCodecContex->height, 1));

	if (av_image_fill_arrays(pFrameYUV->data, pFrameYUV->linesize, out_buffer, AV_PIX_FMT_YUV422P, pInputCodecContex->width, pInputCodecContex->height, 1) < 0) {
		qDebug() << "Failed: av_image_fill_arrays\n" << endl;
		return false;
	}

其中

pFrame

​是用于存放截屏后解码出来的数据,

pFrameYUV

​用于存储

pFrame

​经尺度变换后的原始数据;



av_frame_get_buffer

​用于获取存储空间;



av_image_fill_arrays

​用于将

pFrameYUV

​和申请到的内存进行关联;



img_convert_ctx = sws_getContext(pInputCodecContex->width, pInputCodecContex->height, pInputCodecContex->pix_fmt, pInputCodecContex->width, pInputCodecContex->height, AV_PIX_FMT_YUV422P, SWS_BICUBIC, NULL, NULL, NULL);

​用于定义获取视频和存储视频的尺寸变换关系,并返回结构件

img_convert_ctx

​。

到这里,关于输入视频及其解码器,输出视频及其编码器,还有两者相关联的尺寸变换关系,内存空间都已经设置完成,实现真正实现视频的获取及保存。

视频获取及保存



av_read_frame(pInputFormatContext, packet)

​从输入流中获取视频,并保存到

packet

​中。



avcodec_send_packet(pInputCodecContex, packet);

​,

avcodec_receive_frame(pInputCodecContex, pFrame);

​利用这两个函数,实现数据解码,解码的结果保存在

pFrame

​中。



sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pInputCodecContex->height, pFrameYUV->data, pFrameYUV->linesize);

​对视频数据进行尺度变换,并将结果保存在

pFrameYUV

​中。



avcodec_send_frame(pOutCodecContext, pFrameYUV)

​,

avcodec_receive_packet(pOutCodecContext, pkt)

​,这两个函数实现数据的重新编码,编码后的数据保存在pkt中。



ffret = avformat_write_header(pOutputFormatContext, NULL);

​,

ret = av_interleaved_write_frame(pOutputFormatContext, pkt);

​,

av_write_trailer(pOutputFormatContext);

​三个函数实现视频数据的保存。

至此,视频数据完成了保存。程序结束时,再将申请的资源进行释放即完成全部工作。



3. 结束

本文的完整代码可以从

这里

下载。



版权声明:本文为Cesaroy原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。