当前位置: 首页 > article >正文

QT + FFMPEG实现简易播放器

QT + FFMPEG实现简易播放器

项目环境:vs2022 + QT5.14 + ffmpeg5.0(第三方库文件已上传到源码中)

项目技术:要求有QT基础(信号槽、事件机制)、音视频解码操作中对FFMPEG相关API库的调用

项目说明:采用ffmpeg库对视频流进行解封装后转成QImage格式,再通过paintEvent事件将其绘画到窗口。

源码:https://github.com/say-Hai/FFmpeg-videoPlayDemo

项目具体运行流程请查看github源码的md文档(先把代码跑起来再说)

一、代码文件说明

  • FFmpegvideoPlayDemo.cpp:程序的窗口类(正常名称为mainwindow,只是vs中会自动根据项目改名)
  • main.cpp:QT运行程序的入口(啥也没改)
  • PlayImage.cpp:程序视频播放的窗口,继承QWidget,实现对QImage(解码器返回的参数)的更新和重写paintEvent绘图事件
  • readThread.cpp:继承QThread的线程类,负责开启/暂停视频的解码操作
  • ★videoDecode.cpp:本程序重点,视频的解码类,通过调用FFmpeg的相关库来解码视频得到AVFrame原始格式,并最后通过sws_scale()转换为RGBA格式,再赋值给QImage类后返回。

二、FFmpegvideoPlayDemo

此函数逻辑很简单,很容易看懂,就是通过QT的信号槽机制,调用对应的操作逻辑(如:调用线程执行open函数)

重要成员变量:readThread* m_readThread = NULL;

FFmpegvideoPlayDemo::FFmpegvideoPlayDemo(QWidget* parent)
	: QWidget(parent)
{
	ui.setupUi(this);
	//设置标题
	this->setWindowTitle(QString("VideoPlay Version 1.00"));
	//实例化视频解码线程
	m_readThread = new readThread();
	将解码线程的自定义信号updateImage信号与PlayImage绑定,直接调用槽函数,槽函数不执行完,阻塞
	connect(m_readThread, &readThread::updateImage, ui.playimage, &PlayImage::updateImage, Qt::DirectConnection);
	将解码线程的自定义播放状态改变的信号与窗口线程的on_PlayState槽函数绑定
	connect(m_readThread, &readThread::playState, this, &FFmpegvideoPlayDemo::on_playState);
}

三、readThread

代码逻辑:调用open函数开启QThread的线程(QThread的线程启动机制:调用start()会新建一个新线程执行run()函数);在run()中调用videoDecode类的open函数进行解码;最后通过while循环来不断发送updateImage信号来让PlayImage类来更新图片

//关键代码:
void readThread::run()
{
	//首先调用open函数,开始视频解码
	bool ret = m_videoDecode->open(m_url);
	if (ret)
	{
		//视频解码成功;设置播放标志位为真
		m_play = true;
		//以当前线程的时间为起点,计算时间
		m_etime2.start();
		//给窗口线程发送视频状态变为play的信号
		emit playState(play);
	}
    //异常处理逻辑
    //...
    
	while (m_play)
	{
		while (m_pause)
		{
			sleepMesc(200);
		}
		QImage image = m_videoDecode->read();
		if (!image.isNull())
		{
			sleepMesc(int(m_videoDecode->pts() - m_etime2.elapsed()));
//★关键代码:
			emit(updateImage(image));
		}
		else
		{
			if (m_videoDecode->isEnd())
			{
				qDebug() << "read Thread over";
				break;
			}
			sleepMesc(1);
		}
	}

	//全部搞完了
	qDebug() << "播放结束";
	//关掉视频解码
	m_videoDecode->close();
	//发送视频播放完的信号
	emit playState(end);
	//到这里,视频解码线程的主要逻辑已经实现完毕
}

四、PlayImage

通过信号槽机制,每当readThread类发送updateImage信号时,自动调用updatePixmap函数来绘画窗口的图形

//关键代码
void PlayImage::updateImage(const QImage& image)
{
	//由于QPixmap用于绘画事件更稳定更快速,这里不处理Image格式的图片
	//直接转换为QPixmap再调用updatePixmap
	updatePixmap(QPixmap::fromImage(image));
}

void PlayImage::updatePixmap(const QPixmap& pixmap)
{
	//因为这里在多线程访问的时候,可能会对m_pixmap造成问题,给这个变量的更新上锁
	m_mutex.lock();
	m_pixmap = pixmap;
	m_mutex.unlock();
	//调用重绘函数paintEvent函数
	update();
}
/// 重写绘图事件
void PlayImage::paintEvent(QPaintEvent* event)
{
	//有图就重绘
	if (!m_pixmap.isNull())
	{
		//实例化一个绘图对象
		QPainter painter(this);
		m_mutex.lock();
		//把图像按父窗口的大小,保持宽高比缩小,原始图片可能不适配播放器尺寸
		QPixmap pixmap = m_pixmap.scaled(this->size(), Qt::KeepAspectRatio);
		m_mutex.unlock();
		//居中绘画
		int x = (this->width() - pixmap.width()) / 2;
		int y = (this->height() - pixmap.height()) / 2;
		painter.drawPixmap(x, y, pixmap);
	}
	//调用QWidget的绘画函数,实现绘制功能
	QWidget::paintEvent(event);
}

五、★videoDecode

ffmpeg相关API函数和结构体实操解码,通过ffmpeg库的解码器实现对url的视频进行解码,返回QImage

最重要的两个函数:(已删除异常处理逻辑,专注于解码流程)有些函数看不懂也没事,可以通过GPT提问

  • bool videoDecode::open(const QString& url):打开解码器,剥去封装格式,解析视频
  • QImage videoDecode::read():处理解码后的数据,生成QImage
bool videoDecode::open(const QString& url)
{
	AVDictionary* dict = NULL;
	//av_dict_set()函数用于向字典中添加或修改键值对,这些参数在FFmpeg库的不同功能中起到配置作用
	av_dict_set(&dict, "rtsp_transport", "tcp", 0);
	av_dict_set(&dict, "max_delay", "3", 0);//设置最大延迟复用,禁止重新排序
	av_dict_set(&dict, "timeout", "1000000", 0);//设置套接字超时

	//打开输入流,并返回解封装上下文
	int ret = avformat_open_input(&m_formatContext,//保存解封装上下文
		url.toStdString().data(),//要打开的视频地址,要转换为char*类型
		NULL,//参数设置,自动选择解码器
		&dict);//参数字典里的参数传进来
    
	ret = avformat_find_stream_info(m_formatContext, NULL);

	m_totalTime = m_formatContext->duration / (AV_TIME_BASE / 1000);

	//信息流获取成功后,我们需要查找视频流ID
	//这里通过AVMediaType枚举查询视频流ID,当然也可以遍历查找
	m_videoIndex = av_find_best_stream(m_formatContext,
		AVMEDIA_TYPE_VIDEO,//媒体类型
		-1,//不指定流索引号,自动查找最佳的视频流
		-1,//不关联其他流,只考虑视频流本身
		NULL,//不需要返回找到的解码器
		0//不设置搜索标准位
	);
	
	//根据索引来获取视频流
	AVStream* videoStream = m_formatContext->streams[m_videoIndex];
    
	m_size.setWidth(videoStream->codecpar->width);
	m_size.setHeight(videoStream->codecpar->height);
    
	m_frameRate = rationalToDouble(&videoStream->avg_frame_rate);

	//获取解码器
	const AVCodec* codec = avcodec_find_decoder(videoStream->codecpar->codec_id);
	m_totalFrames = videoStream->nb_frames;
	m_codecContext = avcodec_alloc_context3(codec);
    
	ret = avcodec_parameters_to_context(m_codecContext, videoStream->codecpar);
    
	//允许使用不符合规范的加速技巧
	m_codecContext->flags2 |= AV_CODEC_FLAG2_FAST;
	//使用8线程解码
	m_codecContext->thread_count = 8;

	ret = avcodec_open2(m_codecContext, NULL, NULL);

	//给原始的数据包分配空间
	m_packet = av_packet_alloc();

	//给处理后的数据分配空间
	m_frame = av_frame_alloc();

	//分配图像空间。计算大小
	int size = av_image_get_buffer_size(AV_PIX_FMT_RGBA,//图像格式为RGBA
		m_size.width(),//图像宽度
		m_size.height(),//图像的高度
		4//每行像素的字节数
	);
	//多分配点图像空间
	m_buffer = new uchar[size + 1000];
	m_end = false;
	return true;
	//到此打开解码器,剥去封装格式,解析视频已经全部实现完,下面实现视频数据读取
}

QImage videoDecode::read()
{

	//有东西,读取下一帧数据
	int readRet = av_read_frame(m_formatContext, m_packet);

	else
	{
		//如果是图像数据(视频流),就解码
		if (m_packet->stream_index == m_videoIndex)
		{
			//这个虽然有误差,但是适用性更强
		   //显示时间戳,帧在播出的时候该出现的时间,转为毫秒
			m_packet->pts = qRound64(m_packet->pts * (1000 * rationalToDouble(&m_formatContext->streams[m_videoIndex]->time_base)));
			//解码时间戳,帧在解码的时间。
			m_packet->dts = qRound64(m_packet->dts * (1000 * rationalToDouble(&m_formatContext->streams[m_videoIndex]->time_base)));

			//将读取到的原始数据帧传入解码器
			int ret = avcodec_send_packet(m_codecContext, m_packet);

		}
	}
	//要释放数据包
	av_packet_unref(m_packet);
	//处理解码后的数据
	//先接受
	int ret = avcodec_receive_frame(m_codecContext, m_frame);
	//失败
	
	m_pts = m_frame->pts;
	//处理图像转换上下文
	if (!m_swsContext)
	{
		/*
		 * 获取缓存区的图像转换上下文
		 * 首先校验参数是否一致
		 * 校验不通过释放资源
		 * 通过,判断上下文是否存在
		 * 存在,直接复用
		 * 不存在,分配新的,初始化
		*/
		m_swsContext = sws_getCachedContext(m_swsContext,
			m_frame->width,//输入图像的宽
			m_frame->height,//输入图像的高
			(AVPixelFormat)m_frame->format,//输入图像的像素格式
			m_size.width(),//输出图像的宽
			m_size.height(),//输出图像的高
			AV_PIX_FMT_RGBA,//输出图像的像素格式
			SWS_BILINEAR,//选择缩放算法
			NULL,//设置输入图像的滤波器信息
			NULL,//设置输出图像的滤波器信息
			NULL//设定缩放算法需要的参数
		);
	}
	//将解码后的图像格式转换为QImage
	uchar* data[] = { m_buffer };
	int lines[4];
	//使用像素格式pix_fmt和宽度填充图像的平面线条大小
	av_image_fill_linesizes(lines, AV_PIX_FMT_RGBA, m_frame->width);
	//将原图像的大小和颜色空间转换为输出的图像格式
	ret = sws_scale(m_swsContext,//缩放上下文
		m_frame->data,//原图像数据
		m_frame->linesize,//包含原图像每个平面步幅的数组
		0,//开始位置
		m_frame->height,//行数
		data,//目标图像数组
		lines);//包含目标图像每个平面的步幅的数组

	QImage image(m_buffer,//图像数据的指针
		m_frame->width,//image的宽度
		m_frame->height,//image的高度
		QImage::Format_RGBA8888);//图像的像素格式
	av_frame_unref(m_frame);

	return image;

	//到此QImage格式的图像已经处理完毕,视频解码的主要功能已经实现完毕,下面主要是对现有资源的释放关闭
}

http://www.kler.cn/a/455500.html

相关文章:

  • viva-bus 航空机票网站 Akamai3 分析
  • libcurl ftp上传中文路径问题
  • 低成本Type - C单口便携屏的全方位解析
  • Java中处理if-else的几种高级方法
  • STM32开发笔记123:使用STM32CubeProgrammer下载程序
  • 指针与数组:深入C语言的内存操作艺术
  • Django 管理界面中注册和配置 ECSCluster 模型
  • 第T4周:TensorFlow实现猴痘识别(Tensorboard的使用)
  • 如何实现底部导航栏
  • springboot478基于vue全家桶的pc端仿淘宝系统(论文+源码)_kaic
  • Log4j2的Policies详解、SizeBasedTriggeringPolicy、TimeBasedTriggeringPolicy
  • Qt 模型Model/视图View/代理Delegate
  • 解锁 Claude 的无限潜力:Prompt Engineering 从入门到精通
  • 游戏开发线性空间下PS工作流程
  • 使用c#制作坐标
  • MySql索引(基础篇)
  • 【UE5 C++课程系列笔记】12——Gameplay标签的基本使用
  • 聊聊强化学习在无人机中的前沿应用
  • act小试牛刀
  • CCF-GESP 等级考试 2023年9月认证C++五级真题解析
  • vue+elementUI 表单项赋值后无法修改的问题
  • php怎么去除数点后面的0
  • 第十九章 C++ 日期 时间
  • 前端学习DAY26(华为平板页面)
  • “智能控制的新纪元:2025年机器学习与控制工程国际会议引领变革
  • 嵌入式学习-QT-Day01