当前位置: 首页 > news >正文

FFmpeg源码:compute_frame_duration函数分析

一、compute_frame_duration函数的定义

compute_frame_duration函数定义在FFmpeg源码(本文演示用的FFmpeg源码版本为7.0.1)的源文件libavformat/demux.c中:

/*** Return the frame duration in seconds. Return 0 if not available.*/
static void compute_frame_duration(AVFormatContext *s, int *pnum, int *pden,AVStream *st, AVCodecParserContext *pc,AVPacket *pkt)
{FFStream *const sti = ffstream(st);AVRational codec_framerate = sti->avctx->framerate;int frame_size, sample_rate;*pnum = 0;*pden = 0;switch (st->codecpar->codec_type) {case AVMEDIA_TYPE_VIDEO:if (st->r_frame_rate.num && (!pc || !codec_framerate.num)) {*pnum = st->r_frame_rate.den;*pden = st->r_frame_rate.num;} else if ((s->iformat->flags & AVFMT_NOTIMESTAMPS) &&!codec_framerate.num &&st->avg_frame_rate.num && st->avg_frame_rate.den) {*pnum = st->avg_frame_rate.den;*pden = st->avg_frame_rate.num;} else if (st->time_base.num * 1000LL > st->time_base.den) {*pnum = st->time_base.num;*pden = st->time_base.den;} else if (codec_framerate.den * 1000LL > codec_framerate.num) {int ticks_per_frame = (sti->codec_desc &&(sti->codec_desc->props & AV_CODEC_PROP_FIELDS)) ? 2 : 1;av_reduce(pnum, pden,codec_framerate.den,codec_framerate.num * (int64_t)ticks_per_frame,INT_MAX);if (pc && pc->repeat_pict) {av_reduce(pnum, pden,(*pnum) * (1LL + pc->repeat_pict),(*pden),INT_MAX);}/* If this codec can be interlaced or progressive then we need* a parser to compute duration of a packet. Thus if we have* no parser in such case leave duration undefined. */if (sti->codec_desc &&(sti->codec_desc->props & AV_CODEC_PROP_FIELDS) && !pc)*pnum = *pden = 0;}break;case AVMEDIA_TYPE_AUDIO:if (sti->avctx_inited) {frame_size  = av_get_audio_frame_duration(sti->avctx, pkt->size);sample_rate = sti->avctx->sample_rate;} else {frame_size  = av_get_audio_frame_duration2(st->codecpar, pkt->size);sample_rate = st->codecpar->sample_rate;}if (frame_size <= 0 || sample_rate <= 0)break;*pnum = frame_size;*pden = sample_rate;break;default:break;}
}

该函数的作用是:计算某路视频流或音频流的packet占用的时间值。

形参s:输入型参数。指向一个AVFormatContext结构体。

形参pnum:输出型参数。执行compute_frame_duration函数后,如果该路流为视频,(*pnum)÷(*pden)会变为一帧视频pakcet占用的时间,单位为秒;如果该路流为音频,*pnum会变为该音频packet(形参pkt指向的packet)占用的以AVStream的time_base为单位的时间值,(*pnum)÷(*pden)会变为该音频packet占用的以秒为单位的时间值。

形参pden:输出型参数。执行compute_frame_duration函数后,如果该路流为视频,(*pnum)÷(*pden)会变为一帧视频pakcet占用的时间,单位为秒;如果该路流为音频,*pden会变为该音频的采样频率(单位为Hz),(*pnum)÷(*pden)会变为该音频packet占用的以秒为单位的时间值。

形参st:输入型参数。指向一个AVStream结构体。

形参pc:输入型参数。指向一个AVCodecParserContext结构体。

形参pkt:输入型参数。指向一个AVPacket结构体。

返回值:无。

二、compute_frame_duration函数的内部实现分析

compute_frame_duration函数内部首先会通过switch、case语句判断该路流是视频还是音频:

switch (st->codecpar->codec_type) {

(一)情况一:该路流为视频

该路流为视频时,以视频压缩编码格式为H.264为例子,相当于执行了下面代码:

case AVMEDIA_TYPE_VIDEO:int ticks_per_frame = (sti->codec_desc &&(sti->codec_desc->props & AV_CODEC_PROP_FIELDS)) ? 2 : 1;av_reduce(pnum, pden,    codec_framerate.den,codec_framerate.num * (int64_t)ticks_per_frame,INT_MAX);if (pc && pc->repeat_pict) {av_reduce(pnum, pden,(*pnum) * (1LL + pc->repeat_pict),(*pden),INT_MAX);}

sti->codec_desc和sti->codec_desc->props是通过avformat_open_input函数中的avcodec_descriptor_get函数得到的,具体可以参考:《FFmpeg源码:avcodec_descriptor_get函数分析》。

int ticks_per_frame = (sti->codec_desc && (sti->codec_desc->props & AV_CODEC_PROP_FIELDS)) ? 2 : 1;

比如对于H.264,通过语句:avcodec_descriptor_get(AV_CODEC_ID_H264)得到的AVCodecDescriptor结构为:

    {.id        = AV_CODEC_ID_H264,.type      = AVMEDIA_TYPE_VIDEO,.name      = "h264",.long_name = "H.264 / AVC / MPEG-4 AVC / MPEG-4 part 10",.props     = 30,.profiles  = ff_h264_profiles,},

所以对于H.264,sti->codec_desc为true,sti->codec_desc->props为30。而宏定义AV_CODEC_PROP_FIELDS为:

/*** Video codec supports separate coding of fields in interlaced frames.*/
#define AV_CODEC_PROP_FIELDS        (1 << 4)

所以满足条件:sti->codec_desc && (sti->codec_desc->props & AV_CODEC_PROP_FIELDS)为true。所以对于H.264,变量ticks_per_frame值为2。

av_reduce函数的用法可以参考:《FFmpeg源码:av_reduce函数分析》。codec_framerate.den为视频帧率的分母,codec_framerate.num为视频帧率的分子,所以对于H.264,执行下面的av_reduce函数后,(*pden) ÷ (*pnum)会变为视频帧率的两倍:

av_reduce(pnum, pden,codec_framerate.den,codec_framerate.num * (int64_t)ticks_per_frame,INT_MAX);

对于H.264,满足条件pc && pc->repeat_pict为true,所以会继续执行av_reduce函数。对于H.264下面语句相当于执行了语句:av_reduce(pnum, pden ,(*pnum) * (2), (*pden), INT_MAX);执行完后(*pden) ÷ (*pnum)会变为视频帧率:

            if (pc && pc->repeat_pict) {av_reduce(pnum, pden,(*pnum) * (1LL + pc->repeat_pict),(*pden),INT_MAX);}

我们都知道视频帧率是视频每秒钟播放的帧数,所以视频帧率的倒数即(*pnum)÷(*pden)就是一帧视频pakcet占用的时间,单位为秒。

(二)情况二:该路流为音频

该路流为音频时,相当于执行了下面代码:

case AVMEDIA_TYPE_AUDIO:frame_size  = av_get_audio_frame_duration2(st->codecpar, pkt->size);sample_rate = st->codecpar->sample_rate;*pnum = frame_size;*pden = sample_rate;

 通过av_get_audio_frame_duration2函数得到该音频packet占用的时间值(关于该函数可以参考:《FFmpeg源码:get_audio_frame_duration、av_get_audio_frame_duration2函数分析》)。通过语句:sample_rate = st->codecpar->sample_rate得到该路音频的采样频率:

frame_size  = av_get_audio_frame_duration2(st->codecpar, pkt->size);
sample_rate = st->codecpar->sample_rate;

让*pnum变为该音频packet(形参pkt指向的packet)占用的以AVStream的time_base为单位的时间值,让*pden变为该音频的采样频率(单位为Hz)。(*pnum)÷(*pden)就是该音频packet占用的以秒为单位的时间值:

    *pnum = frame_size;*pden = sample_rate;

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • GDB:加载符号表
  • Spring-容器:IOC-基于注解管理Bean
  • xxl-job升级到springboot3.0 导致页面打不开报错)问题
  • 语法分析例题
  • GAMES101(5~6节,光栅化)
  • C++ | Leetcode C++题解之第389题找不同
  • 通过15张图带你掌握网络抓包工具Wireshark必备使用技巧
  • 解决职业摔跤手分类问题的算法与实现
  • MySQL 数据库管理与操作指南
  • 数据结构之“双向链表”
  • 海外合规|新加坡网络安全认证计划简介(一)
  • k8s集群的调度
  • 如何使用事件流相关操作
  • WHAT - React 函数与 useMemo vs useCallback
  • 打工人应了解的裁员大礼包法律知识
  • centos安装java运行环境jdk+tomcat
  • Quartz实现数据同步 | 从0开始构建SpringCloud微服务(3)
  • 初识 beanstalkd
  • 创建一个Struts2项目maven 方式
  • -- 数据结构 顺序表 --Java
  • 通过git安装npm私有模块
  • 好程序员web前端教程分享CSS不同元素margin的计算 ...
  • 资深实践篇 | 基于Kubernetes 1.61的Kubernetes Scheduler 调度详解 ...
  • ​草莓熊python turtle绘图代码(玫瑰花版)附源代码
  • ​软考-高级-系统架构设计师教程(清华第2版)【第20章 系统架构设计师论文写作要点(P717~728)-思维导图】​
  • ## 1.3.Git命令
  • ######## golang各章节终篇索引 ########
  • #define,static,const,三种常量的区别
  • (2)空速传感器
  • (2024.6.23)最新版MAVEN的安装和配置教程(超详细)
  • (Arcgis)Python编程批量将HDF5文件转换为TIFF格式并应用地理转换和投影信息
  • (备份) esp32 GPIO
  • (笔试题)分解质因式
  • (二)换源+apt-get基础配置+搜狗拼音
  • (二)原生js案例之数码时钟计时
  • (附源码)ssm基于微信小程序的疫苗管理系统 毕业设计 092354
  • (附源码)计算机毕业设计SSM在线影视购票系统
  • (论文阅读22/100)Learning a Deep Compact Image Representation for Visual Tracking
  • (免费领源码)Python#MySQL图书馆管理系统071718-计算机毕业设计项目选题推荐
  • (使用vite搭建vue3项目(vite + vue3 + vue router + pinia + element plus))
  • (学习日记)2024.01.09
  • (原創) 如何刪除Windows Live Writer留在本機的文章? (Web) (Windows Live Writer)
  • (原創) 系統分析和系統設計有什麼差別? (OO)
  • .gitignore文件使用
  • .NET CORE Aws S3 使用
  • .net core docker部署教程和细节问题
  • .NET core 自定义过滤器 Filter 实现webapi RestFul 统一接口数据返回格式
  • .NET Core6.0 MVC+layui+SqlSugar 简单增删改查
  • .NET Remoting Basic(10)-创建不同宿主的客户端与服务器端
  • .net Stream篇(六)
  • .NET/C# 使窗口永不激活(No Activate 永不获得焦点)
  • .NET建议使用的大小写命名原则
  • .NET企业级应用架构设计系列之应用服务器
  • .net实现客户区延伸至至非客户区
  • /usr/local/nginx/logs/nginx.pid failed (2: No such file or directory)