FFmpeg是一个完整的跨平台音视频解决方案,它可以用于处理音频和视频的转码、录制、流化处理等应用场景。官网:http://ffmpeg.org/。FFmpeg有三大利器,分别是ffmpeg、ffprobe、ffplay。今天主要介绍ffplay,它是FFmpeg用于播放音视频文件的播放器。
在编译FFmpeg源代码时,如果系统中包含了SDL-1.2版本时,会默认将ffplay编译生成出来,如果不包含SDL-1.2或者版本不是SDL-1.2时,无法生成ffplay文件,所以,生成如果想使用ffplay进行流媒体播放测试,是需要安装SDL-1.2的。 通常使用ffplay作为播放器,其实ffplay不但可以做播放器,同样可以作为很多图像化音视频数据的分析根据,通过ffplay可以看到视频图像的运动估计方向,音频数据的波形等,在本节将会有更多的参数进行介绍并举例。
ffplay 命令的 -af 参数用于 设置 音频滤镜 ( Audio Filter ) , 用于 对 音频流 应用 各种 处理 和 转换 效果 ;
ffplay 命令的 -window_title 参数 用于设置 播放视频窗口 的 标题 , 在 同时 打开多个 播放器 窗口时 , 可用于识别 不同的 窗口 ;
本文 以 ffmpeg-4.4 源码为准,a.mp4下载链接:百度网盘,提取码:nl0s 。
该参数值仅用于参考 , 如果需要开发 视频 根据 旋转元数据 自动旋转的功能 , 只需要阅读 ffplay 程序的 处理 -autorotate 参数 的源码即可 ;
ffplay 命令的 -autoexit 参数 用于 设置 视频播放完毕后 自动退出播放器 ; 默认情况下 , ffplay 播放完视频后 保持开启状态 , 需要等待用户按下 esc 键手动退出 ;
使用 ffplay 播放一个 分辨率 很大的 视频 , 需要 设置 " 强制显示 分辨率 " ;
ffplay 命令 的 -nodisp 参数 可以关闭 播放 视频时的 图形化窗口 , 即在播放视频 时不显示视频画面 ;
在我们学习如何使用FFmpeg开发一款简单播放器的时候,ffplay一定是一个非常不错的参考例子
FFmpeg中常用的工具主要是ffmpeg、ffprobe、ffplay,它们分别用作多媒体的编解码工具、内容分析工具和播放器。
使用 -ss position 参数 , 可以 设置 跳转到 指定的位置 开始播放 , 指定 输入文件 的起始时间点 , 开始播放 后将跳转到此时间点 , 然后开始 播放视频 ;
我们在开发网络程序时经常用到UDP或RTP来发送和接收流媒体,而开发程序完毕需要搭建一个环境测试,这时候可能你需要一个推流端或接收端。对于推流端,我们可以借助FFmpeg工具轻松完成该功能,只需要敲一条命令后就可以实现发流,并且支持多种网络协议(UDP/RTP/RTSP/RTMP)。而接收端我们可以使用ffplay,这个程序也是在FFmpeg工具包的Bin目录里面。大家可以根据自己需要使用这两个工具进行推流或接收,下面就以传输协议UDP、RTP为基础,介绍几种最常见的推流场景下两个工具的用法。
大家周末好,最近一个月打算专门学习播放器相关的内容,偏实战化,也算是把这段时间学习的一些基础知识,综合起来,不然一直搞理论,没有实战,提高不了多少,所学的东西,终究还是要用到实际当中去,才能产生它的价值;所以下面的这个月加油!
-x width 强制显示宽带。 -y height 强制显示高度。 -s size 帧尺寸 设置显示帧存储(WxH格式),仅适用于类似原始YUV等没有包含帧大小(WxH)的视频。该参数已经被废弃,请尝试用-video_size代替 -fs 以全屏模式启动。 -an 禁用音频(不播放声音) -vn 禁用视频(不播放视频) -sn 禁用字幕(不显示字幕) -ss pos 根据设置的秒进行定位拖动,注意时间单位:比如’55’ 55 seconds, ’12:03:45′ ,12 hours, 03 minutes and 45 seconds, ‘23.189’ 23.189 second -t duration 设置播放视频/音频长度,时间单位如 -ss选项 -bytes 按字节进行定位拖动。 -seek_interval interval 自定义左/右键定位拖动间隔(以秒为单位),默认值为10秒 -nodisp 关闭图形化显示窗口,视频将不显示 -noborder 无边框窗口 -volume vol 设置起始音量。音量范围[0 ~100] -f fmt 强制使用设置的格式进行解析。比如-f s16le -window_title title 设置窗口标题(默认为输入文件名) -loop number 设置播放循环次数 -showmode mode 设置显示模式,可用的模式值:0 显示视频,1 显示音频波形,2 显示音频频谱。缺省为0,如果视频不存在则自动选择2 -vf filtergraph 设置视频滤镜 -af filtergraph 设置音频滤镜
FFmpeg 是一个音视频处理的工具,通过 FFmpeg 可以对视频进行旋转、缩小、添加水印、截图、添加马赛克、直播推流、转化音频等操作。
简单的说,ffplay 是一个使用了 ffmpeg 和 sdl 库的、一个简单的可移植的媒体播放器。
在实际工作中,通常需要ffmpeg作为工具来验证一个问题,比如播放一个视频,提取一个码流,转码视频,转封格式等,用的时候才发现忘记了相关命令,Google一番花老大的力气才找到自己需要的命令行。本文总结常用的命令,并演示如何通过命令行的help用法去构建新的命令。
按照处理数据的类型,通常多媒体的filter分为:● 音频filter ● 视频filter ● 字幕filter
1、默认的ffmpeg中没有编译fffplay(可能是因为ffplay引用了SDL库,而SDL库需要另外下载),config后,确认Makefile中指定的config.mak(在ffmpeg根目录下)中:CONFIG_FFPLAY=yes,如果不是需要重新./configure
外界对于FFmpeg主要有两种使用途径,一种是在命令行运行FFmpeg的可执行程序,该方式适合没什么特殊要求的普通场景;另一种是通过代码调用FFmpeg的动态链接库,由于开发者可以在C代码中编排个性化的逻辑,因此该方式适合厂商专用的特制场景。 开源的FFmpeg框架提供了三个可执行程序,分别是ffmpeg、ffplay和ffprobe,下面分别展开详细介绍。
【FFmpeg】FFmpeg 相关术语简介 ( 容器 | 媒体流 | 数据帧 | 数据包 | 编解码器 | 复用 | 解复用 ) 【FFmpeg】FFmpeg 相关术语简介 二 【FFmpeg】FFmpeg 帮助文档使用
在多媒体处理中,术语滤镜(filter)指的是修改未编码的原始音视频数据帧的一种软件工具。
显示宏块 ffplay -debug vis_mb_type inputfile 显示运动矢量 ffplay -vismv pf inputfile -vismv pf – 向前预测P帧图像运动向量
ffmpeg可以说是整个FFmpeg工具集中比较常用也比较常见的工具!该工具可以视频的编码,视频文件格式的转换,音频文件格式的转换,音视频的分离,音视频的合并,音视频的录制,音视流的推送,视频添加水印,视频添加字幕等功能!提供了音视频处理的功能,同时也满足了有开发需求!
FFmpeg 是一个非常强大的多媒体处理工具 , 可以用来 处理 / 转换 / 播放 各种音视频格式的数据 , 因此 使用 FFmpeg 自然也可以提取 YUV 像素格式的数据 ;
帧率 : 帧频率 , 视频中每秒钟含有视频帧的帧数 , 一秒钟刷新多少张图像 , 连续移动的图像至少每秒
● intrafilters: used while encoding (and are thus an integral part of a video codec)
ffplay是一个很简单的播放器,但是初次接触仍会感到概念和细节相当繁多,分析并不容易。深入理解一项技术需要足够的时间和大量的实践,由浅入深逐步迭代,没有时间就成了最大难题。本次分析过程断断续续持续了挺久,先是边读代码边加注释,后面才整理了笔记,再加上理解浅薄很难精简语言,因此行文比较啰嗦。笔记记录仓促,错误难免,欢迎指正交流。后续若有时间继续研究,将持续修正错误完善文档。
ffplay 命令的 -codec:media_specifier 参数 用于 设置 多媒体解码器 , 通过该参数 可以 为 不同的媒体类型 ( 音频 / 视频 / 字幕 ) 指定解码器 ;
利用刚才生成ffplay时,同时生成的ffmpeg文件,我们可以生成一路包含H265编码的RTMP媒体流,命令:
2.将下载得到的包中的执行文件ffmpeg.exe、ffplay.exe和ffprobe.exe拷贝到C:\Windows目录下。这样,在命令行窗口中便可以直接访问这些可执行文件。
当前的公司刚好做一个抽帧的项目,具体是通过抽取本地已经录制保存的TF(SD)卡里的视频文件,以每秒/帧的方式抽取,生成的图片文件格式为H264,如下图所示
参考 https://github.com/bilibili/ijkplayer 项目的编译过程 ;
使用prefix参数实现安装目录的指定,通常安装在本地/usr/local目录下。
FFmpeg 有三个作用不同的工具软件 ffmpeg.exe,ffplay.exe,ffprobe.exe,本文主要讲讲这些工具软件的使用方法。
主要是介绍几款媒体常用软件,方便进行媒体类问题的定位分析,软件大部分是开源的,方便学习相关知识。
说到直播,我们一般比较容易想到的就是rtmp的直播,大家用的比较多,实际上使用rtsp也可以做直播,这一篇就讲一下如何基于rtsp构建直播场景。为了避免混淆,先提前声明一下,之前的基于live555搭建的场景是点播的场景,而非直播。本篇我们要搭建的基于rtsp的直播环境基于EasyDarwin去搭建,非常方便快捷,一起来看一下吧。
每一个从事音视频技术开发的工程师对FFmpeg都不会感到陌生,即使是刚刚踏入这个行业的初学者,但对他们来说这条路上好像有着一条不可逾越的鸿沟,“雷神”和许多大神都总结过一些FFmpeg的学习方法,小编在这里为大家做一个整理,方便大家有一个清晰的思路。
本文介绍一个自己做的FFPLAY移植到VC下的开源工程:ffplayfor MFC。本工程将ffmpeg项目中的ffplay播放器(ffplay.c)移植到了VC的环境下。并且使用MFC做了一套简单的界面。它可以完成一个播放器播放视频的基本流程:解协议,解封装,视频/音频解码,视音频同步,视音频输出。此外还包含一些控制功能:播放,暂停/继续,前进,后退,停止,逐帧播放,全屏等;以及一些简单的视频码流分析功能:视频解码分析和音频解码分析。通过本程序可以学习视频播放器原理,以及SDL和Windows消息机制。
今天你黑了吗,哈哈,当然不是指的你皮肤变黑了,而是身处在直播浪潮中的你,在观看直播中是否碰见了黑屏的现象,不过不要慌张,接下来就以腾讯云直播为例告诉您引起黑屏的原因以及如何去规避黑屏。
经过七年的酝酿和开发,SRS在6.0中终于正式支持了HEVC(H.265),几乎全面支持,包括RTMP、FLV、SRT、TS、HLS、DASH、GB28181、WebRTC(Safari)、DVR
工欲善其事,必先利其器,断点调试,对我们梳理流程排查问题十分重要,可以ffmpeg的调试可以在XCode、VS code以及QT等ide上进行方便的调试分析。本篇我们以XCode为例来先介绍下ffplay的断点调试,以ffmpeg4.4版本来进行分析。
最近在处理一些音频数据,ffmpeg是一款非常好用处理音视频的工具包。那什么是ffmpeg呢?FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序,可以结合Java开发一些处理视频音频的功能。
使用了FFmpeg 5.x + x264 + x265 + SDL2 完成了音视频的解析到播放;
本文为作者原创,转载请注明出处:https://www.cnblogs.com/leisure_chn/p/10301831.html
领取专属 10元无门槛券
手把手带您无忧上云