腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9384)
视频
沙龙
1
回答
如何
使用
android
视频
时间
戳
(
java
)
在
某一
视频
帧
触发
活动
java
、
android
、
android-studio
、
video
、
timestamp
我想在一些特定的
时间
戳
创建
活动
,而它正在
使用
Java
on
android
studio播放。import
android
.media.MediaTimestamp; ts = m.getTimestamp(); 现在,我
如何
浏览 18
提问于2021-06-09
得票数 0
1
回答
android
- MediaCodec
在
每个
视频
帧
上记录带有
时间
戳
的
视频
。
android
、
android-mediacodec
我需要在每个
视频
帧
上记录带有
时间
戳
的
视频
。我
在
中看到了一个例子,它
使用
InputSurace.
java
和OutputSurface.
java
连接解码器和编码器来转换
视频
文件。可以重用这两个
android
类来实现
时间
戳
录像机吗?我尝试
使用
OutputSurface作为相机预览输出,
使用
InputSurface作为MediaCode
浏览 16
提问于2017-05-02
得票数 2
回答已采纳
1
回答
安卓MediaCodec API
视频
播放速度过快
android
、
android-mediaplayer
、
surfaceview
、
android-4.2-jelly-bean
、
android-mediacodec
我目前正在
使用
Android
Jelly Bean MediaCodec API开发一个简单的
视频
播放器。问题隐藏在哪里?除了通过AudioTrack播放音频和将
视频
渲染到表面之外,音频和
视频
的处理方式几乎相同。
浏览 0
提问于2012-10-17
得票数 6
1
回答
一
帧
一
帧
地处理
视频
video
、
javafx
、
frame
、
video-processing
在
JavaFX中是否有一种处理
帧
的方法,例如从加载的
视频
中提取
帧
?另外,是否可以
使用</em
浏览 0
提问于2018-04-27
得票数 1
1
回答
确定H.264
帧
的持续
时间
h.264
、
rtmp
单个RTMP
视频
消息通常包含一个H.264
帧
和
时间
戳
增量。通常,
时间
戳
增量表示单个
视频
帧
的持续
时间
,例如。40毫秒的25 for
视频
。这允许通过计算流中的RTMP
视频
增量之和来计算流的持续
时间
。然而,对于一些编码器(例如,Wirecast),偶尔会有只包含一个H.264
帧
的RTMP
视频
消息,但是
时间
戳
增量是单个
浏览 5
提问于2017-04-21
得票数 0
回答已采纳
1
回答
如何
访问HTML5
视频
中的NTP或其他
时间
戳
数据
html
、
video
、
timestamp
是否有任何HTML5
视频
格式将这些元数据存储
在
视频
文件中?如果是这样,我
如何
访问它?我希望做这样的事情,但同步
视频
与NTP
时间
戳
(或其他
时间
戳
)数据。我意识到一些
时间
戳
可能在流的
某一
层中,而不是
在
保存的
视频
文件中。
浏览 11
提问于2018-01-29
得票数 0
2
回答
安卓MediaCodec解码器:慢放
视频
android
、
video
、
android-video-player
、
android-mediacodec
我正在
使用
API 21中的机器人MediaCodec (
使用
解码器和曲面)制作一个简单的
视频
播放器。但是,
视频
播放得很快。我怎么能以正常的速度播放这个
视频
?这是我的代码:package com.bd.mediacodec; import
java
.nio.ByteBuffer; import
android
.med
浏览 6
提问于2014-12-17
得票数 1
回答已采纳
3
回答
为什么RTP的
视频
有效负载
时间
戳
使用
90 kHz时钟速率?
timestamp
、
h.264
、
rtp
、
clockrates
我发现许多区域中心说: 但我不明白这事的根本原因。
浏览 5
提问于2017-05-08
得票数 0
回答已采纳
1
回答
在
中事件是什么意思?
android
、
android-mediaplayer
我试图分析
在
Android
中播放
视频
时交换的消息流。我在这么做的时候看到了这张照片。 然后我查看了AwesomePlayer和TimedEventQueue的源文件。
浏览 2
提问于2013-03-27
得票数 0
1
回答
保持
视频
播放,即使
在
片断内的方向改变?
android
、
android-fragments
、
android-videoview
、
android-configchanges
我对片段的横向和纵向模式有不同的布局设计(两种模式都有VideoView),这就是为什么我不能
使用
configChanges的原因,如下所示:任何帮助都将不胜感激。
浏览 12
提问于2015-10-06
得票数 3
1
回答
如何
在MATLAB中得到GoPro
视频
每
帧
的
时间
戳
?
matlab
、
video
、
timestamp
、
frame
、
gopro
我试图用Matlab2015A对来自GoPro的
视频
进行后处理。我需要从
视频
的每一
帧
获得
时间
戳
,这样我就可以
使用
它与另一组也
使用
时间
戳
的数据进行比较。因此这两个
时间
戳
必须在第二个
时间
戳
之前匹配。我检查了MATLAB,VideoReader类有一个名为"CurrentTime“的属性,但它只给出了一个
帧
相对于第一个
帧
的<
浏览 1
提问于2015-06-09
得票数 3
回答已采纳
1
回答
同一
视频
在
不同浏览器上的currentTime不同
javascript
、
html5-video
我想在
视频
结束时获取
视频
的currentTime。但是对于不同的浏览器,对于相同的
视频
,currentTime会在小数后的第三位或第四位之后返回不同的值。对于ex。对于我正在测试的长度为30秒的特定
视频
,
在
Chrome和Firefox中,当
视频
结束时返回30.069841的currentTime值。但是对于相同的
视频
,它在IE edge和Safari中返回30.0683333。为什么会有区别呢?有没有办法让我在所有浏览器中都能获得唯一的值? 提前谢谢你。
浏览 1
提问于2018-03-19
得票数 0
2
回答
ffmpeg FPS信息与
视频
不匹配
opencv
、
video
、
ffmpeg
、
video-processing
、
frame-rate
为了获取
视频
的FPS,我
使用
ffmpeg -i例如,ffmpeg输出FPS = 30。我看
视频
统计,156.8 = 2.368的
帧
必须是4704'th
帧
。我
使用
“skvideo”打开
视频
,读取所有
帧
,并查看4704'th
帧
。这是
时间
2.12?但是我想'opencv
浏览 11
提问于2017-12-04
得票数 0
回答已采纳
1
回答
DirectShow推送源、同步和
时间
戳
filter
、
push
、
directshow
我有一个过滤图,它接收原始的音频和
视频
输入,然后
使用
将它们编码到WMV文件中。 我已经编写了两个自定义推送源过滤器来提供图形的输入。音频过滤器只
使用
WASAPI
在
回送模式下捕获音频并将数据发送到下游。问题1:如果我想正确地为
视频
和音频
时间
戳
,我需要创建一个
使用
性能计数器的自定义参考时钟,还是有更好的方法来同步这两个输入,即计算流
时间
?
视频
输入是从其他地方的Direct3D缓冲区捕获的,我不能保证框架,因此它的行为就像
浏览 1
提问于2011-11-05
得票数 1
1
回答
ffmpeg start_time为阴性
video
、
terminal
、
ffmpeg
我正在
使用
ffmpeg按开始/结束
时间
分割
视频
。例如,我有一组
时间
[ 0,2,2, 4 ,4,6],我会在这里调用ffmpeg 3次,
在
0、2和4的时候创建32秒的
视频
。我的问题是,这些
时间
(这是正确的)是不正确的分割
视频
。当我用ffprobe -i test.mov -show_format查看
视频
的统计数据时,我注意到了start_time=-0.381044。我还知道,这似乎是因为
在
QuickTime
浏览 9
提问于2016-12-08
得票数 1
回答已采纳
2
回答
从两种不同
帧
速率的
视频
中获取匹配的图像
帧
image-processing
、
deep-learning
、
dataset
、
video-processing
、
frame-rate
我正在将
视频
转换成python3.6中的图像(即剪切
视频
以获取图像)。我有两种类型的
视频
,第一种是RGB
视频
,其
帧
速率为 30 (即fps= 30),其
帧
速率为30(即fps=30);第二种是由Flir摄像机录制的热红外
视频
,其
帧
速率的<code>E 110</code>9<code>E 211<//code>(最初是一个
帧
流文件,我将其转换为图像,并<em
浏览 1
提问于2021-01-06
得票数 0
1
回答
使用
ffmpeg库向HEVC添加
时间
戳
,
在
使用
Gstreamer管道运行时
时间
戳
不匹配
c++
、
ffmpeg
、
gstreamer
、
codec
由于HEVC
帧
没有任何
时间
戳
,为了对
视频
执行搜索操作,我们
在
C++中编写了一个remuxer,它以有序的方式为
帧
创建
时间
戳
,并将编码的
帧
写入
视频
容器(mp4,mov)。当播放ffplay时,mp4容器中的输出
视频
看起来很好,
使用
ff探头检查时
时间
戳
似乎是正确的。然而,当我们尝试
在
Gstreamer管道中播放
视频
浏览 18
提问于2022-01-06
得票数 2
2
回答
基于WebRTC的
视频
数据同步
javascript
、
html
、
video
、
video-streaming
、
webrtc
在
发送到客户端之前,
视频
的每一
帧
都包含元数据(比如字幕或任何其他应用内容)。我正在寻找一种将此元数据发送到客户端的方法,使其保持同步(直到它实际出现的
时间
)。但我不知道
如何
确保数据
在
每
帧
的基础上是同步的。但是我没有办法确保数据通道发送的数据和
视频
通道是同步的(同样,我希望获得单个
帧
的精度水平)。以某种方式(WebRTC DataChannel、websockets等)手动向客户端发送数据带有与
视频
时间</em
浏览 7
提问于2015-05-22
得票数 22
回答已采纳
1
回答
流式
视频
中的人脸再现每秒只返回一
帧
amazon-web-services
、
amazon-rekognition
我试图通过亚马逊的rekogntion和运动服务
在
实时流上运行人脸识别。我已经配置了用于输入
视频
的动态
视频
流、用于识别的流处理器和从流处理器获得结果的动态数据流。一切都很好,但我
在
溪流中每一秒只得到一
帧
。1528993313.0310001 1528993314.03
浏览 1
提问于2018-06-17
得票数 1
回答已采纳
2
回答
iOS后处理-将
时间
戳
覆盖到
视频
并导出
ios
、
timestamp
、
avmutablecomposition
、
overlays
、
chromakey
我正在开发一个应用程序,其中
视频
和
时间
/GPS/加速计数据同时记录到单独的文件中。我想后处理的
视频
和叠加的
时间
,坐标和
视频
。还有其他形状将被覆盖,这些形状会改变每个
帧
上的大小/位置。 我试过
使用
AVMutableComposition和添加CALayers,但效果有限--这在一定程度上是有效的,但我无法将
时间
戳<
浏览 3
提问于2014-07-22
得票数 2
点击加载更多
相关
资讯
不同的AI视频推理场景下,如何构建通用高效的抽帧工具?
浅析云控平台画面传输的视频流方案
基于点直播,短视频三种场景,PP云移动端播放器做了哪些特殊的事情?
动作编辑器实时布局,布局实时验证,AndroidStudio 4可更新
MIT周博磊团队:时序关系网络帮助计算机填补视频帧之间的空白
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
语音识别
活动推荐
运营活动
广告
关闭
领券