我正在尝试创建一个流视频DVR一样的功能在我正在开发的应用程序。我有一个HTTP Live Stream,我已经成功地在iPad上播放了它。我希望用户能够按下“录制”按钮,并开始录制当前正在播放的视频。此视频文件可从应用程序或摄像机胶卷访问。目前,我正在使用MPMoviePlayerController对象播放视频流。在Apple的文档中,我没有看到任何从对象访问数据的方法。以下是我对如何解决这个问题的一些想法。
1)以某种方式访问来自MPMoviePlayerController的视频数据,并将其写入文件。或者使用其他类型的播放器对象,它将允许我播放视频并访问当前播放的数据。
2)实现某种屏
我正在使用Opentok JavaScript WebRTC库来主持一对一的视频聊天(点对点)。我可以看到我的同龄人的视频,并完美地听到音频。
我的愿望是录制其他聊天方的音频/视频(远程)。为此,我使用。我可以录制其他聊天参与者的视频(视频输出到HTML元素),但到目前为止,我还没有成功录制音频(一个死寂的.wav文件是我所能得到的)。使用Chrome Canary (30.0.1554.0)。这是我的方法:
var clientVideo = $('#peerdiv video')[0];//peer's video (html element)
var server
在我的电子应用程序中,用户可以使用MediaRecorder应用程序接口从他们的网络摄像头录制视频。
当用户点击“停止录制”按钮时,我得到了录制的视频的一个斑点。
我想要做的是将这个blob转换为真实的webm视频,并将其写入用户的文件系统,例如:
fs.writeFile(localdir + '\\video.webm', videoBlob); // does not work
下面的例子与我从摄像头获得的base64图像快照工作得很好,但我不能让它与我获得的视频斑点一起工作。
谢谢你给我的启发!