我有一个摄像头,它可以通过wifi发送mjpeg帧作为UDP数据包,我想在我的max os-x应用程序中显示这些帧。我的应用程序是用objective-c编写的,我正在尝试使用AVFoundation类来显示实况流。摄像机使用http get & post请求进行控制。我希望相机被识别为AVCaptureDevice,因为我可以很容易地显示</em
我不是指哪种传输技术(例如WebRTC、WebRTC、标准HTTP等)。是最适合实时直播的网络摄像机等,但是,一般的策略(就编程本身而言)。在我的测试中,我发现最好的方法是:
只是一个帧一个帧(直接流JPEG图像),至少在30 is /帧,但这是相当的带宽密集型。Framerate是平滑的,但是本地looback已经有1秒的延迟,所以如果要通过网络(通过UDP