腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
捕获
的
JPEG
stillImage
的
CMSampleBufferGetImageBuffer
返回
nil
、
、
、
我使用
JPEG
格式
捕获
Mac屏幕,然后获取
捕获
的
JPEG
samplebuffer
的
pixelBuffer和imageBuffer。但是,pixelBuffer总是为空,而当我将
JPEG
buffer转换为NSImage时,可以成功地获取并显示图像。-(void)createSessionif(self.session ==
nil
) self.session = [[AVCaptureSessions
浏览 62
提问于2019-01-18
得票数 0
1
回答
在我
的
AVCaptureStillImageOutput
捕获
回调块上,
CMSampleBufferGetImageBuffer
()总是
返回
nil
、
、
、
、
我设置了它,并将它添加到我
的
捕获
会话中,如下所示:NSDictionarysetOutputSettings:outputSettings]; 稍后,当用户选择拍摄快照时-我调用此方法来尝试
捕获
静止图像video capture -(BOOL)captureStillImage: (CGRect)cropR
浏览 0
提问于2019-04-30
得票数 0
1
回答
AVFoundation -检测人脸和裁剪面部区域?
、
、
、
就像标题说
的
那样,我想检测人脸,然后裁剪面部区域。*faceDetector = [CIDetector detectorOfType:CIDetectorTypeFace context:[CIContext contextWithOptions:
nil
] options:
nil
]; NSArray*features = [faceDetector featuresInImage:ci
浏览 1
提问于2014-06-06
得票数 3
回答已采纳
1
回答
captureStillImageAsynchronouslyFromConnection:completionHandler: iOS AVFoundation无限期吊死
、
、
在这种情况下,快门
的
声音不会启动,预览也会冻结。我有一个ViewController处理
的
接口和一个单独
的
类来处理所有的AVFoundation内容。处理AVFoundation内容
的
独立类
的
实例变量在ViewController中。更多观察 即使在检查时,如果我切换到另一个应用程序、锁定电话、在应用程序中执行某些其
浏览 3
提问于2011-10-13
得票数 6
回答已采纳
1
回答
AVCapturePhotoOutput未提供预览缓冲区
、
、
、
将AVCapturePhotoOutput配置为除了提供主
JPEG
缓冲区之外还提供预览缓冲区(缩略图)。问题是我只接收了一次预览缓冲区(第一次
捕获
),然后从第二次开始接收
nil
(主photoSampleBuffer总是正确接收)。下面是我如何设置
捕获
的
: guard let videoPreviewLayerOrientation = deviceOrientation.videoOrientation,我得到:CMVideoDimensions(w
浏览 16
提问于2017-05-30
得票数 2
1
回答
如何找出哪个类占用
的
内存最多?
、
、
、
我对我
的
iOS应用程序做了一个看似无害
的
更改,但应用程序崩溃了,因为随着应用程序
的
运行,内存消耗不断增加,直到崩溃。这可能是内存消耗
的
10倍增长。CVPixelBuffer: 800MB CMSampleBuffer: 100MB CIImage: 50MB 我查看了Xcode
的
内存调试器和Instruments,但什么也没有找到
浏览 0
提问于2017-12-26
得票数 0
2
回答
从CMSampleBuffer
捕获
UIImage (swift 3)
、
、
我尝试从CMSampleBuffer
捕获
一个UIImage来读取文本。但是我总是得到这样
的
错误:我环顾四周,尝试了很多版本。但我总是得到相同
的
错误。 let pixelBuffer =
CMSampleBufferGetImageBuffer</em
浏览 0
提问于2016-12-09
得票数 0
1
回答
如何运行带有ARKit会话
捕获
图像
的
tflite模型?
、
、
、
、
我有一个tflite模型,我想使用ARKit会话
捕获
的
图像来运行模型。它显示源像素格式无效。ARKit frame guard currentBuffer ==
nil
didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) { let pixelBuffer =
CMSampleBufferGe
浏览 20
提问于2020-07-06
得票数 1
1
回答
如何从相册中加载
捕获
的
图像
、
、
、
我有一个按钮来
捕获
图片,然后它保存到photoAlbum。我
的
需要是
捕获
照片后,我有警示视图,然后单击是按钮,自动加载最后
捕获
的
图像PhotoAlbum和添加newImage。有可能吗?- (void)saveImageToPhotoAlbum
浏览 1
提问于2014-04-08
得票数 0
3
回答
将UIImage从一个类传递到另一个类
、
、
、
我正在使用AVFoundation使用来
捕获
图像。我正在尝试将从CaptureSessionManager (一个NSObject类)
捕获
的
图像
返回
到AROverlayViewController。有没有什么最好
的
办法呢?谢谢!
浏览 3
提问于2012-08-23
得票数 0
回答已采纳
2
回答
为什么AVCaptureVideoOrientation横向模式会导致静止图像颠倒?
、
、
、
、
我正在使用AVFoundation类在我
的
应用程序中实现一个自定义摄像头。我只
捕获
静态图像,而不是视频。我已经把所有的事情都做好了,但是我被一些事情难住了。在
捕获
静止图像时,我会考虑设备方向,并适当地设置视频连接
的
videoOrientation。我必须反转方向映射,否则产生
的
图像是颠倒
的
。=
nil
;没有其他
的
图像处理或操作。我
的
应用程序可以使用上面的代码。我只是想知道为什么横向方向
的
方向常数必须颠倒过来
浏览 0
提问于2011-10-21
得票数 7
回答已采纳
1
回答
如何在不使用
jpeg
编码器
的
情况下从AVCaptureSession获得全分辨率图像?
、
、
我在试着从摄像机里保存完整
的
分辨率文件。我在这里看到了一堆非常有用
的
指南,它们可以是在直线像素数据中
捕获
静止图像,也可以是使用
jpeg
硬件压缩器。到目前为止,我能够
捕获
BGRA格式
的
直接像素数据,但我似乎无法在5s上获得大于1920x1080
的
示例缓冲区。当我切换到
jpeg
压缩器路线时,我得到了完整
的
5MP图像。只是
jpeg
格式。dictionaryWithObjectsAndKeys:[NSNumber numbe
浏览 3
提问于2015-05-26
得票数 0
1
回答
AVCaptureSession "startRunning“崩溃
、
、
、
这就是我
的
问题:我已经创建了一个可以拍照
的
自定义AVCaptureSession。我不知道为什么,但第三次调用startRunning时,它崩溃了。我还在它上面运行了仪器,没有与AVCaptureSession相关
的
内存泄漏。在XCode中也没有通过控制台
的
日志。if (
stillImage
) { [
s
浏览 8
提问于2012-07-06
得票数 3
回答已采纳
1
回答
保存CIImage,通过转换为CGImage,将引发一个错误
、
、
我从AVFoundation抓取了一张图片:然后,通过首先转换为CIImage来剪切这个图像: beginImage = [CIImage imageWithCVPixelBuffer:
CMSampleBufferGetImageBuffer
imageSampleBuffer) options:[NSDiction
浏览 4
提问于2012-05-04
得票数 0
回答已采纳
2
回答
如何在Swift中复制CVPixelBuffer?
、
、
、
、
该代码是Flutter
的
一部分(第265行)。该插件允许实时预览相机。 pixelBuffer =
浏览 3
提问于2018-07-27
得票数 0
1
回答
如何将BGRA字节转换为UIImage保存?
、
、
、
我想
捕获
原始像素数据,以便使用GPUImage框架进行操作。我像这样
捕获
数据: CVPixelBufferLockBaseAddressAVVideoCodecKey,[NSNumber numberWithUnsignedInt:kCVPixelFormatType_32BGRA], (id)kCVPixelBufferPixelFormatTypeKey,
n
浏览 0
提问于2017-05-09
得票数 0
2
回答
CMSampleBufferGetImageBuffer
中
的
内存泄漏
、
、
、
、
=
nil
) { CIImage *ciImage = [CIImage imageWithCVPixelBuffer:
CMSampleBufferGetImageBuffer
=
CMSampleBufferGetImageBuffer
(sampleBuffer); ciImage = [CIImage im
浏览 7
提问于2015-09-21
得票数 3
1
回答
从后台
返回
时AVCaptureSession失败
、
、
、
我有一个相机预览窗口,90%
的
时间都工作得很好。然而,有时候,如果我
的
应用程序一直在后台,预览就不会显示。otherButtonTitles:
nil
]; [alert autorelease];[
stillImage
setOutputSettings:outputSettings]; [se
浏览 0
提问于2012-06-05
得票数 6
回答已采纳
1
回答
为什么在预设为640x480
的
情况下,使用AVFoundation采集图像会得到480x640
的
图像?
、
、
、
我有一些使用AVFoundation
捕获
静止图像
的
非常基本
的
代码。[newStillImageOutput release]; [newCaptureSession release]; 我
捕获
静止图像
的
方法也非常简单self.
stillImage
UIImageWriteToSavedPhotosAlbum(self.
stillImage
我期望640x480图像
的
方向与我
的</em
浏览 1
提问于2011-08-08
得票数 8
回答已采纳
1
回答
获取
的
NSImage获取CMSampleBuffer
、
、
我有一个Cocoa应用程序,旨在
捕获
来自USB显微镜
的
静态图像,然后在将它们保存到图像文件之前对它们进行一些后处理。目前,我正试图将传递给completionHandler块
的
CMSampleBufferRef转换为NSImage或其他表示形式,以便使用熟悉
的
Cocoa进行操作和保存。我在AVFoundation文档中找到了函数imageFromSampleBuffer(),它声称要将CMSampleBuffer转换为UIImage (叹息),并对其进行了适当
的
修改以
返回
NSImage但
浏览 0
提问于2012-01-22
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券