腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4705)
视频
沙龙
1
回答
CVPixelBufferGetWidth
(
像素
缓冲区
)
和
CVPixelBufferGetWidthOfPlane
(
像素
缓冲区
,
0
)
有
什么区别
?
、
、
、
CVPixelBufferGetWidth
(pixelbuffer)
和
CVPixelBufferGetWidthOfPlane
(pixelbuffer,
0
)、CVPixelBufferGetHeight(pixelbuffer)
和
CVPixelBufferGetHeightOfPlane(pixelbuffer,
0
)
有
什么区别
吗?所以如果
CVPixelBufferGetWidth
(pixelbuffer) ==
CVPi
浏览 102
提问于2019-04-29
得票数 0
1
回答
在OpenGl ES 2.0中为iOS写入单通道
像素
缓冲区
、
、
我的视频输入
和
输出格式是YUV 4:2:
0
,这是iPhone 3GS之后大多数设备的本地
像素
格式。对于A5处理器
和
更高版本,我只需创建一个luma纹理
和
一个色度纹理,并将它们附加到屏幕外的框架
缓冲区
中。, depthRenderbuffer);gl_FragDepth.z = texture2D(SamplerY, textureRead).r;glRead
浏览 2
提问于2013-10-23
得票数 2
回答已采纳
2
回答
关于CVOpenGLESTextureCacheCreateTextureFromImage的问题
、
、
我试图从从相机接收到的
像素
缓冲区
中提取yuv数据,然后重新创建一个
像素
缓冲区
,但是我在CVOpenGLESTextureCacheCreateTextureFromImage获得了-6683,文档简单地声明: size_t planeWidth[2] = {
CVPixelBufferGetWidthOfPlane
(pixelBuffer,
0
浏览 5
提问于2012-04-09
得票数 1
1
回答
AVPlayerItemVideoOutput copyPixelBufferForItemTime为特定视频在iOS上提供了不正确的CVPixelBufferRef
、
、
、
、
我
有
AVPlayerItemVideoOutput,链接到适当的AVPlayerItem。playerVideoOutput copyPixelBufferForItemTime:currentTime itemTimeForDisplay:nil];int bpr = (int)CVPixelBufferGetBytesPerRow(pb); int width_real = (int)
CVPixelBufferGetWidth
(pb);编辑在iOS上创建纹理时,我通过CVPix
浏览 5
提问于2017-05-25
得票数 1
回答已采纳
1
回答
如何使用CVPixelBufferCreate创建黑色CMSampleBufferRef?
、
我需要一个黑色的CMSampleBufferRef来测试。我使用这个代码。但它是一台白色的CMSampleBufferRef。CVPixelBufferCreate(kCFAllocatorDefault, 1280, 720, kCVPixelFormatType_32BGRA, NULL, &pixelBuffer);CMFormatDescriptionRef
浏览 43
提问于2020-02-27
得票数 1
回答已采纳
1
回答
如何在AVAssetReaderTrackOutput中变换位颜色?
、
、
我经常看AVAssetReaderTrackOutput视频。但我需要一个16位的视频。为什么会发生这种情况?更新:`代码: [videoWriterInput requestMediaDataWhenReadyOnQueue:queu
浏览 0
提问于2013-06-21
得票数 0
回答已采纳
3
回答
在iOS中用白
像素
替换部分
像素
缓冲区
、
、
、
我正在使用iPhone摄像机捕捉实时视频,并将
像素
缓冲区
提供给进行某些对象识别的网络。下面是相关的代码:(我不会发布用于设置AVCaptureSession等的代码,因为这是相当标准的。)const int sourceRowBytes = (int)CVPixelBufferGetBytesPerRow( pixelBuffer ); const int width = (int)
CVPixelBufferGetWidth
我的问题是:用所有白色“
像素
”替换或删除部分图像数据的最简单
和
/
浏览 5
提问于2016-04-25
得票数 7
回答已采纳
1
回答
xcode CVpixelBuffer显示负值
我正在使用xcode,目前正在尝试使用以下代码从
像素
缓冲区
中提取
像素
值。但是,当我打印出
像素
值时,它由负值组成。有人曾经遇到过这样的问题吗?CVImageBufferRef Buffer = CMSampleBufferGetImageBuffer(sampleBuffer); uint8_t* BaseAddress = (uint8_t*)CVPixelBufferGetBaseAddressOfPlane(Buffe
浏览 1
提问于2015-01-26
得票数 2
回答已采纳
1
回答
如何绘制平面/ycbcr/420 F/yuv/not 12/而不是rgb的CVPixelBufferRef?
、
、
、
、
我收到了一个来自系统API的CMSampleBufferRef,其中包含的不是RGBA (线性
像素
)的CVPixelBufferRef。
缓冲区
包含平面
像素
(如420f、kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange、yCbCr、YUV)。我想修改一下这个视频数据的操作,然后把它发送到VideoToolkit,编码到h264 (画一些文本,覆盖一个标志,旋转图像等等),但是我希望它是高效的
和
实时的。布乌特平面图像数据看起来很混乱--有色度平面
和
卢马平面,它们的
浏览 19
提问于2017-10-02
得票数 4
1
回答
CVPixelBuffer中的值意味着从VNGeneratePersonSegmentationRequest返回的值是什么?
、
、
、
、
(maskBuffer, .readOnly)我现在的想法是查看
缓冲区
的单个
像素
值。我假设我可以用
CVPixelBufferGetWidth
和
CVPixelBufferGetHeight获得掩码的大小,每
像素
得到一个字节,而
0
值表示“完全透明”,而255表示“完全不透明”。显然,这是不正确的:
像素
缓冲区
的大小总是2016x1512或1512x2016,但是CVPixelBufferGetBytesPerRow返回2048或1536,所以每行都有一
浏览 17
提问于2022-08-04
得票数 1
1
回答
如何将CMSampleBufferRef/CIImage/UIImage转换为
像素
,例如uint8_t[]
、
、
、
、
我
有
输入从捕获的相机帧作为CMSampleBufferRef,我需要得到的原始
像素
,最好是C型uint8_t[]。我还需要找到输入图像的配色方案。
有
什么想法从哪里开始?size = width * height; for (int i =
0
;
浏览 0
提问于2020-07-03
得票数 0
回答已采纳
2
回答
开放cv视频处理
、
、
openCV框架提供了一个名为使用新的委托命令: 有人能指出我在哪里可以找到这个框架,或者在CMSampleBufferRef
和
cv我已经通过各种“官方”网站下载了它,还使用了诸如fink
和
brew等工具使用它们的说明。我甚至比较了安装到/usr/local/include/opencv/的头文件。每次都不一样。下载openCV项目时,同一个项目中有不同的cmake文件
和
冲突的自述文件。
浏览 6
提问于2012-09-10
得票数 5
回答已采纳
1
回答
在ANativeWindow_lock()期间只写入一些
像素
、
当只将一些
像素
写入使用ANativeWindow_lock()获得的
像素
缓冲区
时,我注意到了一些奇怪的行为。让我们假设我想要画一条从(
0
\
0
)到(320\240)的线。; 然后,我使用Bresenham算法在
像素
缓冲区
中画线。因为这条线不是直线,所以我只需要修改从ANativeWindow_lock()获得的
像素
缓冲区
中的很少几个
像素
。它通常只是由我的Bresenham实现修改的
像素
缓冲区<
浏览 3
提问于2012-07-08
得票数 0
回答已采纳
1
回答
检测图像中的透明度
、
我需要确定png图像是否包含任何透明度--实现这一点最有效的代码是什么?
浏览 0
提问于2013-04-13
得票数 8
回答已采纳
3
回答
如何将CVImageBuffer转换为UIImage?
、
、
、
、
我
有
像素
缓冲区
数据的临时变量tmpPixelBuffer,它不是nil,当检测到元数据对象时,我想从该
缓冲区
创建图像,这样我就可以从该图像裁剪元数据图像。 let cgiImage = context.createCGImage(image, fromRect: CGRect(x:
0
,y:
0
, width: Int(
CVPixelBufferGetWidth
(
浏览 1
提问于2015-04-01
得票数 6
3
回答
使用CVPixelBufferCreate复制/复制CVPixelBufferRef
、
、
我需要创建一个CVPixelBufferRef的副本,以便能够使用副本中的值以位方式操作原始
像素
缓冲区
。
浏览 5
提问于2016-05-24
得票数 9
1
回答
用OpenCV Mat格式从相机中获取静止图像
、
、
jpegData = [AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:imageSampleBuffer];我需要一种基于
缓冲区
中
像素
数据创建; height = CVPixelBufferGetHeightOfPlane(imageBuffer,
0
); by
浏览 0
提问于2014-01-17
得票数 3
回答已采纳
2
回答
CVPixelbuffer中的平面是什么?
、
在CVPixelBuffer对象中,
有
一个或多个平面。()我们
有
获得平面的数目,高度,基址的方法。示例: <Plane
0
width=1280 height=720 bytesPerRow=1280>
浏览 0
提问于2016-11-01
得票数 7
回答已采纳
1
回答
从CVPixelBuffer引用中获取所需数据
、
、
、
、
我
有
一个程序,可以实时查看相机输入,并获得中间
像素
的颜色值。sampleBuffer); CVPixelBufferLockBaseAddress(imageBuffer,
0
)CVPixelBufferGetBytesPerRow(imageBuffer); size_t width =
CVPixelBufferGe
浏览 7
提问于2012-04-15
得票数 11
回答已采纳
1
回答
sRGB FBO渲染纹理
、
然后在呈现到帧
缓冲区
的过程中读取纹理。 我想要更新它,以便我得到伽马-正确的结果。使用sRGB框架
缓冲区
的好处是,它允许我直接将非线性sRGB值存储在帧
缓冲区
中,从而获得更好的颜色精度。看起来只是在处理读取
和
混合sRGB帧
缓冲区
的操作。在我的情况下,我需要使用一个指定sRGB表示类型的纹理,这意味着我将使用扩展.使用线性纹理格式将禁用sRGB转换。它应该是一些
像素
格式(很可能只是RGB8
和
RGBA8)的一种功能,说明可以启用sRGB混合。这允许实现简单地将现有的RGB8
浏览 3
提问于2012-02-26
得票数 2
回答已采纳
点击加载更多
相关
资讯
python读写文件
研发实战:用RenderDoc验证有效渲染方式,优化Quest应用
Opengl ES之RGB转NV21
研发实战:Oculus发布ASW 2.0开发者指南
SDK更新SpaceWarp功能,可使Quest应用/游戏性能提高70%
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券