前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >强光抑制算法研究

强光抑制算法研究

作者头像
AomanHao
发布于 2022-01-14 01:47:29
发布于 2022-01-14 01:47:29
1.9K00
代码可运行
举报
运行总次数:0
代码可运行

强光抑制算法研究

强光抑制功能

  在夜间由于视线问题,视野范围大大减少,醉酒驾车、闯红灯问题时有发生,如何减少交通事故的发生,道路监控在这方面有着很大的帮助。但同样的问题,夜晚则是考验监控设备的时候,如何能更清楚的监控道路车辆,对于减少交通事故能够起到很大的帮助。

  而强光抑制功能则是道路监控必不可少的功能之一,它的作用非常大,笔者简单介绍一些该技术。强光抑制技术能够有效抑制强光点直接照射造成的光晕偏大,视频图像模糊,自动分辨强光点,并对强光点附近区域进行补偿以获得更清晰的图像。其作用是有效抑制迎面的强光,在夜间监控道路车辆时,能较清晰的捕捉车辆车牌。适用于收费站、停车场出路口等区域。

  可能单纯的概念不足以证实这个功能,下面让大家通过一组图片来了解一下,通过两幅图片的对比,大家能够清楚的认识到该功能的作用,对于漆黑的夜晚,具备这样功能的监控设备一样可以很少的处理灯光问题,保证视频画面的清晰度。

强光抑制功能对比

强光抑制算法研究

在收费站、停车场等路口区域,夜晚车灯开启后,要获取更好的车辆信息,就需要对强光抑制。夜间明亮区域会曝光过度,较暗的区域会曝光不足,整幅图像在一个较窄的动态范围内,强光抑制算法是采用 DSP 技术,把强光部分弱化,使暗光部分变亮,达到光线平衡。强光抑制技术可以有效抑制强光点直接照射造成的光晕偏大,视频图像模糊,分辨出强光点并对强光附近的区域进行补偿,获得更清晰的图像。

一个好的强光抑制滤波处理芯片关键部分是强光抑制处理算法,常用的强光抑制处理算法有,背光补偿方式,白峰反转方式和扩展动态范围方式。

背光补偿方式: 在图像预处理阶段进行背光补偿处理,保证每次都能正确的曝光,通过检测子区域的平均讯号确定 AGC 电路的增益值,改善视场的可视性。

白峰反转方式: 拍摄避光状态或拍摄亮度值差较大的对象时,舍弃高亮度部分画面的情况,这种方式不能获取整幅场景的细节。

扩展动态范围的方式: 动态范围是一个信号系统的最大值与最小值之间的比例,对一个实际场景来说,动态范围是这个场景中最亮的光辐射度和最暗的光辐射度之比

动态范围指摄像机色彩正好饱和的亮度同背景噪声提高一个标准差的亮度的比值,在摄影领域里面动态范围就是两个亮度的比值。

图像传感器的动态范围定义为:

20lg_{(I_min/I_max)}

I_minI_max 是 CCD 线性检测到的入射光的最小和最大光强,单位流明(lm),若用光照度表示动态范围,可定义为: a=20lg(E_min/E_max) (5.18) E 为图像传感器像素的光照度,单位勒克斯 (lx) ,控制图像效果的曝光量EV(Exposure Value)与光强、光照度之间的关系为:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
      (5.19) 

自然环境的动态范围常在 100dB 以上,一般摄像机拍摄图像的对比度为几十分贝值。

现阶段,进行图像动态范围扩展,主要在软件算法上扩展动态范围。 选择合适的图像处理方法扩展动态范围,对同一场景连续采集多次,然后利用数字图像处理算法对图像进行合成,达到扩展动态范围的目的,提高图像信噪比,进一步增强图像。

线性扩展算法进行强光抑制

韦伯(Weber)定律指出人们能够觉察到的光强度差别与背景光强度有关,举个例子说明这种关系,在亮度较强的屋子里点一根蜡烛,几乎发现不了蜡烛的存在;若将这根蜡烛移到黑暗的屋子里面,蜡烛就会很明显。由人眼睛视觉和心理特性可知,变换幅度大和细节丰富的区域更容易引起人眼的注意,变化平坦的区域不易引起人的注意,依据人眼睛的灰度特性,处理灰度图像时,对占有范围较窄的低灰度级和高灰度级区域,将它们的灰度间隔拉伸;适当压缩间隔较大的中等灰度区域,并把剩余的灰度级分配给那些需要扩展的高灰度级区域或低灰度级区域。 多幅图像扩展线性动态范围,在图像处理前,选择不同的快门来拍摄图像,在线性动态范围扩展中,选择不同图片中相同位置的图像细节信息,并把它们组成一帧新的图像,最简单的处理方法是是将图像相加求平均,但是处理的图像范围很窄,。研究中,选择了一种和人眼最匹配的线性扩展算法,从两幅图像的相同位置取灰度值g1(x,y)g2(x,y),进行线性加权合成图像gf(x,y)

gf(x,y)=a_1*g1(x,y) +a2*g2(x,y)

其中 a1a2g1(x,y)g2(x,y)的权值,理论研究证明人的眼睛对图像灰度敏感区域是 32-192 之间,因此进行图像处理时设定两个边界值 Tmin=32,Tmax=192

将两幅图像的灰度区间分成三部分,然后对三部分分段线性取权值,然后合成图像。为了达到理想的效果需要在不同的灰度区域取合适的权值,在较亮的场景中,需要将较暗图像的权值设置的大一些,在太暗的情况下就要将较暗图像的权值设置的小一些,在两幅图像合成中,不同区域的权值计算方法如下表所示:

算法步骤如下:

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020 年 05 月,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
【知识】简单易懂GPU架构图解和Tensor Core
架构的升级,其中一点是对Tensor core的升级。利用 Tensor Core 可以加速 FP16 下的矩阵乘法。在pytorch中可以通过开启“混合精度”来使用Tensor Core。
小锋学长生活大爆炸
2025/05/24
1800
【知识】简单易懂GPU架构图解和Tensor Core
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑
近期,AIGC领域呈现出一片繁荣景象,其背后离不开强大算力的支持。以ChatGPT为例,其高效的运行依赖于一台由微软投资建造的超级计算机。这台超级计算机配备了数万个NVIDIA A100 GPU,并利用60多个数据中心的数十万个GPU辅助,为ChatGPT提供了强大的算力支持。这种规模的算力部署不仅体现了AIGC技术的先进性,也预示着人工智能技术未来的发展趋势。这种集成了高性能计算、大数据处理和人工智能算法的超级计算机,将成为推动科技进步的重要引擎。
汀丶人工智能
2024/01/29
8.2K0
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑
问答 | 如何理解 NVIDIA 新 GPU 架构 Turing 的 Tensor Core?
问:如何理解 NVIDIA 新 GPU 架构 Turing 的 Tensor Core?
AI研习社
2018/09/25
2.5K0
问答 | 如何理解 NVIDIA 新 GPU 架构 Turing 的 Tensor Core?
【AI系统】Tensor Core 基本原理
在英伟达的通用 GPU 架构中,主要存在三种核心类型:CUDA Core、Tensor Core 以及 RT Core。其中,Tensor Core 扮演着极其关键的角色。
用户11307734
2024/11/27
1.1K0
深度分析NVIDIA A100显卡架构(附论文&源码下载)
基于安培体系结构的NVIDIA A100 GPU是为了从其许多新的体系结构特征和优化中提供尽可能多的AI和HPC计算能力而设计的。在台积电7nm N7 FinFET制造工艺上,A100提供了比Tesla V100中使用的12nm FFN工艺更高的晶体管密度、更好的性能和更好的功率效率。一种新的Multi-Instance GPU(MIG)能为多租户和虚拟化GPU环境提供了增强的客户端/应用程序故障隔离和QoS,这对云服务提供商特别有利。一个更快和更强的错误抗力的第三代NVIDIA的NVLink互连提供了改进的多GPU性能缩放的超尺度数据中心。
计算机视觉研究院
2020/07/16
3.4K0
深度分析NVIDIA A100显卡架构(附论文&源码下载)
深度 | 英伟达深度学习Tensor Core全面解析
AI 科技评论消息,不久前,NVIDIA在SIGGRAPH 2018上正式发布了新一代GPU架构——Turing(图灵),黄仁勋称Turing架构是自2006年CUDA GPU发明以来最大的飞跃。Turing架构的两大重要特性便是集成了用于光线追踪的RT Core以及用于AI计算的Tensor Core,使其成为了全球首款支持实时光线追踪的GPU。
AI科技评论
2018/09/21
4.1K0
深度 | 英伟达深度学习Tensor Core全面解析
业界 | Tensor Core究竟有多快?全面对比英伟达Tesla V100/P100的RNN加速能力
选自xcelerit 机器之心编译 参与:蒋思源 RNN 是处理量化金融、风险管理等时序数据的主要深度学习模型,但这种模型用 GPU 加速的效果并不好。本文使用 RNN 与 LSTM 基于 Tenso
机器之心
2018/05/11
3K0
英伟达 GPU 十年架构演进史
作者:tomoyazhang,腾讯 PCG 后台开发工程师 随着软件从 1.0 进化到 2.0,也即从图灵机演进到类深度学习算法。计算用的硬件也在加速从 CPU 到 GPU 等迁移。本文试图整理从英伟达 2010 年开始,到 2020 年这十年间的架构演进历史。 CPU and GPU 我们先对 GPU 有一个直观的认识,如下图: 众所周知,由于存储器的发展慢于处理器,在 CPU 上发展出了多级高速缓存的结构,如上面左图所示。而在 GPU 中,也存在类似的多级高速缓存结构。只是相比 CPU,GPU
腾讯大讲堂
2021/10/20
4.1K0
【AI系统】GPU 架构回顾(从2018年-2024年)
2018 年 Turing 图灵架构发布,采用 TSMC 12 nm 工艺,总共 18.6 亿个晶体管。在 PC 游戏、专业图形应用程序和深度学习推理方面,效率和性能都取得了重大进步。相比上一代 Volta 架构主要更新了 Tensor Core(专门为执行张量/矩阵操作而设计的专门执行单元,深度学习计算核心)、CUDA 和 CuDNN 库的不断改进,更好地应用于深度学习推理。RT Core(Ray Tracing Core)提供实时的光线跟踪渲染,包括具有物理上精确的投影、反射和折射,更逼真的渲染物体和环境。支持 GDDR6 内存,与 GDDR5 内存相比,拥有 14 Gbps 传输速率,实现了 20%的的效率提升。NVLink2.0 支持 100 GB/s 双向带宽,使特定的工作负载能够有效地跨两个 GPU 进行分割并共享内存。
用户11307734
2024/11/27
3990
【AI系统】Tensor Core 架构演进
自 Volta 架构时代起,英伟达的 GPU 架构已经明显地转向深度学习领域的优化和创新。2017 年,Volta 架构横空出世,其中引入的张量核心(Tensor Core)设计可谓划时代之作,这一设计专门针对深度学习计算进行了优化,通过执行融合乘法加法操作,大幅提升了计算效率。与前一代 Pascal 架构相比,Volta 架构在深度学习训练和推理方面的性能提升了 3 倍,这一飞跃性进步为深度学习的发展提供了强大的硬件支持。
用户11307734
2024/11/27
3410
RTX 40时代,给深度学习买的显卡居然能保值9年?仔细一算绷不住了
选自timdettmers.com 作者:Tim Dettmers 机器之心编译 编辑:泽南 FP8 训练带来的速度提升可能要一统 AI 领域,但这是我要考虑的问题吗? 深度学习对于算力的要求很高,对于个人来说,GPU 的选择很大程度上决定了你的工作、学习体验。显卡既贵又复杂,如果想购买新的 GPU,哪些功能最重要?内存、核心、Tensor Core 还是缓存?如何做出性价比高的选择?每出一代新 GPU 这些问题就要重新审视一番。 近日,华盛顿大学在读博士 Tim Dettmers 通过一篇长文在 RTX
机器之心
2023/03/29
1.4K0
RTX 40时代,给深度学习买的显卡居然能保值9年?仔细一算绷不住了
英伟达Volta架构深度解读:专为深度学习而生的Tensor Core到底是什么?
机器之心报道 编辑:CZ、Jenny Huang、李泽南、吴攀、蒋思源 当地时间 5 月 8-11 日,英伟达在加州圣何塞举行了 2017 年的 GPU 技术大会(GTC 2017)。机器之心作为本次大会的特邀媒体,也来到了现场,参阅《现场报道 | 英伟达 GTC 大会开幕,盘点首日三大亮点》。昨天,英伟达 CEO 黄仁勋在大会上正式发布了目前最先进的加速器 NVIDIA Tesla V100。之后,英伟达开发博客又更新了一篇深度解读文章,剖析了 Tesla V100 背后的新一代架构 Volta,其在提供
机器之心
2018/05/08
4.2K0
英伟达Volta架构深度解读:专为深度学习而生的Tensor Core到底是什么?
【AI系统】Tensor Core 深度剖析
Tensor Core 是用于加速深度学习计算的关键技术,其主要功能是执行神经网络中的矩阵乘法和卷积运算。通过利用混合精度计算和张量核心操作,Tensor Core 能够在较短的时间内完成大量矩阵运算,从而显著加快神经网络模型的训练和推断过程。具体来说,Tensor Core 采用半精度(FP16)作为输入和输出,并利用全精度(FP32)进行存储中间结果计算,以确保计算精度的同时最大限度地提高计算效率。
用户11307734
2024/11/27
4520
一文读懂 NVIDIA A100 GPU
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的 GPU 底座 - NVIDIA A100 。
Luga Lee
2025/01/16
5480
一文读懂 NVIDIA A100 GPU
腾讯云即将支持Ampere架构A100 Tensor Core GPU云服务器
    最近随着下一代NVIDIA Ampere计算架构全新发布,腾讯云作为国内云厂商的领导者,将成为业内率先推出采用NVIDIA A100 Tensor Core GPU的云服务实例的云厂商之一。为企业在深度学习训练与推理、高性能计算、数据分析、视频分析等领域提供更高性能的计算资源,同时进一步降低企业的使用成本,帮助企业更快投入市场。     腾讯云即将搭载的NVIDIA A100 Tensor Core GPU,为各种规模的AI、数据分析和HPC都提供了前所未有的加速,以应对各种各样复杂的计算挑
腾讯云计算产品团队
2020/06/05
5.3K0
英伟达的这款GPU太强了!
今年 3 月 21 日 - 24 日举办的 NVIDIA GTC 2022 大会可谓是亮点十足。NVIDIA 不仅一口气更新了 60 多个 SDK 应用程序,继续加大在 Omniverse、机器人平台、自动驾驶和量子计算等领域中的布局 ,还重磅发布了基于全新 Hopper 架构的 H100 GPU!
Amusi
2022/06/13
1.5K0
英伟达的这款GPU太强了!
一文读懂 NVIDIA GPU Core
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI)生态领域相关的底座技术 - NVIDIA GPU Core。
Luga Lee
2025/01/10
3910
一文读懂 NVIDIA GPU Core
【论文解读】基于MLIR生成矩阵乘法的高性能GPU代码,性能持平cuBLAS
本文是对 https://arxiv.org/abs/2108.13191 这篇论文进行解读,学习一下如何基于MLIR编译器基础设施生成高效的GPU代码。本文的阅读的先后顺序分别为:
BBuf
2022/04/06
2.8K0
【论文解读】基于MLIR生成矩阵乘法的高性能GPU代码,性能持平cuBLAS
英伟达A100与H100:全面对比分析
随着人工智能(AI)和高性能计算(HPC)领域的飞速发展,GPU作为加速计算的关键组件变得越来越重要。英伟达作为GPU市场的领导者,不断推出新的产品来满足日益增长的需求。本文将深入探讨英伟达A100和H100这两款GPU之间的主要差异,帮助读者更好地理解这些高性能计算解决方案的特点及其适用场景。
用户7353950
2024/11/23
2.9K0
英伟达A100与H100:全面对比分析
英伟达光线追踪技术及RT core、Tensor core
英伟达(NVIDIA)的光线追踪技术,特别是其RTX系列显卡中集成的实时光线追踪(Real-Time Ray Tracing)技术,代表了图形处理领域的一大进步,极大地提升了游戏和专业可视化应用中的视觉真实性。
用户7353950
2024/05/10
3.4K0
英伟达光线追踪技术及RT core、Tensor core
推荐阅读
相关推荐
【知识】简单易懂GPU架构图解和Tensor Core
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档