本文聚焦HDR质量评价技术,对于编解码、色调映射以及逆色调映射等不同任务,通常会采取不同的评价方法。本部分先从主观评价和客观评价两个角度对常用的HDR视觉质量评价技术做整体介绍。
研究目的:目的是设计一个更复杂但实用的退化模型(包括随机混合模糊、下采样和噪声退化);
与领先的超分辨率深度神经网络模型相比,Adobe的超分辨率有多有效?这篇文章试图评估这一点,Adobe的超级分辨率的结果非常令人印象深刻。 超分辨率技术 超分辨率是通过提高图像的视分辨率来提高图像质量
糖尿病视网膜病变是导致失明的主要原因之一,影响约 78% 的人,糖尿病病史为 15 年或更长时间。DR 经常导致脉管系统结构的逐渐变化并导致异常。DR 是通过目视检查视网膜眼底图像是否存在视网膜病变来诊断的,例如微动脉瘤 (MA)、视网膜内微血管异常 (IRMA)、非灌注区和新生血管。这些病变的检测对于 DR 的诊断至关重要。 已经有一些工作使用眼底图像进行 DR 诊断 。随着越来越受欢迎,OCT 血管造影 (OCTA) 能够在微血管水平上非常详细地显示视网膜和脉络膜血管系统 。特别地,扫描源 (SS)-OCTA 还允许对脉络膜脉管系统进行单独评估。已经有一些工作使用 SS-OCTA 对糖尿病视网膜病变的定性特征进行分级。此外,超宽光学相干断层扫描血管造影成像 (UW-OCTA) 模式显示典型 OCTA 未捕获的视网膜周边病理负担较高。一些作品已经在 DR 分析中使用了 UW-OCTA 。传统的DR分级诊断主要依靠眼底照相和FFA,尤其是PDR,严重危害视力健康。FA主要用于检测有无新生血管。眼底摄影很难发现早期或小的新生血管病变。FA 是一种侵入性眼底成像,不能用于过敏、怀孕或肝肾功能不佳的患者。超宽OCTA可以无创检测DR新生血管的变化,是帮助眼科医生诊断PDR的重要成像方式。但是,目前还没有能够使用 UW-OCTA 进行自动 DR 分析的作品。在DR分析过程中,首先需要对UW-OCTA的图像质量进行评估,选择成像质量较好的图像。然后进行DR分析,例如病变分割和PDR检测。因此,构建灵活、鲁棒的模型以实现图像质量自动评估、病灶分割和 PDR 检测至关重要。为了促进机器学习和深度学习算法在UW-OCTA图像自动图像质量评估、病灶分割和PDR检测中的应用,促进相应技术在DR临床诊断中的应用,提供了一个标准化的超宽(扫描源)光学相干断层扫描血管造影(UW-OCTA)数据集,用于测试各种算法的有效性。有了这个数据集,不同的算法可以测试它们的性能并与其他算法进行公平的比较,并促进相应技术在DR临床诊断中的应用,提供标准化的超宽(扫描源)光学相干断层扫描血管造影(UW-OCTA)数据集,用于测试各种算法的有效性。
大模型正在实现语言和视觉的跨越,有望无缝地理解和生成文本和图像内容。在最近的一系列研究中,多模态特征集成不仅是一种不断发展的趋势,而且已经带来了从多模态对话到内容创建工具等关键进步。大型语言模型在文本理解和生成方面已经展现出无与伦比的能力。然而,同时生成具有连贯文本叙述的图像仍然是一个有待发展的领域。
paper: https://arxiv.org/abs/2202.13123 code:https://github.com/guanghaoyin/CVRKD-IQA
CMR 成像质量易受呼吸运动伪影的影响。挑战赛目标是评估呼吸运动对 CMR 成像质量的影响,并检查自动分割模型在不同呼吸运动水平下的鲁棒性。心脏磁共振 (CMR) 成像是目前评估心脏结构和功能的金标准模式。基于机器学习的方法在以前的 CMR 挑战(例如 ACDC、M&Ms)中取得了显着的性能。然而,在临床实践中,模型性能受到不一致的成像环境(例如,供应商和协议)、人口变化(正常与病理病例)和意外的人类行为(例如,身体运动)的挑战。通过将训练有素的机器学习模型暴露于“压力测试”中的极端情况来调查潜在的故障模式很有用。迄今为止,模型通用性方面的现有挑战大都集中在供应商可变性和解剖结构变化上,而对人类行为的影响的探索较少。对于 CMR 采集,呼吸运动是主要问题之一。有急性症状的患者不能遵守屏气指令,导致图像质量下降和分析不准确。
图像质量评估 (IQA) 在计算机断层扫描 (CT) 成像中极为重要,因为它有助于 辐射剂量的优化和医学成像中新算法的开发,例如 恢复。此外,由于过量的辐射会对患者造成有害影响,因此从低剂量图像生成高质量图像是医学领域的热门话题。然而,尽管峰值信噪比 (PSNR) 和结构相似性指数度量 (SSIM) 是 这些算法使用最广泛的评估指标,但它们与放射科医生对图像质量的看法的相关性已被证明是 在以前的研究中不足,因为他们根据数字像素值计算图像分数。此外 ,由于需要原始参考图像来计算这些指标 ,因此它们在实际临床环境中无效,由于辐射剂量会给患者带来风险,因此通常不可能获得原始、高质量的图像。为了克服这些限制,一些研究旨在开发一种 无参考的新颖图像质量指标,该指标与放射科医生对没有 任何参考图像的图像质量的看法密切相关 。
在图像信息技术被广泛应用的情况下,对图像质量的评估变成一个广泛而基本的问题。由于图像信息相对于其它信息有着无可比拟的优点,因此对图像信息进行合理处理成为各领域中不可或缺的手段。在图像的获取、处理、传输和记录的过程中,由于成像系统、处理方法、传输介质和记录设备等不完善,加之物体运动、噪声污染等原因,不可避免地带来某些图像失真和降质,这给人们认识客观世界、研究解决问题带来很大的困难。
LiveVideoStackCon 2022 音视频技术大会 北京站将于12月9日至10日在北京丽亭华苑酒店召开,本次大会将延续【音视频+无限可能】的主题,邀请业内众多企业及专家学者,将他们在过去一年乃至更长时间里对音视频在更多领域和场景下应用的探索、在实践中打磨优化技术的经验心得、对技术与商业价值的思考,与大家一同分享和探讨。 媒体服务质量保障与QoE 近年来随着媒体内容处理、传输能力的提升以及内容呈现形式、形态等的不断变化,用户对于多媒体服务、内容质量的期待也越来越高,面对不同业务场景下的需求特性,通过
2016 年中国移动短视频用户数为 1.5 亿,今年预计会达到 2.4 亿,增长率高达 58.2%,可见短视频的热度在一直提升;近几年,短视频的生产模式在不断演进,从 UGC 到 PGC,再到最新的
摘要 基于深度学习的方法在图像恢复和增强方面取得了显著的成功,但在缺乏成对训练数据的情况下,它们是否仍然具有竞争力?作为一个例子,本文探讨了弱光图像增强问题,在实践中,它是非常具有挑战性的同时采取一个
本文继 去雨去雾去模糊篇 、 图像增强与图像恢复篇 、图像修复Inpainting篇之后,继续盘点CVPR 2020 中底层图像处理技术中非常重要的一块:图像质量评价(Image Quality Assessment)。
原标题:JPEG Committee explores NFT standardization needs
图像质量和美学的量化一直是图像处理和计算机视觉的一个长期存在的问题。虽然技术质量评估涉及到测量像素级的退化,如噪声、模糊、压缩失真等,但美学评估捕获了图像中与情绪和美感相关的语义层次特征。最近,用人工标记数据训练的深层卷积神经网络(CNNs)被用来处理特定类图片的图像质量的主观性质,例如景观。但是,这些方法在其范围内是有限的,因为它们通常将图像分类为低质量和高质量两个类。我们的方法预测了评级的分布。这将导致更准确的质量预测,其与地面实况的相关性更高,适用于一般图像。 在“NIMA:神经图像评估”中,我们引入
AI 科技评论按:本文发布于 Google Research Blog,作者为 Hossein Talebi, 机器感知领域软件工程师兼 Peyman Milanfar 研究科学家。AI 科技评论做了不改动原意的编辑和修改。 美是否存在标准?在图像处理与计算机视觉领域,图像质量与美学的量化问题一直困扰着研究者们。从技术的角度来说,图片质量的评估主要与像素降级相关,比如噪声、模糊、压缩等等。而图像在美学层面的评估,则需要根据图片所传达的情感或美感所连接的语义级特征来评判。 近年来,在人类标记数据的训练下,CN
生成对抗网络(GAN)[19] 是由一对存在竞争关系的神经网络——生成器和判别器——组成的深度神经网络架构。通过交替优化两个目标函数训练该模型,这样可以让生成器 G 学会产生与真实图像类似的样本,还能让判别器 D 学会更好地甄别真假数据。这种范式潜力巨大,因为它可以学会生成任何数据分布。这种模型已经在一些计算机视觉问题上取得了一定成果,例如文本到图像的转换 [56] 和图像到图像的转换 [24,59]、超分辨率 [31] 以及逼真的自然图像生成 [25]。
我们都知道拍摄相片容易,但是想拍摄高质量的图片却很难,它需要良好的构图和照明。此外,选择正确的镜头和优质的设备也会提高图像的质量。但是,最重要的是,拍摄高质量的图片需要良好的品味和判断力,也就是我们需要专家级的眼光。
作为视觉生物,人类对视觉信号损耗(例如块状,模糊,嘈杂和传输损耗)敏感。因此,我将研究重点放在发现图像质量如何影响Web应用程序中的用户行为上。最近,一些研究测试了低质量图像在网站上的影响。康奈尔大学[4]证明了低质量的图像会对用户体验,网站转换率,人们在网站上停留多长时间以及信任/信誉产生负面影响。他们使用由LetGo.com提供的公开数据集训练的深度神经网络模型。目的是衡量图像质量对销售和感知到的信任度的影响,但是他们无法衡量图像质量对可信赖性的影响。
原文:Improving 3D-aware Image Synthesis with A Geometry-aware Discriminator
眼看着2020年上半年已经所剩无几了,大家也经历了一个不一样的学期,许多即将毕业的同学和准备换工作的朋友也在开始准备秋招了。
图像质量和美学的量化一直是图像处理和计算机视觉长期存在的问题。技术质量评估测量的是图像在像素级别的损坏,例如噪声、模糊、人为压缩等等,而对艺术的评估是为了捕捉图像中的情感和美丽在语义级别的特征。
第一) 目前的人工智能都是属于弱人工智能的范围,在某一个专业领域内作为被人类使用的工具存在。 目前还不存在离开人类主体自行运行的人工智能,更不存在可以开发人工智能自我迭代进化的强人工智能。
今天给大家介绍一篇图像超分辨率邻域的综述,这篇综述总结了图像超分辨率领域的几方面:problem settings、数据集、performance metrics、SR方法、特定领域应用以结构组件形式,同时,总结超分方法的优点与限制。讨论了存在的问题和挑战,以及未来的趋势和发展方向。
VMAF是目前比较好用的质量评价模型。但是在图像/视频压缩,视频增强等领域,可能需要一定的质量评价模块作为损失函数指导网络的训练。VMAF作为不可微的质量评价模型,无法直接作为损失函数,在这样的前提下,Darren等人提出使用神经网络去模拟VMAF的分数,使得该质量评价模块可以直接应用于其他网络的训练过程当中。
大家好,这是专栏《计算摄影》的第二篇文章,这一个专栏来自于计算机科学与摄影艺术的交叉学科。今天我们讨论的问题是图像美学评估问题。
本帖参考M. Miyazaki等人发表在SMPTE Motion Imaging Journal的文章UHDTV-2 Mezzanine Compression Codec For Miniaturized and Simplified UHD Production System,重点介绍了我们在生产应用中硬件压缩的发展。底层压缩方案经过多个编码/解码周期展现出最小的质量下降,使其适用于生产系统。Tiny Codec(TICO)编解码器采用48 Gbits / s(59.94 Hz,10 bit,4:2:2)的未压缩UHDTV-2比特流,并将其压缩以适合单个12G数字分量串行接口(SDI)电缆。该设备还可以配备IP接口。这些改变可以显着降低电缆和切换器的复杂性。
目标结构(例如,肿瘤)和高危器官 (OAR) 的描绘是治疗计划过程中的一个关键步骤。由于手动分割这些结构具有挑战性且耗时,因此开发准确的自动分割方法对于帮助治疗前放疗计划和 IGART 至关重要。近年来,已经引入了多种自动分割方法。然而,对于哪种分割方法最好,目前还没有达成共识。这可能是由于解剖结构的数量和种类繁多,每一个都针对特定的分割挑战。事实上,一些自动分割方法是为特定区域或模态设计的,并且可能在一个领域更准确而在其他领域不太准确。
前几天,荣耀发布了Magic 3系列手机,通过多主摄融合的计算摄影技术,带来全焦段的高清体验。根据荣耀官方的数据,在彩色黑白融合时,进光量最大提升13%, 清晰度最大提升18%。在主摄和广角镜头融合时,中心清晰度最大提升80%, 在主摄和长焦镜头融合时,中心清晰度最大提升180%!
30 多年来,二维超声心动图图像的精确分割一直是一个持续存在的问题。其原因有三个:i) 超声心动图图像的本质(对比度差、亮度不均匀、沿心肌的散斑图案变化、群体内显着的组织回声变化等)使得难以准确定位心脏区域;ii) 缺乏公开的大规模二维超声心动图数据集;iii)缺乏对大型数据集的多专家注释来评估最小误差范围,在该误差范围内,分割方法将被认为与人类专家一样准确。
大家好,有三本月出版了《深度学习之摄影图像处理:核心算法与案例精萃》,这是一本系统性讲述计算摄影核心算法的书籍,同时配套有大量实战案例。
辅助诊断只是AI在医疗影像应用的一个点,西门子正在做的是提供更多的点,并连接成一根链条
在各种遥感场景中进行车辆检测是一项具有挑战性的任务。各种遥感场景与多场景、多质量、多尺度和多类别的图像混杂在一起。车辆检测模型存在候选框不足、正建议采样弱和分类性能差的问题,导致其应用于各种场景时检测性能下降。更糟糕的是,没有这样一个覆盖各种场景的数据集,用于车辆检测。本文提出了一种称为双完全卷积一阶段目标检测(FCOS)的车辆检测模型和一个称为多场景、多质量、多尺度和多类别车辆数据集(4MVD)的车辆数据集,用于各种遥感场景中的车辆检测。双FCOS是一种基于FCOS的两阶段检测模型。在RPN阶段利用FCOS生成各种场景中的候选框。精心设计了两阶段正样本和负样本模型,以增强正建议采样效果,特别是在FCOS中忽略的微小或弱车辆。在RCNN阶段设计了一个两步分类模型,包括建议分类分支和点分类分支,以提高各种类型车辆之间的分类性能。4MVD是从各种遥感场景中收集的,用于评估双FCOS的性能。4MVD上的双FCOS对五类车辆检测的平均准确率为78.3%。大量实验表明,双FCOS显著提高了各种遥感场景下的车辆检测性能。
得知帮助他人办理几张银行卡、电话卡,就能坐等“分红”,许多人怀着“吃馅饼”的心态掉入了陷阱。今年4月,海南一男子出借银行卡帮助不法分子进行电信网络诈骗,涉案资金流水近10万元,被警方抓捕。此前,西安某高校在校学生吴某为赚取“兼职费”,将自己的3张银行卡账户提供给不法分子使用,并从中获取好处费。经查,其提供的银行卡账户中,有2张被他人用作了电信诈骗。
原文 http://webrtcbydralex.com/index.php/2018/10/11/webrtc-video-quality-assessment/
机器之心专栏清华大学黄高团队、快手Y-tech团队 这是一篇来自清华大学黄高团队和快手 Y-tech 团队合作的论文,该工作探究了如何在基于参考图像的生成任务中实现对于单张生成图像质量的评价。文中设计的 RISA 模型无需人工标注的训练数据,其评价结果能够与人的主观感受具有高度一致性。本工作已入选 AAAI 2022 Oral。 引言 现有的生成图像评价工作主要基于生成图像的分布对模型「整体」的生成效果进行评价。然而,一个性能优异的生成模型并不代表其合成的「任何一张」图像都具有高质量的效果。在基于参考图像(
导语 数据万象内容识别基于深度学习等人工智能技术,与对象存储 COS 深度融合,底层直接调用COS的数据,实现数据存储、流动、处理、识别一体化,提供综合性的云原生 AI 智能识别服务,包含图像理解(解析视频、图像中的场景、物品、动物等)、图像处理(一键抠图、图像修复)、图像质量评估(分析图像视觉质量)、图像搜索(在指定图库中搜索出相同或相似的图片)、人脸识别、文字识别、车辆识别、语音识别、视频分析等多维度能力。用户可使用数据万象提供的自动化工作流或批量任务处理串联业务流程,大幅减少人力成本,缩短产出时间的同
在腾讯,我们有多个视频业务线,点播视频有腾讯视频,企鹅影视;短视频有微视,K歌;直播类有Now直播,企鹅电竞;实时传输类有QQ和微信的音视频通话,无线投屏和腾讯会议等。
超分辨率是从给定的低分辨率(LR)图像中恢复高分辨率(HR)图像的过程。由于较小的空间分辨率(即大小)或退化的结果(如模糊),图像可能具有“较低的分辨率”。我们可以将HR图像和LR图像通过如下公式联系起来:LR = degradation(HR)`
1、A Novel Method to Compensate Variety of Illumination In Face Detection
从本周开始我们将举办CCF-腾讯犀牛鸟基金(以下简称犀牛鸟基金)技术沙龙系列分享活动,邀请犀牛鸟基金青年老师和腾讯技术团队分享机器学习、计算机视觉、知识图谱、信息安全等领域的前沿工作。 6月16日(明日)19:00,我们将在线上举办首场学术报告,届时将邀请中科院信息工程研究所任文琦老师和香港城市大学马柯德老师共话图像增强与质量评价的相关工作。 日常生活中,由于不可控拍摄环境(抖动、暗光)及恶劣气候(雨雪雾)等影响,手机摄影或者监控视频往往会伴随着图象质量的退化。任文琦老师将对面向图像恢复及增强的深度模型进
随着大数据人工智能技术的蓬勃发展,今天的图像分析技术早已不再是单纯的图片审核,而是基于深度学习等人工智能技术,和海量训练数据,提供综合性的图像智能服务,应用场景包含相册、信息流、社交、广告等,每天分析、处理海量图片,可以大幅提升各类产品的体验、效率。
每周一期,纵览音视频技术领域的干货。 新闻投稿:contribute@livevideostack.com。 ---- 基于端智能的播放QoE优化 伴随着B站业务形式的不断扩展,不同场景对视频播放体验的稳定性、流畅性提出了更高的要求,为保障提供给用户更好的播放体验B站做出了哪些努力? Shopee 视频处理技术后台应用 在 8 月 6 日举办的 LiveVideoStackCon 2022 上海站大会中,Shopee 视频技术团队负责人 Zhixing 分享了 Shopee 视频处理技术的后台应用,本文
北京协和医院、华西医院、河北医科大学第二医院、天津医科大学眼科医院、温州医科大学附属眼科医院的联合研究团队通过开发人工智能系统模型,协助初级眼科医生的诊断一致性提高了约 12%,为 13 种主要眼底疾病的自动检测提供了一种新的方法。
图像质量是一个属性的组合,表明一个图像如何如实地捕获原始场景。影响图像质量的因素包括亮度、对比度、锐度、噪声、色彩一致性、分辨率、色调再现等。
众所周知,深度学习算法已经占领很多计算机视觉任务的制高点,在图像识别等任务上的精度已然超过了人类的平均水平。然而,绝大多数深度学习算法只有在高质量的图像上才能取得高性能。实际图像采集过程中,存在各种降质因素,导致图像质量和视觉效果下降,深度学习算法的性能也随之降低。
机器之心报道 编辑:杜伟、陈 CMU 助理教授朱俊彦团队的最新研究将 GAN 玩出了花,仅仅使用一个或数个手绘草图,即可以自定义一个现成的 GAN 模型,进而输出与草图匹配的图像。相关论文已被 ICCV 2021 会议接收。 深度生成模型(例如 GAN)强大之处在于,它们能够以最少的用户努力合成无数具有真实性、多样性和新颖的内容。近年来,随着大规模生成模型的质量和分辨率的不断提高,这些模型的潜在应用也不断的在增长。 然而,训练高质量生成模型需要高性能的计算平台,这使得大多数用户都无法完成这种训练。此外,训
有损压缩通过变换和量化技术证明了其在视频压缩中的效率的同时,也表明其会带来量化错误问题。为了补偿这一误差,许多研究者开发了滤波技术,比如去块滤波、样本自适应偏移以及基于维纳的滤波。更进一步的,最近的编码标准将滤波技术应用于环内也取得了图像质量实质上的提高。目前,大部分的滤波技术集中在环路内,作为预处理的滤波还没有被广泛用于有损视频压缩,尤其是最近的视频编码标准 HEVC 和 VVC 中。少部分研究者根据视频压缩标准,基于传统的信号处理技术来进行预处理以提高视频质量,这样做复杂度低但是效率有限。
领取专属 10元无门槛券
手把手带您无忧上云