“AI跳绳”是近期某钉应用新发布运动健康较火热的轻量应用。主要用于运动健康、教育打卡等应用上的娱乐游戏,为了扩展相关领域应用和娱乐,提交运动数据,当做“课程作业”,老师也能在后台查阅相关数据,作业数据提交,任务提交等场景,结合抗疫,提升抵抗力,互动排行榜等激发学生和运动学员的参与性和积极性等作用;;
人体姿态分析/行为分析/动作识别AI算法,是一种利用人工智能技术对人体行为进行检测、跟踪和分析的方法。通过计算机视觉、深度学习和模式识别等技术,可以实现对人体姿态、动作和行为的自动化识别与分析。
据优图实验室 AI 手语识别项目组研究员阳赵阳介绍,优图 AI 手语翻译机以普通摄像头作为手语采集装置,依托高性能计算机进行后台运算,用户只需面对摄像头完成手语表达,翻译机屏幕界面就能快速把手语转换为文字,帮助听障人士和健听人士进行正常交流,未来有望在机场、高铁、民政窗口等公共场所部署应用,助力信息无障碍城市建设。
“陪伴是最好的表白。”科幻电影中的智能机器人,早已可以满足人类的心灵需求。因为更加智能,相比宠物,未来的机器人应该是最好的玩伴。那么,现阶段机器人发展到什么程度?人类应该以什么样的目光看待这些机器人呢
几天不见,Crossin 又去做什么游戏去了呢?这次我做的不是游戏,而是游戏机!而且是体感游戏机。
选自IEEE Spectrum 作者:Prachi Patel 机器之心编译 编辑:袁铭怿 不需要繁琐的设备、键盘,也不需要佩戴笨重的手环,只需在手上打印一条线就能实现凭空打字?近日,一项由斯坦福大学的研究人员开发的智能皮肤系统登上 Nature 子刊,它可以精确定位用户在键盘上想输入的位置,还可以与应用程序甚至是物体交互。 图源:KYUN KYU “RICHARD” KIM / 斯坦福大学 新的 AI 学习机制结合了智能皮肤,可以破译人手的动作,以识别打字、手语,甚至是简单日常物体的形状。开发人员说,这
近年来,由于视频理解成为实现 VR/AR 以及视频共享社交网络服务等实际应用的关键组件,学术界对该领域的研究越来越感兴趣。每天有数百万个视频上传到 TikTok、抖音和西瓜视频进行处理。但是,视频流的爆炸式增长对执行视频理解所需的高准确率和低计算成本提出了挑战。 作为视频理解的一个基本问题,动作识别在内容审核和推荐等视频相关的应用中被提出了越来越高的要求。随着 VR 等技术的飞速发展,与时序相关的动作识别也成为了近年来的研究热点。 时空性、特征和运动模式是视频动作识别任务的重要组成部分。目前,学界主流方法
选自Google Research 机器之心编译 参与:路雪 视频人类动作识别是计算机视觉领域中的一个基础问题,但也具备较大的挑战性。现有的数据集不包含多人不同动作的复杂场景标注数据,今日谷歌发布了精确标注多人动作的数据集——AVA,希望能够帮助开发人类动作识别系统。 教机器理解视频中的人类动作是计算机视觉领域中的一个基础研究问题,对个人视频搜索和发现、运动分析和手势交流等应用十分必要。尽管近几年图像分类和检索领域实现了很大突破,但是识别视频中的人类动作仍然是一个巨大挑战。原因在于动作本质上没有物体那么明
作者: Chunhui Gu & David Ross 编译:魏子敏,龙牧雪,谭婧 就在昨天,谷歌blog发布了一个堪比“视频版”ImageNet的数据集-AVA(A Finely Labeled Video Dataset for Human Action Understanding ),为视频动作识别这一图像识别中的重大课题提供了新的“原材料”。这个崭新的数据集填补了在复杂的场景下,多人执行不同操作的标注空白。 以下为google blog原文,大数据文摘对其进行了编译: 在计算机视觉领域,教会机器在视
本文是对我们 CVPR 2021 接收的工作 "ACTION-Net: Multipath Excitation for Action Recognition" 的介绍。主要针对强时序依赖行为识别这个场景,设计了一组卷积模块。
关于人机交互,关于AI和AR的未来,我们应该如何看待? 2017年7月9日,由镁客网、振威集团联合主办的“3E‘硬纪元’AI+产业应用创新峰会”在北京国家会议中心盛大开幕。现场200位来自全球AI行业的顶级专家、知名创投机构、创业公司团队和知名媒体齐聚一堂,共谋AI+行业的创新应用,探讨AI的当下与未来。 现场,华捷艾米联合创始人沈瑄给我们带来了主题为“3D视觉系统——打造AR&AI生态”的内容分享。沈瑄表示,未来的人机交互一定是回归到人与人之间交流的本质,即视觉+语音的交互,如此才能相互理解,继而进行充分
最近,来自加州大学伯克利分校和挪威奥斯陆大学的Anat Perry 、Jamie Lubell 等学者在Brain杂志上发表了一项研究,表明即使是单侧损伤前额叶皮层,无论是否涉及到镜像神经元的关键区域额下回(IFG),都会导致情绪识别能力的降低,而对动作识别能力的影响只体现在反应时延长,并且情绪识别能力与β节律抑制成显著负相关。 实验分别选用了17位单侧脑损伤被试和18位年龄匹配的健康对照组被试。为了进一步验证镜像神经元核心区域IFG的在动作和情绪识别中的作用,将这17位脑损伤被试分为IFG损伤的被试(n=
前言 据2017年北京听力协会预估数据,我国听障人群数量约达到7200万。放眼世界,世界卫生组织发布的最新数据显示,全世界有共计约4.66亿人患有残疾性听力损失。尽管听障人群能够凭借手语进行交流,但在机场、民政等公共服务环境中仍然面临沟通障碍等一些亟待解决的问题。 秉承“科技向善”的技术价值观,腾讯一直致力于通过AI等技术手段解决人类面临的社会问题。我们相信,科技能够造福人类,人类应该善用科技,努力去解决自身发展带来的社会问题。作为国内计算机视觉人工智能领域的领先研究团队,腾讯优图实验室近日攻坚AI
这篇论文应该是3DCNN的鼻祖,对于视频数据来说,作者认为3D ConvNet非常适合于时空特征学习,这里也就是视频分析任务上。 摘要: 我们提出了一种简单而有效的时空特征学习方法,该方法使用在大规模有监督视频数据集上训练的深层三维卷积网络(3D ConvNets)。我们的发现有三个方面:1)与2D ConvNet相比,3D ConvNet更适合时空特征学习;2)具有小的3×3×3卷积核的同质结构是3D ConvNet中性能最好的结构之一;3)我们学习的特征,即C3D(卷积3D),在4个不同的基准上优于最先进的方法,并在其他2个基准上与当前最好的方法相媲美。此外,特征紧凑:在只有10维的UCF101数据集上达到了52.8%的准确率,而且由于ConvNets的快速推理,计算效率也很高。最后,它们在概念上非常简单,易于培训和使用。
在计算机视觉研究中,识别视频中人的动作是一个基础研究问题。个人视频搜索和发现、运动分析和手势交流等应用中,都会用到这项至关重要的技术。 尽管过去的几年里在图像中分类和识别物体的技术上,我们已经取得了令人振奋的突破,但识别人类的动作仍然是一个巨大的挑战。从本质上来说,视频中人的行为更难被明确定义,而物体的定义更为明确。所以构建精细动作标记的视频数据集非常困难。目前虽然有许多基准数据集,比如 UCF101、ActivityNet 和 DeepMind Kinetics,采用基于图像分类的标签方案,为数据集中的每
AI科技评论按:在计算机视觉研究中,识别视频中人的动作是一个基础研究问题。个人视频搜索和发现、运动分析和手势交流等应用中,都会用到这项至关重要的技术。尽管过去的几年里在图像中分类和识别物体的技术上,我们已经取得了令人振奋的突破,但识别人类的动作仍然是一个巨大的挑战。从本质上来说,视频中人的行为更难被明确定义,而物体的定义更为明确。所以构建精细动作标记的视频数据集非常困难。目前虽然有许多基准数据集,比如UCF101、ActivityNet和DeepMind Kinetics,采用基于图像分类的标签方案,为数据
本文盘点所有CVPR 2020 动作识别(Action Recognition )相关论文,该方向也常被称为视频分类(Video Classification )。从后面的名字可以看出该任务就是对含人体动作的视频进行分类。
之前我们公众号报道了一个项目,看这个天才老爸如何用Jetson NANO做一个带娃机器人, 文章中的爸爸叫:
手势是人类表达信息的重要途径之一,通过手势识别,我们可以获得表达者所要表达信息(例如对方竖起大拇指,表达了对方的表扬之意)。本项目将基于PaddleVideo来训练一个手势识别模型,利用模型对七种手势进行识别,分别是点击、放大、向下滑动、向上滑动、缩小、旋转以及抓取。
最近,各大视频平台实时更新着冬奥赛场上的精彩瞬间集锦,谷爱凌、武大靖、苏翊鸣等运动健儿们勇闯佳绩,可喜可贺!在为中国体育的强大实力感动、欣喜的同时,我们也关注到了体育竞技背后的一些AI产业应用,比如通过动作识别技术辅助运动员日常训练和比赛打分,利用智能分类与自动化剪辑等AI技术大幅降低体育视频内容处理的人力和时间成本等。
在大数据可视化领域,国内的发展也已经逐渐走向成熟,每年都有许多可视分析系统不断涌现。近年,沉浸式大数据可视化得到了发展,浙江大学的探索了如图 1所示的无缝结合羽毛球比赛数据绘制的2D和3D可视化视图的问题,Chu等人(2022)探索了结合高度来凸显羽毛球数据中多个战术之间存在的差异性问题,如图 2所示。由此可以看出,沉浸式大数据可视化对数据分析和展示问题提出了有效的解决方法。
PhotoMaker 是由腾讯与南开大学联合开发的 AI 图像生成工具,不仅能够捕捉人物的面部特征,还能根据喜好生成逼真的人物图像,将个性化定制推向了新高度。无论是想要一个全新的社交媒体头像,还是为游戏设计独特的角色都能满足。
PoseC3D是一种基于 3D-CNN 的骨骼行为识别框架,同时具备良好的识别精度与效率,在包含 FineGYM, NTURGB+D, Kinetics-skeleton 等多个骨骼行为数据集上达到了SOTA。不同于传统的基于人体 3 维骨架的GCN方法,PoseC3D 仅使用 2 维人体骨架热图堆叠作为输入,就能达到更好的识别效果。
在越发重视科技自主创新,新产业国际竞争逐渐激烈的时代,我们更加坚信,科研道路没有捷径可走,只有脚踏实地,一步一个脚印,不断积累方能实现创新。 7年来,犀牛鸟基金为全球范围内的青年学者提供了解产业真实问题、接触业务实际需求的机会,并通过连接青年学者与企业研发团队,开展基础扎实的产学科研合作,推动双方学术视野的拓展及原创应用成果的落地,为科技自主研发的探索和创新储备能量。 2018年CCF-腾讯犀牛鸟基金合作进入收官阶段,小编将分四期介绍全部25个科研基金项目,本期将继续重点介绍《计算机视觉及模式识别》研究
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周的重要论文包括谷歌联合哈佛大学 Lichtman 实验室推出的「H01」数据集;中国科学技术大学郭光灿院士团队李传锋、周宗权研究组利用固态量子存储器和外置纠缠光源,首次实现两个吸收型量子存储器之间的可预报量子纠缠,演示了多模式量子中继等研究。 目录: 3D AffordanceNet: A Benchmark for Visual Object Affordance Understanding ACTION-Ne
多模交互融合是普适计算和自然交互中最重要的组成部分。笔者认为,实现完整的多模交互融合需要分成四个阶段,分别为独立工作阶段、初步融合阶段、语义理解阶段和任务自适应阶段。
当我们设计师输出了精美的设计稿,然后附带了一个流畅的手势动画,交付给开发的时候,也期待着开发大佬搞出和自己预期一样体验流畅。但是等到实际体验的时候,却发现有一种说不出的闹心。 “这个感觉不好按...” “划起来咋这么费劲呢?” “怎么感觉动画怪怪的。” Chapter 1 我们与流畅的距离 当你正准备和开发一通友好探讨的时候,这个时候开发向你发起了一系列灵魂拷问: “你这个左滑的手势,划多少才算触发?划多快才算触发?如果划了一半划回去算不算触发?如果我先点击后滑动算不算触发?松手之后的动画是多快的速度
腾讯优图实验室提出一种新的视频动作检测算法DBG已经开源,该算法在全球两大权威视频动作数据集ActivityNet-1.3和THUMOS14上均取得了第一。 任务介绍 视频动作检测技术是精彩视频集锦、视频字幕生成、动作识别等任务的基础,随着互联网的飞速发展,在产业界中得到越来越广泛地应用。视频动作检测算法需要在给出视频中找到动作发生的位置(起点和终点)和置信度。如下图所示,我们需要在一段体育视频场景中,找到“跳高”这个动作发生的起点时刻和终点时刻。 算法设计 与现有的视频动作检测算法相比,DBG算法有
酷炫好玩的腾讯T-DAY首个主题展馆来了! 这个坐落于西安的腾讯定制版T-DAY“诗意长安”现已开张!大量西安人正在涌向现场,一大波朋友圈美照正在陆续上线。 视频来源:迈科VIEW 腾讯T-DAY(腾讯用户开放日)是腾讯年度科技互动体验大展,它向来以酷炫有趣的方式让大家亲身体验科技的魅力,已在深圳、广州、重庆等地多次引爆参观热潮。 这次T-DAY来到古都西安,将腾讯的前沿技术和长安古韵进行了一次化学反应,打造了一座完全沉浸式的诗意长安。 T-DAY诗意长安一共设置了8大展区,好看好玩儿的互动展项足
近期,机器人技术和自动驾驶系统利用实时的深度传感器,如激光雷达(LiDARs),来实现三维感知。激光雷达产生的点云可以提供丰富的几何信息,并帮助机器理解环境感知。早期方法集中于从静态点云中解析现实世界,忽略了时间变化。为了更好地理解时间变化的世界,近期研究更专注于在4D空间理解点云视频,包括三个空间维度和一个时间维度。已有几项工作在4D点云建模方面取得进展。这些方法要么旨在设计改进的网络来建模4D点云,要么采用自监督方法来提高4D点云表示的效率。
陶建华, 巫英才, 喻纯, 翁冬冬, 李冠君, 韩腾, 王运涛, 刘斌. 2022. 多模态人机交互综述. 中国图象图形学报, 27(6): 1956-1987
OpenCV的全称是Open Source Computer Vision Library,是一个跨平台的计算机视觉库。OpenCV是由英特尔公司发起并参与开发,以BSD许可证授权发行,可以在商业和研究领域中免费使用。OpenCV可用于开发实时的图像处理、计算机视觉以及模式识别程序。该程序库也可以使用英特尔公司的IPP进行加速处理。
近日,腾讯优图实验室提出一种新的视频动作检测算法DBG并开源,这是继今年4月人脸检测算法DSFD开源后,优图的又一次开源动作。 目前,DBG算法在全球两大权威视频动作数据集ActivityNet-1.3和THUMOS14上均取得了第一。相关论文《Fast Learning of Temporal Action Proposal via Dense Boundary Generator》已被国际人工智能顶级会议AAAI2020接收,与此同时,算法代码已在优图研究官方Github上开源。 Github开源
机器之心报道 编辑:杜伟、陈萍 有了这个项目,大家终于可以亲身体验一把人体姿态估计成像的神奇之处了! 在 CV 领域,人体姿态估计(human pose estimation)利用目标检测模型和姿态估计模型来识别出人体各个关节的位置和网格,并已在动作识别、动画、游戏、运动捕捉系统中有着广泛的应用。 但遗憾的是,人体姿态估计常常见诸于学术研究中,普通读者很难亲身体验它的神奇成像效果。 近日,机器之心在 GitHub 上发现了一个有趣的项目「air-drawing」,作者创建了一个利用深度学习的工具,使你在配有
目前,比奇创新正在进行Pre A轮的融资,预计到7月结束。 相信很多人是听过心电、脑电的,但是,你听说过肌电吗? 比奇创新创始人&CEO李玮琛告诉你,肌电不仅是生物电的一种,我们还能利用它感知人体行为
2 月 5 日晚上的首都体育馆,在短道速滑混合团体 2000 米接力决赛中,中国队击败对手,夺得中国首金。
本文将介绍一种用于行为识别的时间交错网络(TIN temporal interlacing network)。该网络想较当前SOTA的基础上,在实现6倍加速的同时,还多个评测数据集上获得了4%的提升。同时该方法作为主力方法,在2019年的ICCV Multi Moments In Time challenge中取得了冠军(Leaderboard)。我们还release了一个基于PyTorch的开源动作识别代码库X-Temporal,希望可以进一步推动动作识别社区的发展。
通常情况下,我们通过观看来知道别人的动作。从视觉数据中自动进行动作识别的过程已成为计算机视觉界众多研究的主题。但是如果太暗,或者人被遮挡或在墙壁后面怎么办?
北京冬奥会即将开幕,全民健身如火如荼。2020年夏季奥运会有46项体育项目,2022年冬奥会有15项体育项目,丰富的项目涉及的姿势标准也各有区别。运动员如何科学地进行体育锻炼、准确矫正健身动作?教练员如何借助技术提供更智能化的训练和战术分析?体育视频行业如何高效定位精彩片段,分享更多精彩运动瞬间?“AI+体育”正在交出答卷。
原文来源:Lemberg Solutions Ltd 作者:Zahra Mahoor、Jack Felag、 Josh Bongard 编译:嗯~阿童木呀、KABUDA 现如今,与智能手机进行交互的方式有很多种:触摸屏、硬件按钮、指纹传感器、视频摄像头(如人脸识别)、方向键(D-PAD)、手持设备控制等等。但是我们该如何使用动作识别功能呢? 我们可以举一个例子来说明这个问题,比如当你持手机将其快速移动到左侧或右侧时,可以非常精确地显示出想要切换到播放列表中下一首或上一首歌曲的意图;或者,你可以将手机快
Rokid于近日推出首款家庭机器人。该机器人拥有声纹识别技术和远距离声音识别功能,能够辨别家庭成员。同时,产品所具备的深度学习功能,能够帮助Rokid家庭机器人与用户之间进行良好的互动体验,了解家庭成
在刚刚过去的2023年,人工智能无疑是最耀眼的“科技明星”,特别是AI大模型持续迭代升级,加速落地产业场景,成为发展新质生产力的主要阵地。
动作识别已成为研究界的主要关注领域,因为许多应用程序都可以从改进的建模中受益,例如视频检索、视频字幕、视频问答等。基于 Transformer 的方法最近展示了最先进的技术 在多个基准测试中的表现。 虽然与 ConvNet 相比,Transformer 模型需要数据来学习更好的视觉先验,但动作识别数据集的规模相对较小。 大型 Transformer 模型通常首先在图像数据集上进行训练,然后在目标动作识别数据集上进行微调。
导语 看到“人工智能”这几个字,可能有的人立马会想到围棋、神经网络、深度学习等名词,也有的人会想到大学里的人脸识别、立体视觉建模等研究项目,还有的人会想到终结者,外太空等高大上的内容。 但可能98%的人都会有这样的疑问: 这些东西研究了到底对我有什么实际用途,人工智能会不会是个泡沫? 本文就来尝试回答上述问题,介绍当前人工智能的实际应用领域,也给对AI感兴趣,以及准备接触AI的读者,不管是学习、工作还是创业,提供一些参考。 本文来源:“VR 新观察”公众号 作者:何欢 腾讯互娱研发部 高级工程师 基础问题
12月11日,2021年腾讯犀牛鸟精英科研人才培养计划正式对外发布。计划截止申报时间为2021年1月28日24:00。 本年度精英科研人才计划将延续人工智能领域顶尖科研人才培养,发布包含机器人、AI医疗、量子计算、智慧城市等12个前沿热议方向,71项研究课题。入选学生将由校企导师联合制定专属培养计划,并获得3个月以上到访腾讯开展科研访问的机会,基于真实产业问题及海量数据,验证学术理论、加速成果应用转化、开阔研究视野。同时项目组将为学生搭建线上和线下学习、交流平台,帮助学生挖掘更多潜能。 本期小编整理了该计
工厂人员作业行为动作识别检测算法通过SVM+R-CNN深度学习算法框架模型,工厂人员作业行为动作识别检测算法实时识别并分析现场人员操作动作行为是否符合SOP安全规范流程作业标准,如果不符合则立即抓拍告警提醒。人员作业行为动作识别检测算法首先基于R-CNN进行人体检测,之后并对其进行追踪,并以相同的帧率生成MHI。之后,将所有边界框映射到由相同RGB图像序列生成的相应MHI,并在边界框中提取每个子MHI的HOG特征,最后使用SVM进行分类。
编者按:近日,计算机视觉顶会 CVPR 2020 接收论文结果揭晓,从 6656 篇有效投稿中录取了 1470 篇论文,录取率约为 22%。中科院VIPL实验室共七篇论文录取,内容涉及弱监督语义分割、活体检测、手势识别、视觉问答、行人搜索、无监督领域自适应方法等方面,本文将予以详细介绍。
领取专属 10元无门槛券
手把手带您无忧上云