11月26日,由英国国家网络安全中心(NCSC)、美国网络安全与基础设施安全局(CISA)联合美国国家安全局、美国联邦调查局以及澳大利亚、加拿大、新西兰、德国、法国、日本等10余个国家的网络和/或信息安全部门发布了“安全的人工智能系统开发指南”(Guidelines for secure AI system development [1])。亚马逊、微软、IBM、google等10余家机构参与了指南的制定。该指南旨在为使用人工智能(AI)的任何系统的提供商提供指导原则,帮助提供商构建能够按预期工作、在需要时可用、在不泄露敏感数据的前提下工作的人工智能系统。本文对其主要内容进行解读,以供普通读者阅读了解。人工智能专家或人工智能系统开发人员可根据需要,参阅原文[1]以获取更详细、全面的信息。此外,指南的末尾注记中列出的资料可作为延伸阅读材料,感兴趣的读者可以自行参阅。
2023年将是新兴行业和岗位发展的关键之年。随着科技的不断进步和全球经济的快速变化,新兴行业将成为就业市场的重要增长点。本文将回顾2023年的就业形势,重点关注新兴行业和岗位的发展趋势,为求职者提供有关未来就业方向的参考。
当代人工智能技术在给人类带来多方面福利的同时,面临黑箱、鲁棒性和可解释性等问题,发展值得信赖的可解释人工智能已成为人工智能领域的核心关切。论文在论证可解释人工智能为什么重要的基础上,对可解释人工智能的内涵进行界定,进而提出发展可解释人工智能需遵循的一些原则,它们也可看作可解释人工智能需达致的目标和要求。论文最后提出了两点关于实现可解释人工智能途径的构想。
On the Measure of Intelligence https://arxiv.org/abs/1911.01547
美国时间2017年12月12日上午9点,电气电子工程师协会(IEEE)于全球发布了第2版的“人工智能设计的伦理准则”白皮书("Ethically Aligned Design" V2)。北京时间12月12日晚上10点,IEEE官方概要译文也同步在中国发布。IEEE白皮书概要的官方译文如下: 《人工智能设计的伦理准则》(第2版) 概要 简介 随着自主和智能系统的应用和影响无处不在,我们需要建立社会与政策方面的指南,从而确保这些系统以人为本,并服务于人类价值和伦理准则。为了能够以积极的、非教条的方式推动自主
机器之心报道 编辑:shanshan 又一位技术大牛出来创业了! 9 月 13 日,卡内基梅隆大学副教授 Graham Neubig 在 Twitter 上宣布,与 @stefan_fee 和 @odashi_en 一起成立了 Inspired Cognition 公司! 「我们的目标是通过工具和专业知识,让构建 AI 系统(尤其是 NLP)变得更容易、更高效。」 1、致力于优化 AI 系统开发 人工智能 (AI) 正在成为与软件一样推动世界进步的力量。然而,与传统的软件工程不同,人工智能工程引入了各种
近日,退出中国市场长达7年的谷歌正在尝试通过AI的机遇重回中国,这次的身份不再是搜索引擎,而是以AI的身份回归,尤其是其中的人工智能系统开发框架TensorFlow。在刚刚举行的开发者大会上,谷歌正式公布了TensorFlow 的官方微信公众号,在此之前, TensorFlow 的中文网站也已经发布。不过,外媒对于谷歌此举并不看好,彭博社就发文指出,谷歌希望借助TensorFlow重返中国市场的尝试不会有什么收获。 TensorFlow是谷歌推出的开源人工智能开发工具,自2015年推出以来,受到了全球的
《人工智能伦理建议书》明确了规范人工智能技术的10大原则和11个行动领域,是迄今为止全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,并将为进一步形成人工智能有关的国际标准、国际法等提供强有力的参考。
【新智元导读】 谷歌再次尝试返回中国,这次依靠的不是搜索,而是人工智能系统开发框架TensorFlow。但是有消息人士称,百度的PaddlePaddle今年在开发者中的受欢迎程度已经超过TensorFlow。本文列举了谷歌最近一段时间以来在重返中国上的一些努力:投资、人才招募等等,也分析了谷歌在中国面临的竞争对手。谷歌董事长Eric Schmidt 近日在公开场合警告说,如果美国政府不行动,中国将会在人工智能上超越美国。 彭博(Bloomberg)报道,在退出中国市场7年后,谷歌再次试图重返中国,这次依靠的
Defining intelligence: Bridging the gap between human and artificial perspectives
对于人工智能这个概念,想必很多人都是从科幻小说或电影里获得的。的确,人工智能目前还没有彻底融入到我们的现实生活之中,但是如果你单纯从科幻电影和小说里了解机器人和人工智能,可能会有很大的误解,因为里面把它们描写的都非常可怕。 在此,不妨听听业界一些专家的见解,或许能帮你解开这一神秘领域的谜团: 斯图尔特·罗素(Stuart Russell,)表示,没人在开发有意识的人工智能。 (加州大学伯克利分校计算机科学家) 人们对人工智能概念存在一定误解,他们普遍觉得人工智能的方向就是一种有意识的机器,大家好像觉得,如
Designing explainable artificial intelligence with active inference: A framework for transparent introspection and decision-making https://arxiv.org/abs/2306.04025
英国政府网站公布由南安普敦大学计算机科学教授戴姆·文迪·霍尔(Dame Wendy Hall)和英国技术公司BenevolentTech首席执行官杰罗姆·佩森提(Jérôme Pesenti)共同完成的独立评审报告《英国发展人工智能产业》。该报告系2017年3月英国“数字化战略”的一部分,旨在为英国商务能源与产业战略部(BEIS)和文化传媒体育部(DCMS)提供政策建议,推动英国人工智能新兴领域和领先技术的发展与应用。 报告指出,近年来人工智能的迅猛发展源于三项关键要素:新的、更大规模的数据集;越来越多的特
李杉 唐旭 编译整理 量子位 出品 | 公众号 QbitAI 病友们都在看杂志、刷Instagram的时候,Shari Forrest打开了手机上的一个app,开始训练一个将要用在无人车上的人工智能。 54岁的Forrest并非工程师或程序员,她靠撰写教材来谋生。尽管如此,在平时有空时,Forrest依然会在Mighty AI上登录,然后把自己的时间花在给行人、垃圾桶,以及任何其他你不希望无人车撞上的东西做标记上。 Mighty AI是一家人工智能众包服务平台。在这里,Forrest的“同事”们在全球范围
54岁的Forrest并非工程师或程序员,她靠撰写教材来谋生。尽管如此,在平时有空时,Forrest依然会在Mighty AI上登录,然后把自己的时间花在给行人、垃圾桶,以及任何其他你不希望无人车撞上的东西做标记上。
自AlphaGO与李世石一战之后,“人工智能”概念再一次的受到了人们的关注,除了谷歌、阿里等国内外巨头,今年更是出现了不少人工智能初创企业。 在人们热火朝天的研究人工智能之时,随着相关技术的逐步完善,人工智能应用也渐渐走进大众生活,衍生出不少新兴产业,像智能家居、智能医疗、智能出行等等。究其本质,人工智能技术、产品之所以能够走进大众生活,或是得到大众的认可,其最关键的因素还是在于给人们的生活带来了便捷性,提高了做事的效率。不过,作为我们步入社会后每天都会接触的场景,办公领域似乎只有极少部分的工作被人工智能所
人工智能逐渐开始消失于无形中,可以是由外到内,反过来由内到外也正经历这一过程。人工智能技术的影响和作用对于人类来说越来越难以理解,难以感知。即便是专家们也不能完全理解一套人工智能系统是如何运作的。 实
人工智能(AI)的发展带来了巨大的变革,但也引发了一系列的伦理和社会问题。在人工智能应用的过程中,我们需要思考如何确保其责任、公平性和可解释性,以保障社会的发展和稳定。本文将深入探讨这些问题,并提出解决方案。
美国白宫发布了《国家人工智能研究与发展战略计划》。该计划为联邦政府资助的人工智能研究确立了一系列目标。这些研究不仅包括政府进行的研究,还包括由联邦政府资助的、在政府之外进行的研究,例如学术研究。研究的最终目标是创造人工智能的新知识和新技术,为社会带来多种好处,并降低负面影响。要实现这一目标,该计划为联邦政府资助的人工智能研究确定了如下重点任务: 战略1:对人工智能研究进行长期投入 优先资助那些能推动发现和了解、保持美国在人工智能领域世界领先地位的下一代人工智能,包括:改进关于知识发现的数据方法;提高人工智能
美国计算机社区联盟(CCC)发布《人工智能的进步需要所有计算机科学的共同进步》白皮书,指出人工智能与更广泛的计算机科学之间相互影响的六大潜力领域的研发机遇,以支持人工智能的进一步发展。 1 计算机系统和硬件 开发人工智能系统中采用的核心计算程序的加速方法,例如用于训练和使用卷积神经网络执行感知任务分类的方法;开发并行性、智能缓存、使用FPGA等专用硬件等新方法,降低人工智能应用的计算成本,满足其需求和鲁棒性。 2 理论计算机科学 开发算法分析领域中的工具和技术,包括组合学、计算复杂性理论、可计算性研究。 3
作者: Matthew U. Scherer 译者: 曹建峰 腾讯研究院法律研究中心研究员 李金磊 腾讯研究院法律研究中心助理研究员 来源: Harvard journal of law and technology 引言 智能机器时代,人工智能正在全方位侵入我们的生活。人工智能(artificial intelligence,简称AI)正在替代那些以前只能由具有专业知识或者获得政府颁发的许可证的人员才能完成的任务。美国一些州以
本文是 futureoflife 公开信,原文地址 https://futureoflife.org/open-letter/pause-giant-ai-experiments/ 目前已经有 1127 名 AI 学者参与签署。
在人工智能领域尤是如此,随着AI应用的不断落地,人们越来越意识到人工智能系统所带来的风险,并认识到现有法律与业界、学界规范仍不足以保证人工 智能的可靠研发。
机器之心原创 作者:Joni 编译参与:马亚雄、黄小天 2 月 16 日,星期四,我参加了在东京举办的第五届意识俱乐部 (consciousness club)。这是一个由 Araya 脑成像公司 (Araya Brain Imaging) 的 CEO Ryota Kanai 博士组织的每周活动,这次的演讲嘉宾是 Youichiro Miyake。他是一个因为在游戏人工智能(Game AI)方面的工作而闻名的设计师,曾提出在游戏人工智能和其他先进系统中创造人工意识的初始概念。 以下是 Youichiro
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注!
在网络安全专家能够发现并修复计算机软件的“零日”漏洞之前,黑客可对这些漏洞利用的平均时长长达312天。美国国防部高级研究计划局(DARPA)正在致力于开发新的人工智能技术,希望能够在数秒或数分钟内发现并修复此类漏洞。 在2016年夏季由DARPA主办的Cyber Grand挑战赛中成功入围决赛的七支团队将展示各自的人工智能系统,这些系统可自动扫描对手的网络服务器是否存在漏洞利用程序,并通过主动发现和修复软件漏洞来保护自己的服务器。前三名获胜团队将直接获得200万美元、100万美元、75万美元的奖励。但从长远
2015年10月,美国人工智能发展联盟(Association for theAdvancement of Artificial Intelligence,AAAI)主席Tom Dietterich和副主席Eric Horvitz在美国计算机学会通讯(CACM)刊发联合文章,对人工智能的崛起阐述了自己的观点。 他们讨论了近年来公众和媒体对人工智能日益增加的焦虑,分析了人工智能的进展并慎重地阐述了各种风险,强调了与人工智能和其他计算机科学相关的研究,包括人机交互、验证和安全性,并呼吁更多的投资,以更好地了解和
导读:人工智能已经正式走入主流。美国市场研究公司Gartner已经连续第二年将人工智能列为第一大战略性技术。 谷歌 ( 微博 ) 、 IBM 、Salesforce和苹果等公司对私有人工智能公司的收购也在不断升温——2016年就有40笔与人工智能相关的收购交易。我们的研究也发现,62%的大企业将在2018年前使用人工智能技术。本文将带来5个对于2017年人工智能的预测。 1、加速向对话界面转型 许多具有创新精神的科技巨头最近采取的措施表明,今后一年,通过语音与科技展开互动将成为常态。但对话界面真的那么重要
编者按:本文编译自eetimes,作者Semir Haddad是MicroEJ的首席产品官。
---- 新智元报道 编辑:Britta 【新智元导读】Anthropic对于人工智能发展的安全性研究以及推论表明,人工智能系统的计算量将呈指数型增长,预计未来5年训练AI模型的计算量将增加1000倍。 自从发现缩放定律以来,人们认为人工智能的发展会像坐火箭一样迅速。 2019年的时候,多模态、逻辑推理、学习速度、跨任务转移学习和长期记忆还是会有减缓或停止人工智能进展的 「墙」。在此后的几年里,多模态和逻辑推理的「墙」都已经倒下了。 鉴于此,大多数人已经越来越相信,人工智能的快速进展将继续下去,而
如果说今天的人工智能是互联网,乃至整个信息技术领域的皇冠,那么安全无疑是皇冠的基座。就像任何新技术一样,人工智能的安全与否很大程度上影响着其未来的发展和应用。符合什么标准的人工智能才算是安全的?或者人工智能的安全主要包括哪些方面?本文拟通过对美国和英国人工智能发展战略的简要分析,介绍当下人工智能安全问题的几个主要维度。 美、英两国人工智能发展战略简介 美 国 2016年10月,美国相继发布了两份与人工智能发展相关的战略文件,《美国国家人工智能研究和发展战略计划》(The National Artifi
现阶段,人工智能的发展速度已经超出了人们最初的预想,用 AI 工具写文章、编代码、生成图片、甚至是生成一段电影级别的视频…… 这些在以前看似非常艰难的任务,现在只需用户输入一句提示就可以了。
下面这些问题,可能在我们不久的将来(一年或者两年?)就会出现在我们身边: 1.目前人工智能正逐渐大规模地应用于医疗行业,许多疾病的诊断已经可以通过机器学习的方法来完成。但是我们设想,如果人工智能诊断出现医疗误判,最终导致医疗事故,那么谁将来承担事故责任呢?是提供技术的公司,还是医院,或者医生个人? 2.自动驾驶正逐渐上路,据各方估计在2020年之前自动驾驶汽车将进入消费市场。不可避免的,自动驾驶汽车在不熟悉的环境中可能会导致交通事故(例如2016年的特斯拉自动驾驶汽车事故),那么在这种情况下谁将承担法律
据国外媒体报道,日本国立情报学研究所(NII)的研究人员宣布,放弃让人工智能系统“Torobo-kun”参加东京大学入学考试的计划。作为NII开发的人工智能机器人,Torobo-kun的终极目标是通过
TLDR:最后一英里的问题是实现人工智能承诺价值的最后障碍。要获得人工智能系统的好处,需要的不仅仅是可靠的商业案例、执行良好的人工智能实现和强大的技术堆栈。它通常需要人工智能和人们的合作,以提供正确的体验给客户。但是,企业通常很难做好这一点。
---- 新智元报道 来源:学术头条 编辑:好困 【新智元导读】人工智能系统正在成为(人类)日常生活的一部分。关键问题是要确保这些机器与人类的意图和价值观保持一致。——Mira Murati,OpenAI CTO 近些天,对 OpenAI 来说,可谓是一个「多事之秋」。 由于 ChatGPT 及 GPT-4 可能引发的安全问题,OpenAI 受到了来自外界的一些指责和阻挠: 马斯克等上千人联名呼吁 「所有人工智能实验室应立即暂停训练比 GPT-4 更强大的大模型,这一时间至少为 6 个月」; 意
作者|任杰,邱猛,Aileen “一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。” 全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。 宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保
我们对人工智能的第一印象基本来自科幻电影,那些喜欢电影《终结者》的粉丝也许坚信未来人工智能将与人对抗,是一种人类已知威胁。这并不是毫无根据随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会展示出更多我们无法预料到的行为。 显然,人工智能背后可以牵扯出很多伦理问题,并亟待有相应的法律来完善这个行业。法律哲学家John Donaher表示,如果能够仔细思考这些问题的话,说不定会有助于减少未来可能存在的风险。 一、人工智能需要规章制度吗? 如果从监管的角度来看人工智能,那么你会发现,严
各行各业的领导者,无论是在商业、教育还是政府领域,都应该关注当前正在发生的变革,并思考如何最好地使他们的组织适应未来。
2018年11月15日,美国国家科学基金会(NSF)发布致同事信,表示NSF计算机与信息科学工程部(CISE)和社会、行为与经济科学部(SBE)将与人工智能合作伙伴关系(PAI)合作,发起针对人工智能与社会探索性研究的早期概念资助(EAGERs),旨在理解人工智能技术方面的社会挑战,并通过科学研究来克服这些挑战。
数据猿报道,俄罗斯总统弗拉基米尔·普京早在2017年时就宣称,领导人工智能发展的国家将“成为世界的统治者”。这种观点显然在全球全面铺开,因为截至目前,已经有十几个国家宣布了本国的人工智能计划。2017年,中国发布《新一代人工智能发展规划》,制订了“到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础”的目标。2019年早些时候,美国白宫发布了《美国人工智能计划》,美国国防部推出了人工智能战略。
人工智能(AI)和物联网(IoT)的加速融合引发了人们对物联网人工智能(AIoT)的兴趣。
陈桦 编译自 DeepMind Blog 量子位 报道 | 公众号 QbitAI 人类,可以在行动之前预想到后果,这是我们认知能力中一种强大的工具。 举例来说,当我们将玻璃杯放在桌子边缘时,我们很可能
蔡雄山 腾讯研究院法律研究中心副主任、首席研究员 曹建峰 腾讯研究院法律研究中心研究员 巴洁如 腾讯研究院法律研究中心高级研究员 孙 那 腾讯研究院法律研究中心研究员 李金磊 腾讯研究院法律研究中心助理研究员 不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。 美国、英国等开始重视AI伦理问题。今
“ 微软公司发表新书《未来计算:人工智能及其社会角色》。在序言中,微软回顾了过去20多年来,科技对生活的改变,并思考了未来20年,科技即将对生活带来的影响。主要观点如下: ” 在微软,我们对人工智能为所有人创造更美好未来的机会感到乐观。为了确保我们实现这一未来,各国政府、企业、学术界和民间社会必须共同努力,创建值得信赖的人工智能系统,并使人们能够为不断变化的世界做好准备,在这个世界上,我们需要的技能将不断变化。这将需要以“以人为本”的方式发展人工智能,并确保在我们共同前进时,能够广泛和公平地获得其利益。
作者 | 量子位 李林 今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。 这个原则在今年的Asilomar大会上达成。细节如下: 研究问题 1)研究目标 AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。 2)研究资助 对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研
本文探讨了人工智能在商业和日常生活中的影响,以及人们对其产生的误解。文章指出,人工智能并非如人们所想的那样强大和无处不在,事实上,它仍然依赖于人类的指导和监督。虽然基于人工智能的系统可以处理大量数据并快速学习,但它们仍然受到设计它们的价值观和假设的限制。因此,人们需要对人工智能技术有一个现实的认识,并探索其在商业和日常生活中的应用,而不是被流行文化中的错误预测所误导。
欢迎来到《ChatGPT:好的、坏的和丑陋的》。在本书中,我们踏上了探索 ChatGPT 多面世界的旅程,这是由 OpenAI 开发的先进自然语言处理模型。随着 ChatGPT 和类似的人工智能技术不断发展并影响我们生活的各个方面,了解它们的潜力、局限性和道德影响至关重要。本书旨在全面探讨 ChatGPT 的好的、坏的和丑陋的方面,揭示其革命性进展、潜在陷阱以及它所带来的复杂挑战。
整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 毋庸置疑,ChatGPT、GPT-4 引领了 AI 新时代的到来,但这种让很多环节都可以实现自动化流程的工具也让人颇为恐慌。 据路透社报道,包括图灵奖得主 Yoshua Bengio、伯克利计算机科学教授 Stuart Russell、特斯拉 CEO 埃隆·马斯克、苹果联合创始人 Steve Wozniak 等在内的数千名对人工智能领域关注的学者、企业家、教授最新发起了一封公开信,强烈呼吁:暂停训练比 GPT-4 更强大的系统,期限为六个月,理
领取专属 10元无门槛券
手把手带您无忧上云