首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

宇宙智能演化将进入后生物时代,人类不再是衡量智能的标准

【新智元导读】本文探讨了智能演化以及未来超级智能及其认知、形态的可能,以及超级智能 AI 与人类的关系。作者认为,从生物智能到“后生物”智能可能是宇宙中的一种基本过程。没有意识也能发展出超级智能,认为非要拥有“意识”才产生智能,自然就会用消极的观点看待智能的发展。超级智能可能由生物材料构成,但不一定拥有意识,因此也就可能用完全不同的方式判断人类的价值,所以不能排除超级智能 AI 威胁人类的可能。而对于人类来说,研发不具有意识的 AI 才是合理的选择——有意识的机器在人类通过意识去判断的标准下,会带来一系列问

010

【朗读者柯洁】把哈利·波特献给未来的对手—AlphaGo

最近火热的央视节目《朗读者》可谓电视节目中的一股清流,汇聚了今年很多“催泪大戏”,麦家、徐静蕾、倪萍等人纷纷登台朗读……舒缓的背景音乐,深情地朗读、动人的故事,节目似乎总有一种力量,让人泪流满面。 名家名篇、文化故事、人生感悟从来都是《朗读者》的标配,而这位少年一上台,却让《朗读者》画风突变,他为我们深情诵读了一段《哈利·波特与死亡圣器》。 视频来源:央视《朗读者》 喜欢柯洁的朗读,文化的温度与科技的质感,伴随他温润的朗读声流淌心间,节目中,最可爱的一点是,当他朗读完毕时,董卿调侃说:我觉得最后“伏地魔

012

GYL | 杨静对话人工智能领袖:抗衡国际巨头要看中小企业?

【新智元导读】2016全球青年大会(GYL)“人工智能的未来”平行论坛7月31日在北京空管科技交流中心举行。本次论坛由新智元创始人杨静主持,出门问问CEO李志飞、碳云智能科技创始人王俊、驭势科技创始人兼CEO、前英特尔中国研究院院长吴甘沙、搜狗公司CTO杨洪涛担任对话嘉宾。杨洪涛表达了对人工智能的未来开源趋势的肯定,他坚信智能医疗等应用将成为产业刚需和创业热点。李志飞认为,随着深度学习平台的开源,创业者也可以很方便地运用到最先进的算法和大数据,这对各领域人工智能应用的垂直拓展提供了更多机会。吴甘沙也表达了类

07

对比欧盟,中国的《人工智能法案》应有什么底座?

作者:吴怀宇 2023年6月14日,欧洲议会全体会议表决通过了《人工智能法案》授权草案,标志着该法案将进入欧盟立法严格监管人工智能技术应用的最终谈判阶段。欧洲议会此前曾发出声明,这部提案如正式获得批准,将成为全世界首部有关人工智能的法规。欧洲议会于当天还投票决定了禁止实时远程生物识别技术,例如不能在公共场合进行实时人脸识别,并对ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以确保人工智能的研发和应用符合欧盟权利和价值观。 该法案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。法案将人工智能风险分为四级,“部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的人工智能系统”因其会对人类安全造成不可接受的风险而被划入严格禁止之列。对于违规操作者,法案设定了最高3000万欧元或全球年营业额6%的罚款。 如何既“管控风险”又“促进创新”?该法案的建议是通过引进监管沙盒机制来实现,即:在人工智能系统入市或投入使用前,对人工智能系统进行开发、测试和验证以降低风险。法案还要求人工智能应用必须遵循透明与可追溯性原则,即能够解释清楚其决策的原因和依据,同时也要记录所有的交互数据和结果,通过对运行过程的透明度和完整性的监管,来保障人工智能应用的可靠性和安全性。 欧盟试图通过建立一个统一的人工智能法律监管框架,来维护其在数字主权和科技领域的领导地位,并通过这样一部综合性立法抢占全球人工智能监管先机。但统一的法律框架的局限性在于:它采用的是横向立法(试图把所有人工智能都纳入监管范围),如果不能针对特定人工智能应用领域(制定具体的法律规范),在执行层面将会面临大量的解释问题(实际的执行效果可能也会“大打折扣”)。此外,“管控风险”和“促进创新”实际上是一个动态平衡问题。 为了给人工智能立法,国外学术界先后出现了蒙特利尔宣言、多伦多宣言等多个人工智能宣言,欧盟《人工智能法案》正是在这些宣言的基础上发展而来。而因为国情的差异,中国当然不可能“在别家的地基上盖自家的房子”。令人欣慰的是,中国学者在这方面的研究成果并不落后,例如,中国科学院吴怀宇博士在北京发起了人类历史上第一个开放协议“人工智能宣言”--OpenDAI(Open Declaration of AI,官方网站http://OpenDAI.org),至今已不断迭代更新了6个版本。 吴怀宇博士认为,“风险”和“创新”之间的界限从来就不是“泾渭分明”的,东西方两大文明体的普世价值观也是“和而不同”,因此对于伦理的标准、隐私的边界等具象问题必须“求同存异”, 以保护绝大多数人类命运共同体的权利和幸福。例如,以伦理标准为例,同样将人类视为AI之父,西方是“弑父情结”(源于古希腊神话,如俄狄浦斯,有些学者认为这种反叛基因是颠覆性创新的根源),所以认为AI最终会弑人,由此产生的担忧导致了欧盟严苛的《人工智能法案》出台(同时,也不难理解特斯拉首席执行官马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克等数千名西方科技界人士联署签名,要求现在立即停止训练比GPT-4还要强大的AI系统至少六个月);而东方是“事父情结”,所以AI必须为人类服务,人为AI纲,且人与AI须和谐相处。

02

刘鹏:保大还是保小?无人汽车也将面临这样的道德窘境

欢迎转载,须署名并注明来自“刘鹏看未来”公众号,并保留本句。 某天,无人车在高速行驶过程中忽遇突发状况,不得不急转弯,左转弯大概率撞死一个违反交规的摩托车骑手,右转弯大概率会撞坏一辆兰博基尼,它该如何抉择? 📷 左转是一条人命和有限的赔偿,右转则是天价的赔偿款。 📷 相比于人类司机,自动驾驶系统的一大优势在于它没有情感,只有冰冷的预设逻辑。面对即将到来的事故,无人车不会产生恐惧,只会忠实地运行程序。这意味着类似这种极端情况下如何抉择,应当是开发者预先写好的。 📷 那么开发者应当遵从怎样的准则来编写程序,是以

010
领券