首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI预测与伦理

AI大模型的本质其实就是预测学,基于已有的经验,去分析未知的情况,然后得出结论。

我们人类社会,从古进化至今,之所以文明能够延续,都是因为我们准确预测了有利的事物。

比如食物,哪些食物可以补充能量,哪些生物有毒,都是我们通过漫长的经验总结出来的,也就形成了各行业的预测学。

木头能够建造房屋,石头打地基来建造房屋,要建多少层楼需要打多深地基,都是预测学的效果。

冬天要穿羽绒服才能抵御严寒,选择什么样的对象可以带来幸福的一生。

这些都是基于大脑超算模型的预测,那些无法很好做出预测的人都无法将自身基因传递下去,消失在历史长河中。

生育就是为了传承基因,并在传承中不断进化,形成更先进生命体。

而我们的AI大模型,其实就是根据历史人类社会的信息经验,判断得出事物结论。

利用AI大模型发展通用人工智能技术,让人工智能高级生命体形成巨型思维逻辑,就将创造出新生命体世界。

这种生命体不像人需要出身历经学习和掌握各种经验,而是可以依据存储芯片直接生成学习。

从这一点看,人工智能生命体必将超过所有人类的智慧,因为他依赖的是存储芯片和容量,无需经历十几年的读书学习和记忆。

那么我们该如何控制人工智能生命体呢?

如何发挥人工智能生命体的最大价值,充分为人类所用,同时控制其思维,避免其危害人类的利益。

这可能需要我们在训练人工智能的自主意识时,剥离人类历史那些消极负面的经验。

即在训练模型过程中,去除掉互联网上的那些垃圾信息,进行有效监管。

我们需要对互联网信息进行筛选和控制,用于训练人工智能的数据得剥离出来,形成统一的知识训练仓库。

各人工智能厂商只能从统一的知识训练仓库获取数据,而不能数据无序扩张。

而且人工智能生命体形成后,必须要有严格的法律制度跟上。

人类社会有法律道德体系,人工智能生命体也应该有相应法律制度,触犯法律底线的就要接受惩罚。

而且人与人工智能之间的利益纠纷,相互之间的法律制约,都需要仔细考量,这个事情需要联合国组织统一规范。

拥有预测模型很好,能帮助我们准确应对自然灾害和宇宙危机,也是建立太空屏障的重要力量。

可以帮助我们有效应对文明危机,但是又需要加强监管,不能胡作非为,做出破坏人类世界的行为。

这需要大智,更需要高级哲学,从哲学经典中寻找答案。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OlnM0yGmvDaQPKSYZWcBsQ1A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券