AI大模型的本质其实就是预测学,基于已有的经验,去分析未知的情况,然后得出结论。
我们人类社会,从古进化至今,之所以文明能够延续,都是因为我们准确预测了有利的事物。
比如食物,哪些食物可以补充能量,哪些生物有毒,都是我们通过漫长的经验总结出来的,也就形成了各行业的预测学。
木头能够建造房屋,石头打地基来建造房屋,要建多少层楼需要打多深地基,都是预测学的效果。
冬天要穿羽绒服才能抵御严寒,选择什么样的对象可以带来幸福的一生。
这些都是基于大脑超算模型的预测,那些无法很好做出预测的人都无法将自身基因传递下去,消失在历史长河中。
生育就是为了传承基因,并在传承中不断进化,形成更先进生命体。
而我们的AI大模型,其实就是根据历史人类社会的信息经验,判断得出事物结论。
利用AI大模型发展通用人工智能技术,让人工智能高级生命体形成巨型思维逻辑,就将创造出新生命体世界。
这种生命体不像人需要出身历经学习和掌握各种经验,而是可以依据存储芯片直接生成学习。
从这一点看,人工智能生命体必将超过所有人类的智慧,因为他依赖的是存储芯片和容量,无需经历十几年的读书学习和记忆。
那么我们该如何控制人工智能生命体呢?
如何发挥人工智能生命体的最大价值,充分为人类所用,同时控制其思维,避免其危害人类的利益。
这可能需要我们在训练人工智能的自主意识时,剥离人类历史那些消极负面的经验。
即在训练模型过程中,去除掉互联网上的那些垃圾信息,进行有效监管。
我们需要对互联网信息进行筛选和控制,用于训练人工智能的数据得剥离出来,形成统一的知识训练仓库。
各人工智能厂商只能从统一的知识训练仓库获取数据,而不能数据无序扩张。
而且人工智能生命体形成后,必须要有严格的法律制度跟上。
人类社会有法律道德体系,人工智能生命体也应该有相应法律制度,触犯法律底线的就要接受惩罚。
而且人与人工智能之间的利益纠纷,相互之间的法律制约,都需要仔细考量,这个事情需要联合国组织统一规范。
拥有预测模型很好,能帮助我们准确应对自然灾害和宇宙危机,也是建立太空屏障的重要力量。
可以帮助我们有效应对文明危机,但是又需要加强监管,不能胡作非为,做出破坏人类世界的行为。
这需要大智,更需要高级哲学,从哲学经典中寻找答案。
领取专属 10元无门槛券
私享最新 技术干货