首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我不认识的诺贝尔获奖作家韩江

前段时间听书听得多了,把耳机的声音放得太大,耳朵很难受,看资料说耳膜里的突触或绒毛什么的,被噪音损伤之后是不可逆的,听力也就下降了。

如果听力受损,就是在得不偿失了,所以决定要减少听书的时间,改成尽量抽出完整时间回归阅读吧,如果没有时间也没关系,人一旦过了青春期,阅读不会提高智商,也不会让人致富,也不是什么不可或缺的事情。

这两天颁诺贝尔奖,物理学奖给了John J.Hopfield和Geoffrey E.Hinton,这两个名字我都很陌生,也记不住,但因为最近都有在看关于AI的书籍,知道后者就是所谓的AI教父,这两人得奖的原因说的是:为类神经网络的机器学习奠定基础。

抱着学习和跟上世界发展的心态,我又看了一些资料,发现还不算难懂(如果不是我理解错了的话),也解了一些疑惑,比如之前我常常疑惑机器是如何模仿人脑记忆的?

人脑的记忆方式和信息处理方式,应该是还没有办法完全模仿,但还是有规律可循的,比如人脑会关联性记忆,当我用语言描述某一个人的特性给女儿听,比如说一个留着胡子的矮胖中年男子,话没说完,她就会立即猜出来是她爸爸。这种举一反三和推理的能力,人类很小就掌握了,非常灵巧。

从生物学上解释,那就是人的记忆不是储存在大脑某个特定区域的,而是存于无数神经元交织出来的突触网络。那这样在物理学上就可以解构它,Hopfield的理解是,把磁性自旋粒子想象为人类的神经元,那粒子与粒子之间的相互作用就可以视为突触链接了。他可以用物理方法模拟人脑的生物记忆方法。

自旋粒子,会有两个状态,向上旋或者向下旋,两个相邻的粒子之间的连接能量,那就会因为不同的自旋方向有不同的数值,这样就可以计算一个自旋系统的总能量了。

有了能量值,机器进行记忆和关联记忆就有可能了,机器每学习一件事情,系统内的自旋粒子都会有其独特的连接组合,反映在网络的总能量中,机器的这个记忆过程,就是趋向系统能量最低最稳定的状态,依据这种原理建构出物理的类神经元网络,它便具有关联性记忆,你给它一个残缺的影像,它也能从已经储存的记忆中找到最接近的配对,重组出完整的影像。

诺贝尔奖一般评选的原则是技术所产生的广泛影响力,那这个技术得奖就很合理,它可以被广泛应用到脸部识别和医疗分析、无人汽车导航等等这些日常使用中,影响无远弗届。

不过,今天好像又颁了文学奖,又是一个我没有了解过的作家。

甚至我已经很久不看文学作品了,毕竟人类走到今天这个进程,文学固然还是必要,但已经不是最重要的东西了,生物与化学物理,哪怕经济学,对人类的贡献都更值得关注,已经很久没有听说有什么文学作品值得全世界传颂,但是一本《贫穷的本质》却可以卖到全世界并让无数人关注这个议题。

文学在AI的时代,更像一个美丽的花篮,像是诺贝尔的一个装饰品,放着好看,但作家们自己已经做不到流行,更无法像从前一样,带给人文字的冲击力与现实的改变力量。

其实诺贝尔文学奖这种国际性奖项,有多大的功劳应该是属于翻译者的呢?

韩江作品被赞扬“充满诗意”,这个诗意,如果不是翻译很厉害,一群欧洲人是怎么感受到的呢。

这种依赖语言的艺术,几乎完全依赖于文字的翻译和内容的普适和平衡,实在难以表现得公平。

但其他的奖项就没有这个问题。

———————2024.10.10

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Ou9tkHJiOSdmFcrktDzPyH_Q0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券