昨天,科技圈被《自然》杂志刷屏了。同一期连发两篇光子计算的重磅论文——新加坡团队搞出个能玩《吃豆人》的光子AI芯片,美国公司把光子加速器延迟砍了500倍。国内也不甘示弱:清华的“太极”光芯片刚拿下国家大奖,上海曦智科技的光电计算卡已经能跑大模型了。
有人说,这是光子计算从“PPT画饼”到“真刀实枪”的转折点。
但你可能要问:这玩意到底和我的手机、电脑有啥关系?
别急,咱们先从昨天《自然》的论文说起。
1. 新加坡团队:用光速玩《吃豆人》 这帮科学家可能是游戏迷——他们搞的光子AI芯片,不仅能处理文本图像,还能让《吃豆人》流畅运行。关键是能耗低到离谱:同样跑一个AI模型,用电芯片需要插电,用光芯片可能靠手电筒光就能驱动。(当然这是夸张,但能效确实甩传统芯片几条街)
更狠的是延迟:他们的64×64光学矩阵,处理速度比电子芯片快500倍。想象一下,以后自动驾驶的激光雷达用这种芯片,急刹车反应时间能从“人类水平”进化到“闪电侠水平”。
2. 美国公司:给华尔街装上光速引擎 另一篇论文里的光子加速器,专治各种“烧脑”计算。比如金融圈最头疼的资产组合优化问题,用光芯片算起来就像用计算器做加减法。据说已经有投行在测试,可能明年你买的理财产品,背后就是光子计算在保驾护航。
1. 清华“太极”芯片:解锁新技能 去年火出圈的太极芯片,今年升级了“双卡双待”模式:
最绝的是他们搞了个“分布式广度架构”——简单说就是让光芯片像乐高积木一样,把复杂任务拆成小块并行处理。这招直接解决了光计算“叠不深”的老大难问题。
2. 曦智科技的“天枢”卡:给大模型装翅膀 这卡长得像显卡,但里面塞了128×128的光学矩阵。实测跑Llama大模型,速度比传统方案快3倍,关键是不用改造现有服务器——插上就能用。听说量化交易的机构已经抢疯了,毕竟在金融市场,1毫秒的延迟可能就是几个小目标。
1. 手机可能要“瘦身”了 现在跑个AI修图APP,手机烫得能煎鸡蛋。未来如果用光子芯片,可能连散热片都不需要——毕竟光计算几乎不发热。
2. 自动驾驶会更“果断” 现在的车载电脑遇到突发状况,反应时间像“树懒”。换成光芯片后,从识别障碍到刹车的时间,可能比你眨眼睛还快10倍。
3. 电费账单悄悄变少 训练一个大模型要烧掉一个小镇全年的用电量?光子计算能把能耗砍到1/30。这对搞AI的公司是省钱,对普通人来说,也许能缓解夏天动不动就停电的烦恼。
虽然前景诱人,但现实骨感:
不过业内大佬们很乐观:清华团队已经在和医院合作搞医学影像系统,曦智的256×256芯片路线图都排到2027年了。用某位工程师的话说:“现在就像2007年的智能手机,笨重但能用了,爆发就在三五年后。”
从电子到光子,这场计算革命比预想中来得更快。或许用不了多久,我们会像讨论“5纳米还是3纳米”一样,争论“64×64还是128×128光学矩阵”。
唯一确定的是:AI算力的游戏规则,正在被重新书写。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有