近日,Arm公司CEO雷内·哈斯警告称,如果人工智能继续变得更加强大,而不提高能效,未来AI数据中心可能会消耗大量电力。
哈斯预计,虽然目前美国AI数据中心耗电量占电网比重仅为4%,但是预计到2030年,占比将达到20%~25%。他特别强调,ChatGPT这样的流行大语言模型耗电尤其严重。
据《纽约客》杂志引援国外研究机构报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力,也就是说,ChatGPT每天用电量相当于1.7万个美国家庭的用电量。而随着生成式AI的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
除了耗电,和ChatGPT或其他生成式AI聊天,也会消耗水资源。加州大学河滨分校研究显示,ChatGPT每与用户交流25-50个问题,就可消耗500毫升的水。
此外,AI大模型还是碳排放大户。斯坦福大学报告显示,OpenAI的GPT-3模型在训练期间释放了502公吨碳,是目前大模型中有据可查耗能最严重的,它的碳排放量是Gopher模型的1.4倍, 是BLOOM模型的20.1倍,约等于8辆普通汽油乘用车一生的碳排放量,人均91年的碳排放量。
领取专属 10元无门槛券
私享最新 技术干货