ChatGPT推出后风靡全球,各界对于它的能力及方便性相当好奇,不过很少人知道它需要多少资源才能运作,数据指出,OpenAI光是在2023年1月的用电量,就和17.5万个丹麦家庭1年的用电量相同。
根据《财联社》报道,专家指出,就像加密货币刚出来时一样,所有人都在讨论新技术带来的利润,却忽略其背后消耗的巨大能量,而AI比加密货币需要更大的技术,生成式AI需要经过大量的训练才能获得“智能”,还得不断改进,也就是说,AI处理能力的提升,背后总伴随着资源的大量消耗。
加拿大数字基础设施公司QScale的创办人MartinBouchard表示,生成式AI的每一次查询都需要普通搜索引擎4至5倍的计算能力,OpenAI在2023年1月的用电量,估计相当于17.5万个丹麦家庭一年的用电量,这还只是目前模型使用情况的数据,如果未来应用的层面更广,消耗规模可能达到数百万人的等效用电量。
AI专家、牛津大学互联网研究所SandraWachter指出,根据全球统计数据,讯息和通讯技术对气候变化的影响远大于航空业,光是AI需要的能源,在2012至2018年间就增加了30万倍,而每训练一次ChatGPT,就要花费能供126个丹麦家庭使用1年的能源,这就反映出另个方面的问题,假设ChatGPT被大规模商业化,且在经济生活中佔据关键地位,那么一旦OpenAI的计算中心停电,后果不堪设想。
除了用电量外,AI对水的需求量也相当大,因为在运作时需要水来冷却数据中心。加州大学河滨分校和德克萨斯大学的一份论文指出,ChatGPT的上一代模型“GPT-3”的训练,就消耗约70万升的水,足以生产370量BMW汽车。
研究指出,用户在和ChatGPT对话时,就会不停消耗水,ChatGPT每和用户交流25至50个问题,就要“喝”500毫升的水,以目前ChatGPT受欢迎的程度来看,恐怕对当地供水造成很大的麻烦。
研究另提到,OpenAI需要为其超级计算机中1万张显卡、超过28.5万个处理器内核提供冷却设备,这一过程能生产320辆Tesla的电池,这些用来冷却设备的水还不能是普通的水,必须是乾淨的淡水源,避免带来腐蚀和细菌滋生的问题。
专家们担心,目前数据还仅是针对“GPT-3”模型来估算,需要更多训练的“GPT-4”预计会消耗更多能源,“人工智慧想要真正在现实世界落地,企业们在技术革新的同时,还需要考虑如何降低这一人类难以承受的AI成本”。