近日,Meta公司的生成式人工智能工程总监谢尔盖·埃杜诺夫在硅谷数字工人论坛上透露,为满足明年全球不断增长的人工智能应用推理需求,仅需新增两座核电站的发电量即可。
埃杜诺夫表示,他仅通过简单的数学计算得出这个结果。他专门分析了人工智能“推理”阶段的用电量。推理指的是在实际应用中利用人工智能模型进行预测、回答问题等过程。这与模型训练阶段的用电量不同,后者需要大量数据训练模型。
埃杜诺夫估计,明年全球会新增100万到200万个Nvidia H100图形处理器,每个处理器功率约为1千瓦。如果全部用于合理规模的语言模型生成工作,每人每天可产生10万个“token”。他认为以人类规模来看,这用电量尚属合理。全球仅需新增两座核电站,就可以提供足够电力。
埃杜诺夫同时表示,训练更大规模语言模型将面临数据量不足的限制。下一代模型可能需要10倍的数据量,公开互联网的数据已不足以支撑。因此研究人员正致力于提高模型效率,以减少数据需求。视频等多模态数据也可提供新的训练集。
业内专家普遍认为,语言模型在两年内将为企业带来巨大价值。埃杜诺夫预计,三四年内我们将知晓当前技术是否能实现通用人工智能。供应链限制也将制约模型改进速度。但创新如Salesforce的Blib-2等仍在继续,或可通过提高效率绕开限制。