Meta的全球事务总裁 Nick Clegg 为马克·扎克伯格的 Meta 发布的开源人工智能模型进行了辩护,他声称关于人工智能危险的炒作超过了技术的发展。
作为 Meta 全球事务总裁和前英国副首相,Nick Clegg 在其公司表示将开放其新的大型语言模型(LLM)Llama 2 的使用权限后发表了谈话。Llama 2 将免费供研究和商业用途。LLM 是在大量数据上进行训练的,并支持生成式人工智能产品,如 ChatGPT 聊天机器人。
一些专家警告称,将人工智能模型开源,即允许免费使用和调整用于独特目的,可能导致该技术被用于恶意目的。
Nick Clegg 在 BBC 广播 4 电台的节目上说:「我认为炒作有些超前于技术。我认为很多关于存在主义的警告与当前不存在的模型有关,所谓的超级智能、超级强大的人工智能模型——AI 发展出自主性和代理权的愿景,它能够自我思考和自我复制。」
「我们正在开源的模型远远不及那样。事实上,在很多方面它们相当愚蠢。」
然而,一位人工智能专家将 Meta 的开源举动比作交出制造核武器的秘密。
南安普敦大学计算机科学名誉教授 Wendy Hall 爵士表示,科技行业是否可以信任自我调节 LLM 存在问题,对于开源模型问题更为严重。她在节目中表示:「这有点像给人们提供制造核武器的模板。」
Nick Clegg 表示,Meta 有 350 名员工在数月内对其模型进行「压力测试」,以检查是否存在任何潜在问题,Llama 2 比其他任何开源大型语言模型都更安全。
他说「这并不是我们面临着一个十字路口」,即公司可以「选择开源或不开源」,并补充说:「模型正在不断被开源。」
Nick Clegg 表示他坚决认为人工智能应该受到监管,但他补充说「这并不意味着每一个 AI 模型都应该开源」,并表示 Meta 不会将称为 Voicebox 的语音生成模型公开发布。
提到 Llama 2,克莱格表示「众人的智慧」将使人工智能模型更安全,而不是让它们留在技术跨国公司的「油腻的手中」。
「关键是,你把它从大科技公司的手中拿出来,这些公司是目前唯一拥有构建这些模型所需的计算能力或大量数据的公司,」他说。
今年 5 月,谷歌一名工程师警告称,可用的开源技术可能会在人工智能竞赛中击败谷歌。「不愉快的事实是,我们无法赢得这场军备竞赛,OpenAI 也没有。在我们争吵的同时,第三个派别悄悄地吃掉了我们的午餐,」工程师在提到开源人工智能时写道。