麻省理工学院(MIT)的物理学家Max Tegmark教授发出警告,指出人工智能(AI)科技公司正处于一场“失控竞赛”,使得他们无法停下来考虑潜在的AI风险。他是未来生命研究所的共同创始人,于2023年3月组织了一封开放信,呼吁将巨大AI系统的开发暂停六个月。尽管这封信得到了超过3万名签署者的支持,包括埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克,但未能实现对最有抱负的系统的暂停开发。
Tegmark教授表示,他并没有指望这封信能够阻止科技公司继续努力开发比GPT-4更强大的AI模型,因为竞争变得如此激烈。他说道:“私下里,我与许多企业领导人交谈时,他们想要(暂停),但他们陷入了相互之间的这场失控竞赛之中,因此没有公司可以单独暂停”。
这封信警告了一场“失控竞赛”,该竞赛旨在开发无人能够“理解、预测或可靠控制”的思维,敦促政府干预,如果不能在领先的AI公司之间达成暂停开发比GPT-4更强大系统的禁令,例如谷歌、ChatGPT的所有者OpenAI和微软。
信中提出了以下问题:“我们是否应该开发可能最终数量超过、智胜、使我们过时并取代我们的非人类思维?我们是否应该冒失去对我们文明的控制的风险?”
Tegmark还敦促政府在全球达成安全标准之前暂停开发。他补充说:“在满足约定的安全标准之前,不应该使模型更加强大,这必须暂停。”他补充说:“就安全标准达成一致意见将自然导致暂停。”
此外,Tegmark还敦促政府采取行动,对可以被公众访问和适应的开源AI模型采取行动。马克·扎克伯格的Meta最近发布了一个名为Llama2的开源大型语言模型,并受到一位英国专家的警告,认为这种举动类似于“向人们提供了建造核弹的模板”。
“危险的技术不应该是开源的,无论是生物武器还是软件,”Tegmark表示。
这一问题引发了对AI发展的担忧,从能够生成深度伪造视频和批量制造虚假信息等即时问题,到由超级智能AI引发的对人类控制的威胁或做出不可逆转和高度重大决策的潜在威胁。不过,Tegmark警告称,描述数字“上帝般的通用智能”的发展为长期威胁可能不恰当,他援引了一些AI从业者认为这可能在几年内发生。