科技魔方

OpenAI 的六人董事会将决定「我们何时实现 AGI」

大模型

2023年11月14日

  根据OpenAI的说法,其非营利董事会的六名成员将决定公司何时「实现 AGI」,即它所定义的「在大多数具有经济价值的工作中胜过人类的高度自主系统」。得益于一个「法律上受约束去追求非营利组织使命」的营利部门,一旦董事会决定 AGI(即人工通用智能)已经实现,这样的系统将「被排除在与 Microsoft 的知识产权许可和其他商业条款之外,这些仅适用于 AGI 之前的技术」。

  但由于人工通用智能的确切定义远非公认,六个人决定是否已达到 AGI 对于 OpenAI 乃至全世界意味着什么?这一可能的未来决定的时机和背景对其最大投资者 Microsoft 意味着什么?

  营利部门受制于 OpenAI 的非营利使命

  这些信息是 OpenAI 开发者倡导者 Logan Kilpatrick 在周末 X 平台上的一个帖子中提到的。Kilpatrick 是在回应 Microsoft 总裁 Brad Smith 的评论,后者在最近与 Meta 首席科学家 Yann LeCun 的小组讨论中试图将 OpenAI 描绘为更值得信赖,理由是其「非营利」地位——尽管《华尔街日报》最近报道称,OpenAI 正在寻求在现有股份出售中达到高达 900 亿美元的新估值。

  Smith 说:「Meta 由股东所有。OpenAI 由一个非营利组织所有。你对哪个更有信心?从一个非营利组织还是完全由一个人控制的营利公司获取技术?」

  在他的讨论帖子中,Kilpatrick 引用了 OpenAI 网站上的「我们的结构」页面,该页面提供了关于 OpenAI 复杂的非营利/限制利润结构的详细信息。根据该页面,OpenAI 的营利子公司被 OpenAI 非营利组织(注册在特拉华州)「完全控制」。尽管营利子公司 OpenAI Global, LLC——似乎已从之前于 2019 年宣布的有限合伙企业 OpenAI LP 转变,后者是在成立原始 OpenAI 非营利组织大约三年后成立的——被「允许赚取和分配利润」,但它受制于非营利组织的使命。

  这听起来像是一旦 OpenAI 实现了其宣称的 AGI 使命,Microsoft 将被排除在外——尽管在上周的 OpenAI Dev Day 上,OpenAI 首席执行官 Sam Altman 告诉 Microsoft 首席执行官 Satya Nadella,「我认为我们有着科技界最佳的合作伙伴关系……我对我们共同构建 AGI 感到兴奋。」

  在《金融时报》对 Altman 的一次新采访中,Altman 说 OpenAI 与 Microsoft 的合作关系「运作得非常好」,他预计「随着时间的推移会筹集更多资金」。当被问及 Microsoft 是否会继续加大投资时,Altman 说:「我希望如此……从现在到 AGI 之间还有很长的路要走,需要建设大量的计算能力……训练费用真的很大。」

  从一开始,OpenAI 的公司结构细节就表明,Microsoft「接受了我们的限制性股权提议,以及我们的请求,让 AGI 技术和治理留给非营利组织和人类的其他部分。」

  一位 OpenAI 发言人表示,「OpenAI 的使命是为每个人构建安全且有益的 AGI。我们的董事会管理公司,并咨询外部专家和利益相关者的多元化观点,以帮助指导其思考和决策。我们根据他们在 AI 技术、政策和安全方面的技能、经验和观点来提名和任命董事会成员。」

  非营利董事会成员与有效利他主义有关

  目前,OpenAI 非营利董事会由董事长兼总裁 Greg Brockman、首席科学家 Ilya Sutskever 和首席执行官 Sam Altman 组成,以及非员工 Adam D’Angelo、Tasha McCauley 和 Helen Toner。

  D’Angelo 是 Quora 的首席执行官,技术企业家 McCauley 和 Honer 是乔治城大学安全与新兴技术中心的战略总监,他们都与有效利他主义(Effective altruism)运动有关——该运动今年早些时候因与 Sam Bankman-Fried 和 Futures Exchange 的关联以及其对 AI 安全的「危险」看法而受到抨击。OpenAI 长期以来也与 EA 有着自己的联系:例如,2017 年 3 月,OpenAI 从 Open Philanthropy 收到了 3000 万美元的赠款,后者由有效利他主义者资助。而据报道,领导 OpenAI超级对齐团队的 Jan Leike 认同 EA 运动。

  OpenAI 发言人表示,「我们的董事会成员都不是有效利他主义者」,他补充说,「非员工董事会成员不是有效利他主义者;他们与 EA 社区的互动专注于与 AI 安全相关的主题,或提供与该团体不太密切相关的人士的观点。」

  董事会的 AGI 决策制定被认为是「不寻常的」

  Suzy Fulton,为初创公司和新兴科技公司提供外包总法律顾问和法律服务的人士表示,尽管在许多情况下,由董事会做出这种 AGI 决定会被认为是「不寻常的」,但 OpenAI 的非营利董事会有义务支持其提供「安全且普遍有益的 AGI」的使命。

  她解释说:「他们认为非营利董事会的受益人是人类,而营利性的则服务于其投资者。」她还说:「他们试图建立的另一个保障措施是使董事会多数成员独立,即大多数成员不持有 Open AI 的股权。」

  这是建立实体结构和董事会以做出这一关键决定的正确方式吗?「直到他们的董事会做出决定,我们可能不会知道答案,」Fulton 说。

  芝加哥大学法学院教授 Anthony Casey 同意,董事会决定像 AGI 这样具体的运营问题是「不寻常的」,但他认为没有任何法律障碍。

  他说:「具体确定某些问题必须在董事会一级做出是可以的。」他还说:「事实上,如果一个问题足够重要,公司法通常会规定董事有责任对该问题进行监督」,特别是「关键任务问题」。

  OpenAI 专注于 AGI 的使命是否使其主张合法化?

  然而,并非所有专家都相信通用人工智能会很快到来,一些人甚至质疑它是否可能实现。

  根据 AI 与数字政策中心主席 Merve Hickok 的说法,该中心于三月向联邦贸易委员会(FTC)提交了一项申诉,称该机构应该调查 OpenAI 并命令该公司「在建立必要的安全保障之前停止发布 GPT 模型」。她解释说,OpenAI 作为一个组织,「确实缺乏多样性视角」。他们对 AGI 的关注「忽视了 AI 模型和工具的当前影响」。

  然而,她不同意在确定 OpenAI 是否「已经实现」AGI 这个问题上,关于 OpenAI 董事会规模或多样性的任何辩论,说这会分散人们对其基础使命和声称是否合法的讨论。

  她说:「这会转移焦点,并事实上使 AGI 是可能的主张合法化。」

  但是,OpenAI 对 AGI 的含糊定义——或者是否会有一个 AGI——是否回避了问题?例如,OpenAI 2023 年 2 月的一篇博客文章说:「第一个 AGI 只是智力连续体上的一个点。」而在 2023 年 1 月 LessWrong 的一次采访中,CEO Sam Altman 说,「我想看到的未来是 AI 的访问非常民主化,世界上有几个 AGI 可以帮助实现多种观点,不让任何人变得太强大。」

  OpenAI 的 AGI 使命对微软意味着什么

  尽管如此,很难说 OpenAI 对 AGI 含糊不清的定义对微软意味着什么——尤其是在没有两家公司之间运营协议的完整细节的情况下。例如,Casey 说,OpenAI 的结构和与微软的关系可能会导致一些「重大争议」,如果 OpenAI 对其非营利使命是认真的。

  他指出,「有一些非营利组织拥有营利性企业」——最著名的是 Hershey Trust。「但他们完全拥有这些营利性企业。在那种情况下,这很容易,因为没有少数股东提出异议,」他解释说。「但在这里,微软的营利性利益可能与控股实体的非营利性利益直接冲突。」

  他补充说,实施利润上限很容易,但「困难的是,如果实现最大利润与非营利组织的使命冲突该怎么办?」Casey 还指出,「默认规则会说实现利润是优先事项,管理者必须首先考虑这一点(受到业务判断规则下的广泛自由裁量权制约)。」

  也许,他继续说,「微软说,『别担心,无论如何我们都好。你不欠我们任何责任。』这听起来不像是微软会谈判的方式。」

+1

来源:站长之家

延展资讯