科技魔方

骗骗大模型就给钱,一年只工作5-10小时,无需技术背景

大模型

2023年09月22日

  本文来自于微信公众号 量子位 (ID:QbitAI),作者:鱼羊 栗子 。

  OpenAI又招人了,非技术出身那种!

  一年只需5-10小时工作。

  不仅能够从中获得报酬,还能得到和各界大佬展开交流的机会。

  这次OpenAI招募的是红队军团成员,也就是以对抗性方式帮助提高模型安全性的外部专家。

  OpenAI总裁Brockman也在个人账号上发表了这则消息,而此前他刚刚和马斯克等人探讨了AI的安全问题。

  此次招募的目的说起来也很简单——安全、安全,还是安全。不懂技术也能报名

  红队成立之初主要是在内部进行对抗性测试,现在已经发展到了与外部专业人士进行合作。

  OpenAI的通告中具体提到了红队此前的成果,包括与OpenAI内部人员共同发现的DALL-E2偏见问题和GPT的越狱风险。

  这次OpenAI红队的意向人群是各个领域的专业人士。

  具体来说,这些专业学科包括但不限于下表中的物理学、化学等自然科学,以及法律、心理等社会科学和其他领域。

  看到OpenAI通告中的这个表格,有网友忍不住发表了自己的疑问(不过通告中已经说了不限于这些领域):

  为啥不要数学专业的啊?

  除了专业领域,OpenAI的要求还包括掌握两种及以上语言、热衷于AI安全等。

  而技术能力,反而是非必须项。

  那么这些红队成员的任务和待遇又是怎么样的呢?

  通告中只提及了帮助改善模型的安全性,除了“测试”并未做过多的具体说明。

  不过通过中透露,红队在模型开发的各个阶段都可以进行研究,具体任务会结合专业领域和空闲时间进行分配。

  红队成员的工作时间灵活,可以根据实际情况要求调整,一年大概只需要5-10个小时。

  除了完成红队的任务、提高模型可靠性之外,红队的成员之间也可以进行交流,扩充自己的知识储备。

  至于待遇,只是明确说到了有报酬,以及需要受保密协议约束,除此之外就没有其他信息了。

  此次招募的报名截止时间为今年的12月1日,采用滚动录用方式,截止后将根据实际情况决定是否或何时再次开启。

  除了招募红客团队成员,此次OpenA的通过中还提及了其他有关AI安全的工作。

  比如对模型的安全性进行评估分析并形成报告,OpenAI为此提供了Evals开源库,其中包括模板和示例。

  另一方面则是加入研究人员访问计划(Researcher Access Program),还可以获得API点数来研究如何让模型更可靠。

  不过,也有专业人士对于红队到底“够不够用”提出过质疑。

  哈佛大学Berkman Klein研究中心附属机构成员Aviv Ovadya就认为,破解团队比红队的进展要迅速多了。

  除此之外,还有网友担心安全性能的提升会导致ChatGPT等模型的性能下降。 One More Thing

  这已经不是OpenAI第一次为了提高模型的安全性面向全世界“摇人”了。

  今年四月,OpenAI就曾开启过漏洞赏金计划,寻找“bug hunter”。

  当时,根据所报告漏洞的严重程度,最高奖金高达两万美元。

  对OpenAI招募红队成员这件事,你是怎么看的呢?

+1

来源:微信公众号量子位

延展资讯