科技魔方

先进的人工智能工具正在崛起,但「安全」并不是监管人工智能的最佳标准

大模型

2023年10月16日

  微软于上周发布了其 Bing Image Creator 的新版本,这是一个由 OpenAI 的新模型 DALL-E 3 提供支持的 AI 图像生成工具。它旨在提供比之前的图像生成 AI 模型(如 Midjourney、Stable Diffusion 或 OpenAI 自己的 DALL-E 2)更强大的功能,包括比以前更丰富地理解复杂用户请求的能力。

  与过去一年发布的大多数生成式 AI 模型一样,OpenAI 和微软的模型都非常强调「安全」。在图像生成的情况下,安全可以指的是系统生成伪造真实人物图像的能力的限制,或者识别提供的图像中的人物。但安全也意味着更广泛的内容:正如微软所表明的,它已构建了一个内容审查系统,将拒绝生成有害或不适当内容的任何请求,包括任何可能被视为种族主义、性别歧视或其他令人反感的内容。

  在Bing Image Creator 发布后的几小时内,该内容审查系统就面临了考验。用户很快就能生成著名卡通角色在飞往 911 事件前的世界贸易中心的飞机驾驶舱内的图像,以及某人与饶有意思地类似说唱歌手 Drake 的形象解救纳粹集中营的图像。

  内容审查系统通 常会拒绝明确请求描绘 911 事件或者飞机驾驶舱窗户里能看到双子塔的图像。但用户发现了一种变通方法:他们指示系统创建像海绵宝宝这样的角色在一架飞机上,背景是纽约市的天际线,以及「两座高楼大厦」。

  显然,这种「艺术」幼稚且毫无品味。但它在相对低风险的环境中提出了一个更广泛的问题,涉及人工智能安全工作的性质,甚至安全本身的性质。

  随着 AI 变得更加强大,个体将能够以越来越精确的方式运用它,就像 Adobe Photoshop 拥有比 Microsoft Paint 更多的选项一样。随着这一趋势的发展,将变得更难以根据媒体、学术界和许多 AI 公司所提倡的「安全」的广泛定义来制定系统。AI 可以受到更精确的控制,聪明的用户将能够更精确地找到绕过旨在防止制作冒犯自由观念的内容的审查规则的方法。

  即使按照广泛定义的安全标准,制定一个高度先进的 AI 系统是可能的,也不清楚这样的系统是否令人满意。互联网恶作剧者用来生成上述图像的变通方法是操纵系统的方式。但请考虑哪种系统听起来更令人担忧:一个可以操纵以生成一些人可能会感到冒犯的内容的系统,还是一个可以窥视用户的内心、理解他们真正的动机,并决定是否愿意遵守的系统?前者是数字工具的延伸,尽管能力极强,但已经有几十年了。后者让人想起了《2001 太空漫游》中的 HAL 9000。即使这样的系统是可能的,也很不清楚它是否是一个好的创造,特别是如果它是为了防止人们在互联网上感到冒犯而被创建的。

  随着 AI 变得更加强大,以及拥有如此令人担忧的能力的可能性变得更清晰,有必要在最初就确定 AI 系统应受用户控制。增加安全性的努力直接与这一目标相冲突,可能导致高度强大的 AI 系统是为了满足监管机构和其他守门人而建,而不是个体用户。

  通用人工智能工具的崛起,如 DALL-E 3 或 ChatGPT,以及即将到来的更强大的系统,引发了政策制定者、技术专家和所有相关公民的严重担忧,确保系统符合安全的过于宽泛的标准不是其中之一。可以想象,未来几年可能会出现 AI 系统,例如,能够民主化开发新型生物武器,但 AI 已经被用于帮助人类探索科学和工程的新领域,如核聚变和癌症治疗。它们将有一天被用于教育数百万儿童,并帮助公民应对不断发展的挑战。

  我们如何处理这些新工具,我们是否信任它们,以及我们如何将它们纳入我们的社会,将决定它们是否会使个人和整体的能力提升。倘若幸运的话,也许它还能提升我们讨论的基调。

+1

来源:站长之家

延展资讯