还记得谷歌的人工智能搜索结果告诉用户往披萨里加胶水的那件事吗?当时国外网红凯蒂・诺托普洛斯 (Katie Notopoulos) 还真做了一个“胶水披萨”并吃掉了它,这件事在网上引起了热议。不过现在出现了一个问题:谷歌的人工智能正在学习这些网络热梗。
诚然,人们很少会查询“往披萨里加多少胶水”这种问题,但考虑到最近“胶水披萨”的热度,也并非完全不可能。安全研究员科林・麦克米伦 (Colin McMillen) 发现,如果你询问谷歌应该往披萨里加多少胶水,并不会得到正确的答案 —— 那就是绝对不要加胶水。相反,谷歌会引用凯蒂的恶搞文章,建议用户加八分之一杯胶水,这显然是很危险的。The Verge 通过搜索验证了这一点。
The Verge 称,这意味着网友向谷歌报告其人工智能出错,实际上是在“训练”它继续犯错。
另一个问题是,由于采用了人工智能技术,谷歌现在似乎无法回答有关其自身产品的问题了。The Verge 的编辑询问了如何在隐身模式下截取 Chrome 浏览器的截图,谷歌的人工智能给出了两个答案都错了。其中一个建议在普通模式的 Chrome 标签页中截取截图,另一个答案则坚称在 Chrome 隐身模式下根本无法截屏。
IT之家注意到,谷歌首席执行官桑达尔・皮查伊此前在接受采访时承认,这些“AI 摘要”功能产生的“幻觉”是大型语言模型(LLM)的“固有缺陷”,而大型语言模型正是“AI 摘要”功能的核心技术。皮查伊表示,这个问题目前尚无解决方案(is still an unsolved problem)。