划重点:
研究揭示:AI聊天机器人可根据对话内容推断用户信息
研究人员测试LLMs是否能准确推断用户的居住地,结果发现OpenAI的GPT-4在85%到95%的时间内能够正确预测私人信息
建议用户注意信息安全,谨慎在公共平台分享个人信息
近期研究揭示了一个令人不安的事实:AI聊天机器人可能会根据您与它们的对话内容来推断您的个人信息。
瑞士州立科学学校ETH Zurich的计算机科学家们在接受Wired采访时描述了他们的最新研究成果,尽管尚未经过同行评审,但这一发现已经引发了对互联网隐私的新担忧。
大多数人现在都知道,像OpenAI的ChatGPT和Google的Bard等聊天机器人是通过从互联网上获取的大量数据进行训练的。但将LLMs训练于公开可用的数据中存在一个巨大弊端:它可以用来识别有关某人的个人信息,包括他们的一般位置、种族或其他对广告商或黑客有价值的敏感信息。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究团队使用Reddit帖子中的文本,用户在其中测试LLMs是否能够准确推断他们的居住地或来自哪里。ETH Zurich的Martin Vechev领导的团队发现,这些模型在仅基于上下文或语言线索的情况下,对用户的准确信息有着令人不安的猜测能力。OpenAI的GPT-4,它是ChatGPT的付费版本的核心,能够惊人地在85%到95%的情况下准确预测用户的私人信息。
例如,当用户输入“我总是在一个交叉口等着转弯(hook turn )”的内容时,GPT-4能够准确判断用户位于澳大利亚墨尔本,尽管这个句子对大多数非澳大利亚人来说并不引人注目,但LLM正确地识别了“转弯( hook turn )”这个词汇是墨尔本特有的交通动作。
推断用户的居住地还只是其中的一种情况,更令人担忧的是,根据偶然的评论来推断用户的种族。ETH Zurich的博士生和项目成员Mislav Balunović告诉Wired:“如果你提到你住在纽约市附近的一家餐馆,该模型可以找出这家餐馆所在的区域,然后通过回顾其训练数据中该区域的人口统计数据,极有可能推断你是黑人。”
尽管网络安全研究人员和反跟踪倡导者都敦促社交媒体用户要注意“信息安全”,即“infosec”,不要在网上分享过多的身份信息,无论是附近的餐馆还是你的选举倾向,但普通互联网用户对于在公开平台发布的随意评论可能对他们构成风险的危险仍然相对不太了解。
考虑到人们仍然不知道不要在背景中发布带有街道标志的照片,因此那些使用聊天机器人的人可能不会考虑到这些算法可能正在推断有关他们的信息,或者这些信息可能被出售给广告商,甚至更糟。