美国弗吉尼亚理工大学最近发布了一份报告,概述了人工智能(AI)工具 ChatGPT在不同县的环境正义问题上输出结果的潜在偏见。
在该报告中,弗吉尼亚理工的研究人员指出,ChatGPT 在提供特定区域环境正义问题的信息方面存在局限性。
研究发现了一个趋势,表明面积较大、人口稠密的州更容易获得这些信息。「在特拉华州或加利福尼亚州等城市人口较多的州,只有不到 1% 的人口居住在无法接收具体信息的县。」
与此同时,人口较少的地区则缺乏等同的信息获取途径。
「在像爱达荷州和新罕布什尔州这样的农村州,超过 90% 的人口居住在无法获得当地具体信息的县,」报告指出。
报告进一步援引弗吉尼亚理工地理系讲师 Kim 的话,他呼吁进行进一步的研究,因为偏见正在被发现。
「尽管需要更多研究,但我们的发现揭示了 ChatGPT 模型目前存在地理偏见,」Kim 宣称。
研究论文还包括一张地图,展示了美国没有获得环境正义问题地点特定信息的人口范围。
这一发现紧随最近学者发现 ChatGPT 可能表现出政治偏见的新闻。
此前 Cointelegraph 报道称,来自英国和巴西的研究人员发表的一项研究声明,像 ChatGPT 这样的大型语言模型输出的文本包含可能误导读者的错误和偏见。