斯坦福大学最近发布的研究报告指出,全球最大的AI基础模型开发者,包括Meta和OpenAI在内,未能提供足够的关于其潜在社会影响的信息。
这一研究名为“基础模型透明度指数”,旨在追踪顶级AI模型开发者是否公开信息,以便了解他们的工作及人们如何使用其系统。其中,Meta的Llama 2获得最高分,其次是BloomZ和OpenAI的GPT-4,但仍未获得特别高的分数。
研究人员强调,透明度是一个广泛的概念,他们根据100个指标评估模型的构建方式、运作原理以及人们如何使用它们。他们主要依赖公开信息,为每个模型打分,关注公司是否披露了合作伙伴和第三方开发者,以及是否向客户说明他们的模型是否使用私人信息等。
尽管Meta在基础模型方面表现最佳,获得54%的分数,但仍未提供有关社会影响的任何信息,包括隐私、版权或偏见投诉的解决途径。OpenAI则因未公开大部分研究以及数据来源,但由于有关其合作伙伴的大量信息可供查看,GPT-4的分数相对较高。
报告的作者表示,他们的目标是为政府和公司提供一个衡量标准。一些拟议中的法规,如欧盟的AI法案,可能会迫使大型基础模型的开发者提供透明度报告。
这一研究显示,尽管生成式AI拥有庞大而活跃的开源社区,但该领域的一些最大公司并不公开分享研究成果或代码。即使OpenAI的名称中含有“开放”,但出于竞争和安全的考虑,他们已经不再公开发布研究。
斯坦福大学的研究团队表示,他们愿意扩大指数的范围,但目前将继续关注已经评估的十大基础模型。这一研究突显了AI行业在透明度方面面临的挑战,以及监管对于促进更多透明度的重要性。