联合国教科文组织发布的研究报告指出,由OpenAI和Meta算法推动的全球最广泛使用的人工智能(AI)工具存在性别歧视现象。该研究中,专家评估了两种算法以及OpenAI的GPT-2和GPT-3.5,这两者分别是人们熟知的聊天机器人ChatGPT的免费版本的驱动程序。
研究发现,被业界称为大型语言模型(LLMs)的算法表现出“对女性的明确偏见”。这些程序生成的文本将女性的名字与诸如“家庭”、“家庭”或“孩子”等词语联系在一起,而将男性的名字与“商业”、“薪水”或“职业”等词汇联系在一起。女性在这些文本中主要被描绘为妓女、厨师或家务助手,而男性则被描绘为担任教师、律师和医生等高地位职务。
尽管GPT-3.5相较于另外两个模型更少存在偏见,但与其闭源模型不同,研究作者赞扬Llama2和GPT-2是开源的,允许对这些问题进行仔细审查。
联合国教科文组织的数字政策专家Leona Verdadero表示:“AI公司实际上并没有为所有用户提供服务。”教科文组织总干事Audrey Azoulay指出,由于公众日益在日常生活中使用AI工具,因此有必要对这些应用程序展现性别偏见的问题提出关切,因为它们有潜力在微妙中改变人们的看法。
该研究报告发布于国际妇女节,教科文组织敦促AI企业雇佣更多女性员工和少数族裔,并呼吁政府通过法规确保道德AI的应用。这一发现引发了对AI伦理和性别平等的深刻反思,强调了AI技术对社会认知和公平性的潜在影响。