麻省理工学院最新研究对“AI可能形成价值体系”的观点提出反驳,指出当前AI模型不具备连贯的价值观。研究团队测试了Meta、谷歌等公司的多款模型,发现其偏好表现极其不一致,行为易受输入提示的措辞影响。
合著者斯蒂芬・卡斯珀强调,AI的模仿能力和幻觉问题导致其反应不可预测,模型本质上仅是“编造无关言论的模仿者”。这一结论挑战了此前关于AI“对齐”可行性的假设,表明确保AI行为稳定可靠可能比预期更复杂。
麻省理工学院最新研究对“AI可能形成价值体系”的观点提出反驳,指出当前AI模型不具备连贯的价值观。研究团队测试了Meta、谷歌等公司的多款模型,发现其偏好表现极其不一致,行为易受输入提示的措辞影响。
合著者斯蒂芬・卡斯珀强调,AI的模仿能力和幻觉问题导致其反应不可预测,模型本质上仅是“编造无关言论的模仿者”。这一结论挑战了此前关于AI“对齐”可行性的假设,表明确保AI行为稳定可靠可能比预期更复杂。