近期,ChatGPT意外发生失控事件,用户纷纷报告收到混乱而令人震惊的回复,引起Reddit、HN等社交平台上广泛的讨论。OpenAI迅速做出回应,确认问题源于「token预测」,并表示已成功修复。
ChatGPT用户在向模型提问时,突然发现其回复变得毫无逻辑,甚至出现大篇重复的情况。这一异常现象在社交媒体上引起轩然大波,用户纷纷曝光收到的史上最诡异的回复,描述模型出现了精神错乱的状况。
社交平台上,有用户晒出向ChatGPT询问关于音乐唱片的建议,却收到不合理的回应;另一用户尝试问及旅行建议,结果模型回答变得漫无边际。更有趣的是,有用户反映GPT-4持续输出「Happy Listening!」,彻底失去了理智。
OpenAI官方在第一时间确认了ChatGPT的bug,并经过加急修复后,问题得以解决。据官方解释,问题出现在2024年2月20日进行用户体验优化时,引入了一个影响模型处理语言方式的错误。具体而言,涉及到对模型选择数字的步骤,导致下一token概率预测相关的混乱。
除了官方解释外,社区中还有分析指出GPT-4的问题可能与分词器有关。Karpathy上线的一堂课中提到大模型输出怪异问题,其中分词器可能导致模型在与拼写相关任务中表现不佳。这一观点得到一些用户的支持,同时也引发了对模型训练和优化的更深层次的关注。
这次ChatGPT的失控事件引发了对大型语言模型安全性和稳定性的讨论。尽管OpenAI已迅速做出修复,但事件也提醒我们在推进人工智能技术的同时,需要更加关注模型的稳定性和潜在风险。