近几个月来,谷歌母公司Alphabet一直在对其AI聊天机器人Bard进行内部讨论,特别邀请重度使用者参与。然而,内部员工开始质疑Bard的有效性和功能,引发了有关投入海量资源是否值得的疑虑。这些质疑对于谷歌而言,正在成为一项严峻的挑战,因为它在搜索领域的主导地位受到了一系列竞争对手的挑战。
谷歌的Bard项目,旨在开发一款生成式AI工具,但内部论坛上的消息显示,内部人士开始对该产品的潜力产生疑虑。一些产品经理、设计师和工程师开始怀疑Bard的有效性,并质疑公司是否值得投入大量资源用于其研发。
一位资深产品经理在论坛上表示,他对大语言模型(LLM)AI聊天机器人产生的结果持怀疑态度,认为除非信息准确性得到独立验证,否则不应信赖这些模型。另一名用户体验小组主管则认为,大语言模型目前面临的挑战是,尚不清楚它们究竟能够做什么,以及何时对人类产生重大影响。
谷歌为了应对竞争,不断为Bard添加新功能,如AI分析图片和多语言服务。然而,随着AI技术的不断发展,谷歌也开始面临一些困扰,包括AI生成虚假信息和提供潜在危险建议。为了解决这些问题,谷歌最近推出了一键搜索功能,用于核查AI生成的回应的真实性。
尽管谷歌在搜索领域处于领先地位,但生成式AI模型的崛起对其霸主地位构成了威胁。一些员工建议限制Bard在“创造性、头脑风暴的程序”中的使用,但同时也认为AI编程仍然需要人工验证代码是否有效。
谷歌回应称,对于内部论坛上关于Bard的局限性和潜力的讨论属于正常操作,希望能够听取用户的反馈以改善用户体验。
然而,除了功能和有效性的讨论,论坛上还涉及了国际政治和劳工伦理等敏感话题。有用户质疑谷歌是否将AI用作致命武器,而另一位用户则关注谷歌是否充分考虑了员工的工作条件。这些问题表明,AI技术的应用不仅仅是技术问题,还涉及道德和社会责任。
总之,谷歌内部员工对Bard的有效性和价值提出了质疑,这对谷歌来说是一项严峻的挑战,尤其是在竞争日益激烈的AI领域。