ChatGPT 自问世以来,一直在 AI 技术创新领域扮演着改变游戏规则的角色。美国是全球 ChatGPT 用户中最多的国家,占总数的15%。ChatGPT 在美国的企业中的使用就像是一把魔杖,快速改变着各行各业。
目前,公司正在探索如何使用 AI,尤其是生成式 AI。许多企业对于像 ChatGPT 这样的动态工具带来的变革感到兴奋。但是,除了兴奋和激动之外,一些美国企业也在小声担忧与使用这项技术奇迹相关的风险。
本文揭示了美国在开发类似 ChatGPT 这样的 AI 驱动聊天机器人方面的活力创新景象。所以,让我们来看看即将到来的 ChatGPT 的未来中有什么惊喜,既令人兴奋又带着一丝谨慎和担忧的味道。
最近 AIPRM 进行的一项调查探讨了美国企业对使用 ChatGPT 的看法。上个月,AIPRM 联系了3000家公司的专业人士,以了解 ChatGPT 在企业中的使用情况。
医疗保健公司对在业务中使用 ChatGPT 持保留态度。根据 AIPRM 的报告,约有24% 的医疗保健公司对 ChatGPT 在数据安全方面表示不信任。
在企业界中,还有其他行业也对数据安全问题存在疑虑。约有14% 的与建筑行业有关的受访者,其次是制造业、行政和支持服务、以及专业、科学和技术服务,比例各为8%。
但是,与之相反,涉及科学和技术服务的公司正在拥抱 ChatGPT 及其功能。约有33% 的科学和技术服务公司经常使用 ChatGPT,其次是零售行业占30%,最后是住宿和餐饮服务行业占24%,为 ChatGPT 的粉丝俱乐部增添了人气。这些理论上的差异使得在企业中使用 ChatGPT 成为一个充满偏爱和不信任的过山车之旅。
根据 AIPRM 的研究,多个企业提出了与在企业中使用 ChatGPT 相关的一系列问题。以下是报告中的内容:
安全风险
在与在企业中使用 ChatGPT 相关的担忧方面,受访者对 ChatGPT 的使用和整合到业务中的多个方面表示担忧。但最大的担忧是潜在的安全风险。报告称,约有22% 的参与者对与使用 AI 工具相关的安全方面表示不确定。
在 ChatGPT 的表演中,有多个行业作为观众瞪大眼睛期待着未来将展开的剧情和可能出现的情节转折。AIPRM 首席执行官 Christopher C Cemper 在一份新闻稿中表示,在企业中使用 ChatGPT 时,安全风险是首要关注的问题之一。Cemper 表示:“许多用户可能最关注的首要问题是潜在的安全风险,虽然生成式 AI 可能会被恶意攻击者滥用,他们希望获取数据并造成破坏,但使用防病毒软件和安全文件共享,工作场所的计算机系统将得到保护。”
此外,正确使用防病毒软件和安全文件共享平台可以帮助应对安全担忧。行业和企业还应该检查他们使用的 AI 工具是否合法,并且在之后不会引发法律问题。在某些情况下,生成式 AI 可以充当救世主,节省时间和金钱,并在防止错误信息方面提供保护。
谈到 AI 的进展,Cemper 表示:“一个关键因素是确保您始终了解技术行业的最新进展。这将有助于提高对 AI 的能力、限制和风险的理解。”Cemper 打破了企业对 ChatGPT 使用的顶级担忧,并分享了如何正确使用 AI 来提升绩效的见解。他认为,某些行业可能会对在工作场所使用新技术时的不可预测结果感到恐惧,特别是对于网络安全风险的担忧。谈到使用 ChatGPT 在企业中存在的不可预测的安全结果和风险,Cemper 表示:“AI 本身并不是风险,相反,只要对工具有良好的控制,它可以提高业务绩效。”
法律和合规问题
在列举担忧时,AIPRM 表示,15% 的受访者对 ChatGPT 在企业中的法律和合规问题存在疑虑。将 ChatGPT 用于业务操作被认为是一种数字绳索行走,稍有不慎就可能无意中产生侵犯版权的风险。
使用由 AI 生成的内容可能会导致无意中违反知识产权法,从而导致版权或侵权诉讼。
此外,公司应该能够确认训练数据的来源,并确认他们的 AI 供应商是否有处理数据的合法权力,以避免任何法律问题或 GDPR 罚款。
在谈到由 AI 生成的内容时,Cemper 表示:“使用由 AI 生成的内容可能会导致无意中侵犯现有的知识产权,从而可能导致版权或侵权诉讼。此外,为了避免任何此类索赔或 GDPR 罚款,企业应该能够核实如何获取训练数据,并验证他们的 AI 供应商是否有合法的数据处理基础。”
查询误解
此外,研究报告称,约有21% 的受访者担心查询和提示会被误解。解决这个问题的简单方法是更加明确地提供查询,并避免模棱两可,以防止误解。复杂的查询可以分解成较小的部分,以便聊天机器人能够正确理解。
在发送查询之前,检查和编辑查询也可以进一步提高在企业中使用 ChatGPT 的体验,同时为不断改进提供反馈。
虚假 / 误导信息
最后,15% 的受访者也担心在企业中使用 ChatGPT 时产生虚假信息的风险。考虑到每天向 ChatGPT 提供的大量数据,虚假信息传播的可能性是用户经常面临的最大担忧。
生成式 AI 是一把双刃剑,它确实有助于提高生产力和多任务处理能力,但它在提供正确信息方面也会失败,有时会为用户创建虚假信息。一个很好的例子是要求 ChatGPT 将研究报告链接到一个故事中,因为 ChatGPT 可以在未经核实来源的情况下添加虚假报告。此外,ChatGPT 还可以帮助有意误导他人的人提供虚假信息。
然而,通过与可靠来源交叉参考内容,先进的 AI 技术也可以帮助识别虚假叙述和信息。AIPRM 的报告揭示了生成式 AI 的这种双重性质以及其在美国企业部门中的使用。