根据ISACA(信息系统审计和控制协会)进行的一项全球调查,亚洲有三成企业缺乏生成式人工智能(AI)政策,同时65%的受访者认为敌对势力成功地利用了AI技术。
这项名为“Generative AI2023: An ISACA Pulse Poll”的调查涵盖了来自全球各地的数字信任专业人员,其中包括660多名亚洲从事网络安全、IT审计、治理、隐私和风险管理工作的专业人员。调查主要探讨了生成式AI的员工使用情况、培训、道德实施、风险管理、敌对势力利用以及对工作的影响。
尽管很多受访者所在的企业没有明确的政策支持,调查发现员工仍在使用生成式AI。在亚洲受访者中,只有32%的企业明确允许使用生成式AI,仅有11%表示有明确的全面政策,而30%表示没有相关政策,也没有计划制定。尽管如此,超过42%的受访者表示员工仍在使用,而另外30%的人表示不确定情况。
亚洲的员工使用生成式AI的方式多种多样,包括创建文本内容(67%)、提高工作效率(41%)、客户服务(如聊天机器人)(30%)、自动化重复任务(28%)以及改善决策制定(23%)。
然而,尽管员工积极使用该技术,只有5%的受访者所在企业为所有员工提供AI培训,而超过一半(52%)表示根本没有提供AI培训,即使是那些直接受AI影响的团队也没有培训。只有23%的受访者表示自己对生成式AI非常熟悉。
调查还探讨了与AI相关的道德担忧和风险。其中29%的受访者表示对AI实施的道德标准付之阙如。另外,25%的受访企业认为管理AI风险是当务之急,31%表示这是长期任务,而29%的受访者表示他们的企业目前没有计划考虑AI风险,尽管受访者认为以下是该技术的前三大风险:
- 虚假信息/误导信息(65%)
- 隐私侵犯(64%)
- 社交工程(48%)
有将近一半(45%)的受访者表示非常或极度担心生成式AI会被恶意利用。同时,65%的人认为敌对势力与数字信任专业人员一样或更成功地使用AI。ISACA印度大使和Versatilist Consulting India Pvt Ltd的董事RV Raghu表示:“数字信任专业人员必须接受AI培训和教育,不仅要理解和成功利用这项技术,还要充分了解涉及的风险。随着AI的快速发展,这项技术的误用、误解或滥用的方式也在不断增加,专业人员需要拥有知识和技能来引导其组织安全、道德和负责任地使用AI。”
关于AI对工作的影响,亚洲受访者认为,安全(52%)、IT运营(46%)、风险团队(44%)和合规团队(26%)负责安全部署AI。在未来展望方面,近四分之一(24%)的亚洲受访者表示,他们的企业将在未来12个月内开设与AI相关的工作岗位。尽管57%的人认为将因AI而消失大量工作,但数字信任专业人员对自己的工作持乐观态度,71%的人表示AI将对他们的角色产生一定积极影响。为实现积极影响,86%的亚洲受访者认为他们需要额外的培训来保住工作或提升职业生涯。
尽管AI引发了不确定性和风险,84%的亚洲受访者认为AI对其行业、组织和职业将产生积极或中性影响,同时76%的人认为AI将对整个社会产生积极或中性影响。他们还表示AI是一种能够提高人类生产力的工具。