7月7日消息,全国政协委员、全国工商联副主席、奇安信集团董事长齐向东在出席BCS2023北京网络安全大会期间接受媒体采访时谈到当前火热的生成式AI大模型的安全问题,他认为主要涉及到四个方面。
针对这四个安全问题,齐向东表示:安全问题一,是AI在意识形态领域、在文化和价值观方面是否合规,属于内容安全领域,这块网信办在统筹协调相关的部门和单位来负责。
安全问题二,是“关于企业内部员工向公共AI平台投喂数据这件事引发的安全问题”,这属于数据泄露问题,奇安信能管理。
有数据统计,有2.3%的员工通过向ChatGPT投喂数据导致公司的,或者单位的数据泄露,因为这属于数据泄露问题。奇安信有一整套解决方案,能够解决内部员工向ChatGPT投喂数据导致的数据泄露问题。
安全问题三,是“企业部署的大模型系统的安全问题”,如果企业内部有自己本地部署的大模型的系统,奇安信有一套解决方案保证这个大模型系统的安全。
安全问题四,“企业希望采用ChatGPT等AI大模型产品为自身的网络安全作出贡献”,这属于网络安全人才培养问题。奇安信也可以让企业的通用大模型成为高级的网络安全人才。
齐向东强调:”AI再厉害也是IT,它也是由软件组成的,它也是由硬件组成的。我们安全公司管的就是软件漏洞,管的就是软件后门,管的就是软件作恶。作为安全公司,在未来AI的时代我们应该有更强的使命感,更高的责任感,要倍加努力。“