7月6日,奇安信董事长齐向东在接受包括新京报贝壳财经在内的媒体采访时回答了一系列关于AI大模型的问题,包括大模型的推进进度,奇安信在AI安全上的工作边界,对AI监管以及超智能AI的看法等。

解释奇安信AI安全工作边界

齐向东表示,奇安信会在适当的时候发布大模型,“我们是为政府和企业客户服务的,目前我对我们在大模型上的进度非常满意,但我们对这个产品要求比较高,未来我们发布的人工智能产品一定是对政府和企业客户可以交付时,我们才能发布。”


(资料图)

对于目前国内各行各业纷纷进军大模型,齐向东也解释了奇安信在AI安全上的工作边界。

“首先,AI在意识形态领域,即文化和价值观方面是否合规属于内容安全领域,网信办在统筹协调其他的部门和单位在做这件事。所以奇安信不做,我们还是秉承奇安信原来的发展路径,而内容安全、内容合规方面不是奇安信的主业。”

“第二,关于内部的员工向公共AI平台投喂数据引发的安全问题,奇安信管,因为这属于数据泄露问题。有数据统计称,有2.3%的员工通过向ChatGPT投喂数据导致公司或单位的数据泄露。对此,奇安信有一整套解决方案,能够解决内部员工向ChatGPT投喂数据导致的数据泄露问题,这是我们的责任。”

“第三,如果公司内部有自己本地部署的大模型系统,我们保证这个大模型系统的安全,这是奇安信的责任和使命,我们也有一套解决方案。”

“第四,如果想让大模型能够为公司的网络安全作出贡献,这属于网络安全人才培养问题,也是奇安信的责任,我们可以帮助,让你的通用大模型成为高级的网络安全人才,这是奇安信的任务和使命。”齐向东说。

要让AI学会造福他人,防止AI作恶安全公司有更强使命感

此外,AI未来能否获得“超智能”以及如何监管AI,也是人们对大模型发展关注的重点。对此,齐向东表示,我们对超智能并没有一个严格的定义,超智能是OpenAI对AI未来前景展望的乐观估计。也就是说,按照现在这个速度,算力发生了革命性的变化,模型的参数不断地放大,它就产生重大的涌现。

而在对AI的监管上,齐向东认为,近朱者赤,近墨者黑,一个人一直在积极正能量的环境里,就有助于培育阳光、健康的精神世界。反之,一直身处负能量、消极的环境里,文化和价值观都会受负面影响,所以需要用不出现偏颇的语料训练AI。

在齐向东看来,对AI的监管不要停留在意识形态领域,“AI的犯罪怎么约束,怎么样让它变成一个永远都不犯罪的人,永远利他的人。如果是一个超级AI,一个机器人,它每天想的是怎么样造福于周围的人,那我们世界就更美好了。所以,我觉得监管更多是在这些方面,这个监管我相信能够做得到。如果机器人监管不了,还有安全公司,我们安全公司就是防止IT作恶的,AI再厉害也是IT,也由软硬件组成。安全公司管的就是软件漏洞,管的就是软件后门,管的就是软件作恶。所以,我们作为安全公司,在未来AI的时代,我们应该有更强的使命感,更高的责任感,要倍加努力。”

新京报贝壳财经记者吉喆

(文章来源:新京报)

关键词: