网文内容 8月9日,ISC 2023第十一届互联网安全大会在北京开幕。中国工程院院士、ISC名誉主席邬贺铨在接受中国证券报记者专访时表示,对待AI大模型安全问题,应做到“时时放心不下”,AI大模型应用需要通过安全评估才能上线。“当前安全评估工作主要由企业自己负责,不少互联网公司有安全评估资质,国家也有安全评估中心,但仍有很多安全问题没有被评估出来。人工智能技术发展和它带来的安全问题,我们认识还不够。”邬贺铨称。
邬贺铨表示,数字化将逐渐走向智能化高峰,开启人工智能时代。数字安全永远是“魔高一尺,道高一丈”,也在不断地发展演进。
邬贺铨认为,AI大模型技术发展和应用过程中存在技术安全风险和人为安全风险。一是大模型数据安全。大模型训练依托海量数据,开源数据集、互联网数据容易得到,但数据集的质量值得推敲,如果拿这些数据来训练,内容风险程度可想而知。如果用企业自有数据进行大模型训练,就要考虑数据泄露的安全风险。二是大模型算法安全。AI大模型的算法推理过程存在不可控制性,轻则得到令人意想不到的回答,数据结果存在不可解释性,重则可能出现算法失控,得出有悖社会公序良俗的不好结果。三是大模型被人为操纵后造成的安全风险扰乱社会秩序。
“技术是把双刃剑,AI大模型在方便我们生产生活的同时也带来安全风险。”邬贺铨表示,例如自动驾驶领域也要用到大模型训练,如果大模型没有做足特殊场景的算法训练,可能会在行驶中做出错误判断,造成交通事故。
“传统安全防护的手段急需升级。”邬贺铨表示,数字安全已经成为数字经济发展的焦点,人工智能等数字技术的应用本身既是安全防御的重点、手段,也是保障的有力手段,需要将大数据、人工智能、物联网等技术融合,提升保障能力。
他建议,摒弃硬件式、碎片化、弱协同的传统安全防护手段,向云化、服务化的理念升级。应该主动迎接IPV6主导的互联网时代,通过IPV6提升数据安全能力,护航数据安全流动。
温馨提示:最新动态随时看,请关注金投网APP。
|