查看原文
其他

【技术干货】张钹院士解读AI安全治理三大痛点+信通院AI数据安全治理的七条建议



清华阿里RealAI推出AI对抗攻防基准平台,张钹院士解读AI安全治理三大痛点


2021北京智源大会“AI安全与产业治理”分论坛上,清华大学、阿里巴巴、瑞莱智慧RealAI联合发布业界首个基于深度学习模型的对抗攻防基准平台Adversarial Robustness Benchmark。


▲清华大学教授、北京智源研究院安全创新中心主任朱军介绍对抗攻防基准平台


这一基准旨在全面、客观、科学地衡量算法模型的安全性。清华大学教授、北京智源研究院安全创新中心主任朱军评价这一基准具有一定学术意义,可以更加公平、全面地衡量不同算法的效果,提供方便使用的鲁棒性测试工具,全面衡量AI模型的安全性,用户通过提交模型的方式可以获取安全性的得分。


“AI安全与产业治理”论坛由北京瑞莱智慧科技有限公司与阿里安全联合举办,除了发布AI对抗安全基准外,此次论坛上,中国科学院院士、清华大学人工智能研究院院长张钹,中国信息通信研究院安全所信息安全研究部主任魏薇、阿里巴巴人工智能治理与可持续发展实验室(AAIG)主任薛晖、瑞莱智慧RealAI田天等数十位专家出席本次会议,围绕AI安全可控发展的话题展开深入探讨。


01张钹院士:AI安全与产业治理的三个问题


中科院院士、清华大学人工智能研究院院长张钹在致辞环节谈到人工智能(AI)安全与产业治理的三个问题。


▲中科院院士、清华大学人工智能研究院院长张钹致辞


一是共性问题


AI在带来传统产业智能化和智能技术产业化的同时,也带来了新的风险和安全隐患,因此AI的创新发展与安全治理要两手抓。


二是特殊问题


AI治理的特殊性,分别体现在算法、数据及应用层面。

从算法层面看,现有AI算法很脆弱,泛化能力差,当遇到新的突发事件无法处理,可能造成AI技术无意识的误用,这种脆弱性还使得AI系统易受攻击,给有意识的AI技术滥用造成可乘之机。


从数据层面来看,现有AI应用效果很大程度上依赖于数据质量,但由此会带来隐私泄漏、数据确权等问题,如果解决不好数据安全的问题,AI也不可能健康的发展。


在应用层面,AI技术已逐渐对人们的生活造成冲击。比如,看房带头盔、困在算法里的外卖骑手等,还有深度伪造之类可能对社会造成重大影响的技术,都必须保证安全可控。


三是如何解决创新发展和安全治理的问题


张钹院士认为,由于AI基础理论还未真正建立起来,我们对AI能做什么、不能做什么一头雾水,因此AI发展缓慢、曲折,安全问题层出不穷。

因此,他提出将第一代知识驱动和第二代数据驱动人工智能的结合起来,去发展建立AI的基础理论,这就是第三代人工智能的任务。


其思路是,充分利用知识、数据、算法、算力这四个要素,建立一个新的可解释的、鲁棒的AI技术,在此基础上才可能发展出安全、可信、可靠、可扩展的AI技术,以此解决AI创新发展和安全治理的问题。


“人工智能的基础理论还没有建立起来,所以更精彩的大戏正在上演。我们跟国际处在同一起跑线上,这是我们国家历史上从来没有遇过的机会。”张钹院士呼吁,“我们应该和全世界团结起来共同来发展安全可控的第三代人工智能,让人工智能真正造福于人类。”


02打造第三代人工智能,需以安全可控的核心技术为根基


瑞莱智慧RealAI CEO田天认为,从技术发展目标来看,AI技术开始接近一些核心的智能问题,包括复杂策略能力、语法理解能力、理解不确定性的能力。


近年全球人工智能商业化加速,应用场景愈发繁荣,第三代人工智能技术有助于从根本上增强人工智能的安全性、可靠性、可信性。


AI安全可以分为数据安全与算法安全两大类。数据安全具体可分为两个层次,一是数据泄漏,在应用AI的采集、存储和训练过程都可能产生数据泄漏和窃取,可能造成很大的社会经济损失;二是数据投毒,如果AI训练数据被投毒,可能导致整个AI系统发生崩溃性的风险。


算法安全中,比较典型的是对抗样本。它是深度学习范式下人工智能应用存在的结构性缺陷,通过算法修改、恶意样本供给等方式,对算法进行深层次攻击已成为主流趋势。


应用合规可控方面,既要求人工智能发展不可逾越道德伦理、法律法规的红线,又要求技术本身自主可控。


当前我国AI在基础理论和算法方面,存在原始创新能力不足的风险。在这一背景下,打造第三代人工智能,更需以安全可控的核心技术为根基,通过理论创新、技术突破,形成核心竞争力。


在田天看来,广度上,AI将成为数字基建时代的水和电,在更多应用场景和应用空间里普惠千家万户;深度上,AI在各行业领域的应用将进入专业化的深层次融合阶段,综合领域知识与算法开发能力,面向垂直领域需求,挖掘深层次应用潜力。而安全可控的AI将给AI产业带来新的动能。


03AI数据安全治理的七条建议


中国信息通信研究院安全所信息安全研究部主任魏薇在演讲期间分享了关于AI数据安全治理的七条建议。


首先,在AI发展中解决数据安全的问题。比如构建我国AI优质的数据资源,在发展中规避数据偏见、数据权属等问题;另一方面,以数据安全促进AI的发展。


第二,引导社会遵循AI的伦理规范。目前伦理规范相对来说还需加强宣传贯彻,同时要积极贡献国际智慧,参与到国际规则的制定中。


第三,建立AI数据安全相关的法律法规。推进AI和数据安全相关的立法,完善AI数据安全相关的部门规章,开展AI的数据安全执法。


第四,完善AI数据安全的监管。包括线上线下多种方式的监督检查,对AI相关的产品应用和服务进行监测评估。这方面标准已开始制定并快要发布,依据这些标准可以很好地开展评测评估。


第五,健全标准体系。可通过包括设置专门的AI安全的研究组,因为现在都是分散在各个安全组,开展一些急需标准的研制。今年国内立项的相关标准非常多,也说明大家非常重视这方面。


第六是创新AI安全技术手段。包括加强基础理论的研究,建设完善我国的AI开源学习框架,促进AI数据安全地应用。


最后是培养人才。人是最关键的,包括学校、企业和引进人才,和国外的专家进行交流等等,可以通过企业和科研机构、高校等联合进行AI安全课题的申报、技术的研发,甚至到最后的应用,大家一起共同来促进AI的数据安全治理。


04AI安全技术的落地仍处于早期阶段


随着AI技术逐渐深入到各行各业,围绕数据与算法的安全治理已经成为业界备受关注的议题,也由此衍生出一些技术热点,如联邦学习、差分隐私机器学习等技术相对在产业中落地速度较快。


AI安全的重要性日益凸显,越来越多的AI产学界专家开始探索如何打破现阶段AI技术的局限,兼顾人们对数据安全和算法可靠的诉求。


当前AI安全技术的落地仍处于早期阶段,通过产学界协同合作,更多的AI安全技术、产品及解决方案有望深入行业之中,并产生应用价值。


点击下方关注我们,记得“星标”哦!

更多人工智能治理和可持续发展技术干货+产业实践分享,请移步菜单栏精选好文


为即将到来的更多治理干货点👍
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存