查看原文
其他

个保法两周年 | AI技术发展中的隐私风险与应对

支云龙 ISACA
2024-09-16


引言:ISACA作为全球IT审计权威机构,近年来持续关注个人信息与隐私保护,推动全球数字信任生态的建立。2020年ISACA推出了备受全球专业人士青睐的CDPSE注册数据隐私安全专家认证,为组织和个人提供专业经验和实施能力的双重背书。针对各国不同的监管要求,ISACA还开发了各种资源,包括GDPR审计指南隐私监管查询工具《ISACA个人信息保护能力成熟度评估最佳实践指南》等,助力企业合规体系建设。


恰逢个保法实施两周年之际,ISACA特邀《实践指南》首席开发人员、ISACA中国技术委员会委员支云龙先生,从实务角度分析AI技术对隐私的威胁及风险,并分享了《实践指南》的使用方法,助力专业人士和组织在内部进行个人信息保护保护合规审计,建立有效的个人信息保护能力,进而建立其全面的数字信任体系。‍





一、 AI技术给生活带来的光与影






随着人工智能技术的快速发展,各类AI应用日新月异,正在深刻影响和改变人类的生活。


最近,一件小事吸引了我,我发现自己的华为手机升级鸿蒙4.0后,多了一个叫做“小艺通话”的功能,它可以像人类一样进行对话,帮助主人在不方便时接听电话。有一次,当我使用小艺助手应对骚扰电话时,没想到对方也是一个AI语音系统。于是,两个AI就自顾自地进行了一次长时间有趣的交流。这激发了我的思考:AI技术的发展究竟是给我们生活带来更多的便利,还是更多的隐忧?



最近,微软计划推出基于VALL-E模型的语音克隆产品,只需3秒音频就可以克隆任何人声音。还有报道显示,大型语言模型可以分析人说话内容并准确判断个人信息,其准确率达到95.8%。这两则消息充分展现了当前语音识别和自然语言理解技术的进步,AI在处理语音和文本数据上的能力已经超过了人类。



一方面,AI技术可用于许多正面的用途,例如,利用语音克隆技术来怀念逝去的亲人,利用语言分析的能力支持刑侦工作等等。但另一方面,这些技术也可能被用于身份盗用、诈骗等非法用途。


试想一下,当有人利用AI技术克隆你的声音、样貌、利用ChatGPT来欺骗你的家人,谁能够分辨真伪?谁能保护你的家人?



AI对语音和语言的深入理解,既让人感到兴奋,也让人担心,担心它可能给公民隐私带来的风险。AI技术如同一把双刃剑,我们必须充分认识AI技术进步的双面性,防患于未然。






二、 AI技术对隐私的威胁与风险





在过去,人类与机器最大的差异之一就是对“模糊感念”的理解。以“冷”为例,对于人类来说,“冷”是一种主观感受,而非客观准确的温度。而对于机器来说,“冷”必须是一个准确的温度。语言正是这样模糊的产物,其中的模糊性和不确定性构成了人类沟通的本质特征,使我们的语言世界远比机器世界更加复杂深邃。


人类曾认为这是机器难以逾越的鸿沟。然而,随着自然语言处理(NLP)技术的不断进步,AI模型已经具备了阅读和生成文本的能力,对人类语言有了更深入的“理解”,人机之间的隔阂正在逐渐被消除。


此外,AI技术应用于海量用户数据分析,通过机器学习算法建立极为精细和全面的用户画像,实现精准推送、营销甚至操纵;将AI技术应用于身份特征提取,使AI可以通过极短时间内获取的少量个人数据(如面部或书写笔迹),来实现身份克隆。这些都给人们的生活安全和信息隐私带来了前所未有的巨大挑战和威胁。一旦AI被恶意利用,其社会危害将难以预料。


AI之所以存在这些风险,源于其自身技术特征,即AI是一个数据驱动的不透明复杂系统。


具体来说,AI依赖大数据训练,工作机制不透明;系统架构日益复杂,决策过程无法解释。这些技术特征都可能导致算法歧视、决策失误、隐私泄露等问题。



特别是AI对大规模个人隐私数据的分析利用,将极大地增加了个人隐私被侵犯的风险。我们必须正确认知AI技术特点和局限性,才能够建立健全AI风险控制机制,真正实现对AI的风险控制。






三、 如何应对AI技术发展的风险





为有效应对AI技术发展的风险,我们可以从风险的根源入手:


风险源于威胁利用资产的漏洞对资产生影响的可能性。


因此,想要控制AI风险,就要从两个维度着手:第一,控制威胁来源,第二,管理自身漏洞。


1. 控制威胁来源


控制威胁来源需要注意两点:第一,控制AI技术自身造成的威胁。这需要建立对关键技术的监管,保证数据和算法的公平性和透明度。第二,管理利用AI技术的人的行为。这需要加强对使用AI的法规建设,提高公众识别和防范AI威胁的意识。只有系统性地从AI技术和使用端双管齐下,才能从源头有效管控AI风险威胁来源。


针对AI技术发展所带来的威胁,全球也在积极探讨监管之道。欧盟国家倡导“先规范后发展”,要求首先建立AI监管法律体系;美国则倡导“先发展后规范”,在引导创新发展的同时,对问题领域进行针对性治理。我国也采取稳步推进的策略,既高度重视AI技术发展,又通过立法规范引导其健康发展。例如2023年8月15日开始执行的《生成式人工智能服务管理暂行办法》,10月李强同志在南巡时提出的大力发展大数据产业和人工智能新兴行业的指示,就表明了我们国家对待AI技术的既不能急功冒进,又不能因噎废食的态度。



2. 管理自身漏洞


由于AI技术对于个人隐私安全存在巨大的挑战,管理自身漏洞的关键是企业要严格规范个人信息处理工作。


2021年我国出台的《个人信息保护法》为企业个人信息处理工作的合规性提供了基本要求。该法明确规范了个人信息的收集、存储、使用、销毁等各个环节的合规要求,强化了个人信息处理的合法正当原则。《个人信息保护法》与《网络安全法》《数据安全法》一样,都是企业在中国必须遵守的基本法律。


尽管《个人信息保护法》已经出台两年,但个人信息保护工作仍任重而道远。许多企业都意识到加强个人信息保护的重要性,但由于缺乏方法指导,难以落实。为帮助企业解决这一实际困难,ISACA中国技术委员会汇聚行业专家深入解读该法,编制了《ISACA个人信息保护能力成熟度最佳实践指南》(以下简称实践指南或指南),为企业的个人信息保护合规工作保驾护航。





四、 实践指南的特点





该实践指南具有以下几个特点:


1. 指南分为上下两册,以满足企业内部不同的管理需求。


《ISACA个人信息保护能力成熟度评估最佳实践指南(上)——基于个人信息生命周期的安全管理》侧重个人信息全生命周期管理,其结构包括个人信息治理框架、收集、传输、存储、使用和删除6个方面。这覆盖了个人信息从产生到删除的完整过程,每部分都提出了详细的控制要求。这种结构设计符合内部管理人员需要全面了解个人信息流程的要求。


而《ISACA个人信息保护能力成熟度评估最佳实践指南(下)——个人信息日常安全运营和保障》更侧重日常安全运营与保障,其内容涵盖个人信息保护制度、组织管理、培训、第三方管理、技术措施、权利响应、影响评估、事件处置和监管9个方面。这种结构助力各职能部门从日常工作出发落实个人信息保护。



该上下册设计平衡了管理与运营的需要,实现了指南体系的全面性。


2. 指南内容详实丰富。


指南上册包含20个控制目标、71个控制点,下册包含26个控制目标、85个控制点。


这确保了指南几乎覆盖了个人信息管理的方方面面,为企业提供了详尽的检核清单。


同时,针对每个控制点,指南都进行了细致的解读,明确标注了其所依据的法律条款,不仅针对《个人信息保护法》,而且还对标了GDPR中的条款。这为企业顺利对标我国和国外法律法规提供了便利。



此外,针对每个控制点的测试步骤,指南都提出了从测试步骤到最佳实践的详细建议,并提供了最佳实践和相关框架标准作为参考。这为企业落实控制要求提供了具体指导。



通过这样全面系统的内容设计,指南才能发挥其重要的指导作用。


3. 指南参考多个相关法规,汇聚各行业实践经验,确保覆盖广泛。


在编制过程中,专家组参考了包括《个人信息安全影响评估指南》《互联网信息服务算法推荐管理规定》《儿童个人信息网络保护规定》等多个相关政策法规。


同时,还汇聚了不同行业的实践案例,给出了丰富的实践指导,例如在个人面部信息采集的处理流程中,就区分了个人信息主体授权的业务场景和公共区域非授权的业务场景下需要考虑的实践经验等。

 


这确保了指南不仅贯彻国家个人信息保护总体要求,也吸收了各行各业的具体实践与经验。这样多视角的设计进一步丰富了指南的参考价值,使其覆盖面更广,适用性更强。





五、 实践指南的使用方法





1. 根据工作需求,选择使用上册或下册。


首先,人员需要根据自身的工作职责和需求来选择使用上册或下册。对于从事内部审计和管理工作的人员,他们经常需要对某一业务进行横向对比各部门的控制措施是否符合要求。为满足这种需求,使用上册《基于个人信息生命周期的安全管理》更合适,因为上册以个人信息收集、存储、使用等全生命周期为主线,能够帮助人员顺着业务流程进行控制要点的检查。而对于安全部门等专门从事个人信息日常管理的人员,使用下册《个人信息日常安全运营和保障》更为贴切。下册以组织的持续管理为主线,有利于人员针对日常工作落实控制要求。


2. 根据所在行业监管要求,对指南中的流程环节和控制点进行必要的定制化调整,制定适用的评估方案。


不同行业对个人信息管理有不同的监管要求。例如,金融行业需要考虑遵守包括信用信息管理在内的多个方面的监管要求,而互联网企业则更集中于网络安全和用户信息处理流程。因此,在使用该指南时,企业需要根据自身行业监管规定,对指南中的流程环节和控制点进行必要的调整,以制定符合本行业特点的评估方案。这包括删除不相关的部分,增加行业特有的控制要求等。这样制定出来的方案,才能真正适用于该企业的合规评估需求。



3. 按定制的评估方案开展测试,并如实记录过程和结果。在测试后,对发现的问题提出整改措施。


在制定好评估方案后,企业可以组织相关人员按照方案要求开展测试工作。测试时需要详细记录过程,如对某项控制的检查方式、谈话对象、数据查看等,并如实归纳测试结果。测试结束后,对发现的问题需要进一步分析原因,提出有针对性的整改措施,例如完善制度、加强培训、配置新工具等。同时要设置整改时间表,对整改效果进行复测。这样可以形成闭环的管理流程。


4. 根据测试结果持续优化完善企业的个人信息保护管理工作。


个人信息保护管理需要一个持续改进的过程。企业可以定期组织开展评估测试,发现问题并整改。同时还要关注外部监管政策、技术发展等变化情况,不断对管理工作进行优化和升级,使之与时俱进。只有持续推动这项工作,才能促进企业个人信息管理水平的稳步提高。





六、 写在最后





AI和其他新兴技术都具有双重属性,既能创造巨大价值,也存在潜在风险。我们必须保持清醒的认识,充分看到科技进步的光明面,也要高度关注其潜在阴暗面。只有坚持建立健全法规体系,实现技术发展与公共利益的和谐统一,人与AI才能真正实现合作共生、繁荣发展。




往期推荐

趋势与观点 | AI战略:解码中国人工智能治理战略


趋势与观点 | AI改变组织和专业人员处理信息风险和安全的五种方式


工具下载 | ISACA为个人信息保护合规审计保驾护航




作者:支云龙,持有CISA、CISM、CRISC、CDPSE等认证,ISACA中国北京社区志愿者,ISACA中国技术委员会委员,《风险视角下中国企业数字化转型应对指南指南》首席开发人员,《数字信任生态框架》Digital Trust Task Force成员,《ISACA个人信息保护能力成熟度评估最佳实践指南》首席开发人员,现就职于丰田金融服务(中国)有限公司。

继续滑动看下一个
ISACA
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存