查看原文
其他

全球首份!人工智能与伦理协议

联合国 数据保护官 2022-08-17

今天,人工智能影响着数十亿人的生活。它正改变我们的社会,并对“人”的含义提出挑战,虽然有时我们并没有注意到这些挑战,但它们往往会产生深远的影响。



人工智能如今无处不在,它为我们的日常工作生活带来诸多便利。


人工智能还为政府和私营部门的决策提供支持。在高度专业化的领域,人工智能技术正在带来显著变化。它还有助于应对气候变化和世界饥饿等全球问题,并通过优化经济援助减少贫困。更紧迫的是,它可以帮助我们应对新冠肺炎疫情的传播和影响。


虽然这些技术具有多种优势,但同时也因恶意使用而产生了负面风险和挑战,加深了不平等和分歧。直到现在,我们还没有通行的标准来应对这些问题。


下面,让我们一起来看看几个人工智能面临的伦理困境:

案例一

带有偏见的人工智能


以“女生”为关键词搜索图片,页面上显示的女生或年轻女性往往穿着性别特征明显的服饰。如果键入“男生”,则结果将大部分是普通男生。没有或极少男人穿着性别特征明显的服饰。


人工智能系统会提供有偏见的结果,它如同一个回声室,重现并且强化着现实世界中的偏见。


我们如何确保更均衡和准确的结果?我们可以举报有偏见的搜索结果吗?


案例二

自动驾驶汽车

自动驾驶汽车是一种能够感知环境并在极少或没有人类介入的情况下行驶的汽车。但如果一辆刹车失灵的自动驾驶汽车全速驶向一位老奶奶和一个小朋友,只要稍微偏离一点,就可以救下其中一人。它该选择救谁?老奶奶还是小朋友?


你觉得只有一个正确答案吗?

© Shutterstock.com/Senha


案例三

人工智能的法律应用

人工智能被越来越多地应用于世界各地的司法体系。与法官相比,人工智能或许可以更好、更快、更高效地评估案件和执行正义。这种越来越多地使用自主系统的趋势被称为司法自动化。


但也有许多伦理挑战存在:


人工智能工具缺乏透明度:

人类并不总能清楚明了人工智能的决策。


人工智能缺乏中立性:

基于人工智能的决策很容易出现不准确、带歧视性的结果,以及嵌入或插入式的偏见。


数据收集的监督措施和法院相关人员的隐私。


对公平性产生的新问题,以及对人权和其他基本价值的风险。


那么,你愿意在法庭上被机器人审判吗?

© Shutterstock.com/icedmocha



为了更好地解决这些问题,联合国教科文组织总干事阿祖莱近日召开新闻发布会,推介该组织成员国大会刚刚通过的首个关于人工智能伦理的全球标准


这一历史性文本确定了共同的价值观和原则,用以指导建设必需的法律框架来确保人工智能的健康发展。


2018年,教科文组织总干事阿祖莱发起了一个雄心勃勃的项目:为世界打造一个运用人工智能的伦理框架。3年后,得益于来自世界各地的数百名专家的贡献和密切的国际磋商,教科文组织的193个会员国正式通过了这个伦理框架。

© Unsplash |  街头的人工智能技术

世界需要为人工智能制定规则以造福人类。《人工智能伦理问题建议书》是一个重要的举措,它制定了首个规范性全球框架,同时赋予各国在相应层面应用该框架的责任。教科文组织将支持其193个会员国落实《建议书》内容,并要求它们定期报告相关进展和做法。


奥德蕾·阿祖莱

联合国教科文组织总干事



《建议书》旨在实现人工智能给社会带来的积极效果,同时预防潜在风险。它包含以行动为导向的政策相关章节,涉及数据管理、教育、文化、劳工、医疗保健、经济等多个领域,将应对与透明度、问责制和隐私相关的问题,从而确保数字转型能够促进人权,并推动实现可持续发展目标。

1.

数据保护

《建议书》呼吁,在科技公司和政府已采取的措施之外,我们还需要更多行动,通过确保透明度、行动力和对个人数据的控制来保证个体得到更多保护。


它指出个体应该有权访问甚至删除其个人数据记录。它还包括改善数据保护和个体对自身数据的了解和控制权的行动,并将提高世界各地的监管机构的执行能力

2.

禁止社会评分和大规模监控

《建议书》明确禁止使用人工智能系统进行社会评分和大规模监控。


此类技术极具侵入性,它们侵犯人权和基本自由,且被广泛使用。


《建议书》强调,成员国在制定监管框架时应考虑最终的责任和问责必须始终由人类承担,人工智能技术本身不应获得法律人格。

3.

帮助监测和评估

《建议书》还为协助自身的落实提供了工具基础。伦理影响评估意在帮助开发和部署人工智能系统的国家和公司评估这些系统对个人、社会及环境的影响。


准备程度评估方法帮助成员国评估本国在法律和技术基础设施方面的情况。这一工具将有助于提高各国的机构能力,并建议采取适当措施,以确保伦理规范在实践中得到遵守。


此外,《建议书》鼓励会员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测。

4.

环境保护

《建议书》强调,人工智能行为者应支持节约数据、能源和资源的人工智能方法,这将有助于确保人工智能成为应对气候变化和解决环境问题的更有效工具。


它要求政府评估整个人工智能系统生命周期的直接和间接环境影响,包括其碳足迹及人工智能技术制造所需原材料开采的能源消耗和环境影响。


《建议书》还希望减少人工智能系统和数据基础设施的环境影响。它激励政府投资于绿色科技,摈弃对环境有不成比例的负面影响的人工智能系统。

人工智能等新兴技术已经展示了其带来积极变化的巨大能力,然而其负面影响正在加剧一个已经处于分裂和不平等状态的世界,这一方面必须得到控制。


人工智能的发展应遵循法治、避免伤害,并确保在伤害发生时拥有问责和为受害者提供补偿的机制


为了支持智能时代的教育政策及规划,2019年5月,联合国教科文组、中华人民共和国教育部与中华人民共和国联合国教科文组织全国委员会于北京共同举办了首届国际人工智能与教育会议。


2019年的国际人工智能与教育会议发布了关于人工智能与教育的首个国际共识——《北京共识》。《北京共识》建议教科文组织加强其在人工智能与教育及各相关领域的引领作用,调动本组织各机构和网络,进一步扩大与组织外合作伙伴在人工智能与教育领域的合作。


在这个特殊的历史时刻,亟需召集全球共同探讨如何加强人工智能治理和人工智能创新的联络沟通。为了响应这一需求,联合国教科文组织与中华人民共和国教育部、中华人民共和国教科文组织全国委员会,将于2021年12月7日至8日共同举办线上的国际人工智能与教育会议,主题为 “确保人工智能服务共同利益,促进教育转型”


会议将围绕以下分议题展开:


人工智能与教育的全球治理和国家政策


确保人工智能服务于教育共同利益和推动实现2030年教育可持续发展议程


挖掘数据以加强教育管理和学习评估

引导人工智能创新支持教育的包容性、公平性及性别平等催化


促进人工智能在非洲的应用:建立伙伴关系


© Unsplash |  人工智能

我们需要国际、国家层面的政策和监管框架来确保这些新兴技术造福全人类。


我们需要以人为本的人工智能。人工智能必须为人类的更大利益服务,而不是反其道而行之。


#DPOHUB介绍#


愿景

  • 一个聚焦数据隐私和数据安全的非盈利性高端学术平台

  • 一个整合法律、技术及管理的专业数据合规生态体

  • 一个制造干货、相互赋能及塑造职业品牌的数据合规共同体


实践

  • 宗旨:实现国际化和本土化深入融合的高端智库。以全球视野,为中国数据立法建言;以中国智慧,为国际数据规则献策。

  • 定位:强调俱乐部的公益性、专业性及影响力。

  • 形式:定期举行线下闭门会议,至少2月一次。

  • 主题:意在解决企业最急需解决的数据合规实务问题。

  • 方案:聚焦“法律+技术+管理”的落地化解决方案,强调差异化策略。

  • 成员:发起人和会员都仅限甲方,乙方只能以合作者或志愿者方式有限度地参与。

  • 特色:定期发布深度报告和白皮书,并择机结集出版。


会员申请|DPOHUB数据保护官俱乐部

申请条件


  • 认可DPOHUB的理念及宗旨;

  • 愿意积极参与DPOHUB的线上线下活动;

  • 愿意参与撰写深度报告、白皮书及实务文章;

  • 甲方从事数据隐私或数据安全的工作;

  • 愿意缴纳年费


扫描二维码,立即报名


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存