查看原文
其他

ISACA Vlog | 人工智能的道德与问责

ISACA ISACA
2024-09-16

点击上方视频立即观看


ISACA新兴技术专业实践负责人Collin Beder与佛罗里达大学助理教授Ivy Munoko一起探讨人工智能的道德和问责。Ivy最近在ISACA Journal发表了一篇关于人工智能的能力与风险的文章。


Collin:人工智能系统能够提供这么多不同的嵌入式技术,那么人工智能数据的使用和算法有哪些道德问题呢?


Ivy:当我们谈到人工智能时,我们总是想通过使用人工智能达到一个过去实现不了的目标。可能是一个我们渴望的结果。例如,有一家审计公司正在尝试使用人工智能,增强分析能力,比如为客户快速分析数千条记录。这是出于良好的意愿使用人工智能。然而,不同的意图使用人工智能可能会导致其他意想不到的后果。因此,在我的文章中,我强调了一些可能发生的事情。例如你可以把一个高度手动的过程自动化,这是一个很好的意图,你可以使用一个自主的人工智能来实现这一点。然而,您可能会发现,那些最初执行手动流程的人现在被部署到新的任务中,他们可能需要进行更高层次的思考。他们还没有受过训练,或者他们还没有准备好执行新角色所需的更高层次的思维。因此,如果你不能正确规划和有意部署你的人力资源,以便在你越来越多地使用人工智能时,你的员工能够获得成长的技能,总有一天你会发现你对组织的期望与你使用人工智能带来的结果之间可能会有很大的差距。因此,在企业中会出现这些意想不到的后果。但即使在现实世界中,有些公司,我不具体说公司的名字,比如那些安装了聊天机器人与客户互动的公司。我们发现,这些聊天机器人有时会无意中开始向人类学习。它们本来应该成为能够代表公司的受人尊敬的机器人或客户代表,但是有些聊天机器人缺被发现对待客户或与它们打交道的人非常无礼,这是因为它们从以前与其他人的互动中学会到了无礼的态度。这就是使用聊天机器人或人工智能的意外后果,它们可以学习负面特征,并尝试在更高的水平上复制这些特征。因此,我们不仅要考虑如何使用AI,而且要持续监控正在使用的AI,看看它是否真的按照您的预期运行,这是非常重要的。


Collin:为什么要建立人工智能系统的问责制?如何才能加强这种问责制?


Ivy:这是目前研究的热点话题,不仅是学术研究。有很多机构,例如在会计领域的国际会计道德标准委员会IESBA,还有许多其他委员会,道德委员会,正在考虑建立人工智能的问责制框架。简单来说,我们面临的挑战是当一个自主的算法正在操作和执行任务,如果出了问题,谁会负责?想想自动驾驶汽车。如果发生事故,谁负责?是买车的人吗?是汽车制造商吗?还是汽车当时行驶的道路?谁应该对事故负责?这是一个例子。这也是在不同领域提出的问题,包括会计领域。比如技术领域,这也是一个热门的话题。是由开发软件的第三方负责吗?还是软件的用户吗?使用软件的人是否有能力减轻这种风险?因此,向不同领域分配使用人工智能的责任是一件复杂的事情,也是目前正在引起争论的事情。有许多框架试图解决这些问题。但同样,随着你需要越来越多的案例研究,你需要越来越多的应用场景才能梳理出在增强环境中使用人工智能的不同复杂性。


Collin:你认为使用自主人工智能的正确方式是什么?例如,在自动驾驶汽车这个例子中,你认为谁应该负责?


Ivy:这很难,因为这就像一个法官,对吗?你必须提出一个案例,你必须分析具体情形。在某种程度上,两个可能看起来完全相同的案例,仅仅因为一个微小的变化,它们会通往两个截然不同的方向。所以我认为这完全取决于场景,需要具体情况具体分析。我们需要很多人来思考这个问题,我们需要用户思考这个问题。每一个部署或正在使用人工智能的人都应该考虑责任,以及可能发生的意外后果。我认为,特别是监管机构需要与部署人工智能的公司密切合作,监管机构也应该与技术公司密切合作,这样才能制定基于案例研究和观察的适用的监管要求。我不能说谁应该负责,我觉得我们都需要负责。我们都需要参与这方面的研究——解决自主算法的责任分配问题,特别是如果我们在自己的公司里部署自主算法,以及如果我们正在监管广泛适用人工智能的领域。


Collin:人工智能技术今天面临哪些挑战?


Ivy:很多年前我还很年轻的时候,当时我读到的是,那个时候的挑战是计算能力,不过随着计算速度的提高,这类问题越来越得到解决。现在我们的问题正朝着另一种类型的问题发展,即提供给算法的数据。所以算法是从数据中学习的,大多数算法都是从数据中学到的。它们从哪些数据中学习?例如,对于一个预测未来天气的算法,要预测明天的天气可能需要查看过去100天的天气。如果过去100天的数据是完整的,准确的,那么这就增强了它准确预测未来天气的能力。但如果数据不完整、不准确或不能很好地反映实际发生的情况,这将影响未来的可预测性和它对未来的预测。问题是,在许多情况下,我们试图在没有足够数据、完整数据或有代表性数据的情况下使用或部署人工智能。这实际上影响了我们算法的预测,影响了我们应用和计划使用的这些算法的效率或有效性。总而言之,我认为数据正成为我们讨论的热门话题。我们正在意识到,很多情况下我们依赖的算法,如果它使用的数据不具有代表性,就会导致意外的后果。所以,我个人觉得,数据确实是当前我们所有人都在努力解决的一大问题。我们从何处获得数据,如何使数据具有代表性,以便做出准确的预测?


继续滑动看下一个
ISACA
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存