人工智能伦理和IT审计师的角色

洁西索迪亚
作者: 洁西索迪亚
发表日期: 12月6日

人类一直生活在某些道德规范之下,这些规范是由他们的澳门赌场官方下载所驱动的. 这些规范通过规章制度、社会影响和公众互动来执行. 但人工智能(AI)也是如此吗??

人工智能的目标是帮助提高日常任务的效率和有效性. 然而,人工智能不具备像人类那样推断或理解信息的能力. 它使用大量的计算能力从大量的数据中获得可以挑战认知的见解.

记住这一点, 想想如果将大量有偏见的数据输入人工智能系统会发生什么. 人工智能系统很容易成为加剧道德问题的工具, 比如社会不平等, 在规模. 因此, 在设计时仔细考虑道德规范是至关重要的, 操作和审计人工智能系统.

审视人工智能伦理

根据IBM的 行动中的人工智能伦理 报告, 人工智能伦理通常被认为是一个多学科的研究领域,旨在通过优先考虑人类的能动性和福祉,同时降低对所有利益相关者不利结果的风险,来优化人工智能的有益影响.”1

人工智能可以成为减少偏见影响的有力工具, 但它也有可能通过在敏感领域大规模部署偏见而使问题恶化.

美国国家标准与技术研究院(NIST)特别出版物(SP) 1270确定了人工智能应用容易产生的三类偏见:2

  1. 系统性的偏差,由组织的政策和程序产生的结果,这些政策和程序以一种更有利于某个社会群体的方式运作. 当人工智能模型得到基于性别或种族等特征的有偏见的数据时, 他们无法有效地执行他们的预期目的.
  2. 统计和计算偏差当样本不能代表总体时发生. 这些偏差通常存在于用于开发人工智能应用程序的数据集或算法中.
  3. 人类的偏见,源于人类思维的系统性错误. 这种偏见往往取决于人的本性,并往往根据个人或群体对所接收信息的看法而有所不同. 人类偏见的例子包括行为偏见和解释偏见.3

有多种方法可以管理或减轻这些偏见. NIST SP 1270建议使用拟议的人工智能生命周期模型的4个阶段, 使不同的涉众(e.g.(开发者、设计师)来有效地识别和解决人工智能偏见.

这四个阶段包括:

  1. 设计- - - - - -计划的阶段, 问题识别, 进行数据集的研究和鉴定. 这个阶段可以帮助识别偏见,如有限的意见, 组织和个人启发式, 或者在为人工智能训练选择的数据湖中存在偏见. 在此阶段应该考虑诸如定义良好的策略和治理机制之类的控制.
  2. 〇设计开发这一阶段包括需求和数据集分析,AI模型是基于这些需求和数据集设计或识别的. 它是大多数发展活动发生和存在的地方, 因此, 容易产生多种与人工智能相关的偏见. 因此,建议采取以下控制措施:
    • 进行兼容性分析,以确定潜在的偏见来源,并计划解决这些问题.
    • 在开发阶段实施定期偏差评估过程,例如评估人工智能算法或系统输入/输出.
    • 在开发的最后阶段, 执行详尽的偏差评估,以确保应用程序保持在定义的范围内.
  3. 部署,在生产环境中实现AI应用程序并开始处理实时数据的阶段. 应采取适当的控制措施,以确保系统的适当运作(例如.g.,持续监控系统行为,健全的政策和程序).
  4. 〇测试和评价这一阶段需要在整个生命周期的所有阶段对所有人工智能系统和组件进行持续测试和评估.

IT审计人员可以降低人工智能道德风险

当今世界的IT审计人员没有能力处理人工智能的复杂性. 对于如何审计人工智能系统,目前还没有普遍认可的标准, 这尤其阻碍了道德人工智能的生产和使用. So, 人工智能审计人员应该执行基于道德的人工智能审计, 这需要分析人工智能的基础吗, 人工智能系统的代码以及人工智能带来的影响.4

那么,IT审计人员可以做些什么来将基于道德的AI审计纳入他们的方法中呢? 有几个建议,包括:

  • 分析现有框架, 规定, 流程, 控制, 以及处理各种领域(如风险)的文档, 合规, 隐私, 信息安全, 和治理.
  • 向利益相关者解释人工智能,并主动与他们沟通,提出改进措施,解决新的和正在出现的人工智能道德风险因素. 增强的例子包括新的委员会、章程、流程或工具.
  • 制定包括相关程序在内的全面人工智能风险评估计划, 流程, 文档, 角色, 职责和协议. 这可以通过与熟练和训练有素的从业人员合作来完成.
  • 通过自学和培训,以及让主题专家(sme)参与,寻找有关人工智能设计和架构的信息,以确定适当的影响范围.
  • 跟踪全球人工智能和数据伦理的发展,如法律, 法规和政策变更,以确保它们与组织中的常规变更管理程序相集成.

除了, IT审计人员应该发展对基于道德的概念和原则的理解,而不仅仅是从技术的角度来考虑人工智能.

IT审计人员应该发展对基于道德的概念和原则的理解,而不仅仅是从技术的角度来考虑人工智能.

例如,审核员应该考虑以下几个问题:

  • 在人工智能的开发和使用过程中,是否充分评估了以下原则?:
    • 公平
    • 透明度
    • 问责制
    • 解释
    • 互操作性
    • 包容性
  • 有否充分考虑资料当事人的私隐及人权?
  • 是否评估了人工智能应用程序的意外使用和滥用的充分性?

有一件事是肯定的:澳门赌场官方下载不能在不首先解决其道德问题的情况下采用人工智能. IT审核员可以通过提高他们的技能和扩展他们的关注领域而不仅仅是考虑技术风险来在这个过程中发挥重要作用, 还有人工智能系统带来的道德风险. 如不解决, 道德风险可能产生有害的社会后果,例如造成不同的影响和歧视或不公正的条件.

尾注

1 罗西,F.; B. Rudden; B. •戈林收养; 行动中的人工智能伦理, IBM商业价值研究所,2022年3月31日
2 同前.
3 于佩尔、J. D.; “认知理论,” 综合临床心理学,卷. 6, 2022
4 艾略特,我.; “审核AI很棘手, 尤其是在评估人工智能伦理合规性方面, 对自动驾驶汽车的审计也令人烦恼,” 《澳门赌场官方下载》2022年5月12日

编者按

想了解更多作者对这个话题的看法,请收听“《澳门赌场官方下载》ISACA的一集® 播客.

洁西索迪亚, CISA, AWS认证云从业者,CISSP, ITIL v3

是IT吗?, 网络安全, 还是一家全球工程公司的隐私审计员, 采购, 建设, 和安装(EPCI)组织. 他负责领导和执行多个领域的全球审计和咨询业务,包括澳门赌场官方下载资源规划(ERP)系统, 网络安全, 全球数据中心, 云平台, 工业控制系统, 这网络, 数据隐私和第三方风险. 此前,他曾担任一家领先的四大咨询澳门赌场官方下载和一家跨国医疗保健组织的咨询顾问. 茜草属植物 ISACA® 杂志 文章审稿并积极投稿 ISACA杂志 和ISACA Now博客.