程序目录
使用下面的过滤选项浏览会议和研讨会.
有史以来第一次, 为期三天的ISACA将为您带来三个不同地区的全球信息技术知识.
所有世界级的审计, 治理, 隐私, 你所期待的网络安全和新兴技术内容. 成为数字信任拥护者的工具. 将您的组织定位为数字信任思想领导者的知识. 一起做一件事.
美洲| UTC -6
8:45-9:15会议开始(可选)
9:30-10:45开幕主题演讲
11:00-13:15并发会话
13:15-13:45午餐
13:45-14:45并发会话
15:00-16:00闭幕大会小组讨论
使用下面的过滤选项浏览会议和研讨会.
在我们的主题演讲开始之前,每天早上8:45加入我们(到特定地区),这将使您了解以下内容:
从主舞台或网络休息室进入这个活动,不要错过这个提前提出所有问题的机会. 本课程不提供CPE,也不是必需的.
这是一场开创性的演讲,深入探讨了先进人工智能技术的变革作用, 像ChatGPT, 重塑网络安全格局. 本次会议将探讨人工智能如何彻底改变威胁检测, 反应策略, 以及整体的网络弹性, 让我们得以一窥人工智能防御成为常态的未来. 与会者将见证ChatGPT实时威胁分析和缓解能力的现场演示, 凸显了它永远改变网络安全实践的潜力. 对于任何对未来数字安全感兴趣的人来说,这个演讲都是必看的.
完成本课程后,参与者将能够:
我们都希望医疗保健的等待时间最短,个性化的服务和财务效率. 以患者为中心作为一种战略医疗保健范式是实现所有这些目标的推动者. 但是作为一个范例, 它的成功取决于解决所谓的互操作性问题, 医疗保健生态系统中系统之间共享数据的能力.
一项关于全球数字健康(eHealth)战略的研究表明,一些国家的电子健康战略将以患者为中心作为其战略范式. 相比之下,其他人继续谈论互操作性的需要. 没有人会确定以病人为中心对互操作性的依赖性.
其核心是, 我们看到互操作性问题是一类称为实体解析的数据问题. 数据管理从业者将把这个问题称为主数据和/或参考数据问题. 同时, 数据架构师会说,问题的根源在于缺少概念架构.
解决互操作性问题的失败根源在于概念数据体系结构失败或缺失,以及主/参考数据管理框架失败或缺失. 反过来,两者都是数据治理的失败.
这个演示将我们从失败中带到了可接受的等待时间, 个性化护理, 将数据治理的财务效率作为主要问题陈述,然后再次退出,以表明医疗保健可以满足可接受的等待时间, 个性化护理, 在强有力的数据治理下提高财务效率.
完成本课程后,参与者将能够:
本演讲介绍了ECRA的方法论指南,以定位和解读高管们现在和未来在数字环境中面临的挑战.
完成本课程后,参与者将能够:
在一个变革不仅不可避免而且还在加速的时代, 全球各行业都在努力应对前所未有的中断. 最近的大流行和供应链的复杂性已经颠覆了传统的商业模式, 迫使澳门赌场官方下载以前所未有的方式进行适应. 内部审计职能处于这一转变的最前沿, 负责引导新出现的风险,并以敏捷性和远见支持组织度过这些动荡时期. 本次会议将深入探讨内部审计如何通过结合敏捷框架中的方法来实现敏捷性. 敏捷, 以其灵活性和以结果为导向的方法而闻名, 提供多种方法,如Scrum, 精益, 和看板. 这些策略使内部审计团队能够定制他们的方法,以最适合他们的组织环境, 确保他们为利益相关者提供最大的价值. 我们将详细探讨这些敏捷方法, 展示了如何有效地利用它们来增强内部审计在当今快节奏的商业环境中的适应性和响应性.
完成本课程后,参与者将能够:
随着网络威胁形势越来越严峻, 我们正在重新设想从现有资源中获取情报的新方法. 这段在截图和视频中破译数据的旅程带领我们探索了技术和智能,创造了在视觉数据来源中搜索被盗或暴露数据的新方法. 搜索图像和视频中的模式可以识别勒索软件攻击, 威胁行为者身份, 喷子和假新闻. 用威胁情报方法构建有效的图像和视频处理平台, 使我们有可能在被忽视为威胁情报来源的地方发现并阻止威胁.
完成本课程后,参与者将能够:
面对不断升级的网络威胁, 组织必须采用全面的以网络安全为中心的方法来加强其数据资产. 本报告探讨了建立以网络安全为中心的数据信任计划的细微步骤, 强调关键要素,如数据治理, 分类, 和发现. 参加者将获得有关保护敏感资料的可行见解, 减轻网络威胁, 并确保其组织数据基础设施的弹性.
完成本课程后,参与者将能够:
人工智能(AI)在简化业务流程和消除日常生活中的繁琐工作方面具有巨大的潜力. 然而,人工智能有一个丑陋的缺点,那就是人工智能偏见. 人工智能偏见的一个例子是,某家公司的招聘算法学会了对女性的申请有偏见. 人工智能偏见的另一个例子是面部识别人工智能, 其中有超过三分之一的时间没有识别出深肤色女性的图像. 这只是众多例子中的两个.
重要的是要理解AI偏见可以在几个点上注入AI, 这使得偏见检测变得困难. 人工智能偏差可能是无意的,是由测试数据中的固有偏差引起的, 也可能是有意为之, 也就是所谓的人工智能中毒. 无意的人工智能偏差很难检测到,因为它通常隐藏在我们选择训练人工智能的学习数据中. 本节将讨论不同类型的人工智能偏见, 在人工智能的生命周期中,偏见发生在哪里?如何减少人工智能的偏见. 会议将探讨人工智能的伦理原则, 可以减少人工智能偏见的最佳实践和道德人工智能框架.
完成本课程后,参与者将能够:
人工智能的利益和风险小组讨论-美洲
人工智能的好处和风险是什么? 危险吗?? 有偏见吗?? 以人工智能小组讨论结束这一天. 讨论将涵盖这些和其他有关这一新兴技术的问题. 请于2月22日(星期三)15:00 - 16:00 (UTC-6)在美国加入我们。!