如何让AI安全有效

以下是应用严格的人工智能信任、风险和安全管理(AI TRiSM)的组织如何以及为什么将更有价值的人工智能模型投入生产的原因。

你准备好了吗人工智能权利法案?美国最近的蓝图旨在保护社会免受有害人工智能的侵害,提醒所有人工智能模型的开发者和用户,他们需要在他们的人工智能模型和战略中建立保障措施。需要一个严格的人工智能TRiSM方法。

Gartner将AI TRiSM定义为支持的框架人工智能模型治理、可信度、公平性、可靠性、鲁棒性、有效性和隐私性。它包括解决方案、技术和流程,用于模型可解释性和可解释性、隐私、模型操作和针对客户和企业的对抗性攻击。

下载电子书:Gartner 2023年十大战略技术趋势详细指南

“IT领导者必须花费时间和资源来支持人工智能TRiSM。Gartner杰出副总裁分析师Avivah Litan表示,那些这样做的人将在采用、业务目标以及内部和外部用户接受度方面取得更好的人工智能成果。“人工智能威胁和妥协(恶意的或良性的)是持续不断发展的,因此人工智能TRiSM必须是一个持续的努力,而不是一次性的练习。”

为什么AI TRiSM是一种趋势技术

Gartner预计,到2026年,实施人工智能透明度、信任和安全性的组织将看到他们的人工智能模型在采用率、业务目标和用户接受度方面实现50%的结果改进。Gartner还预测,到2028年,人工智能驱动的机器将占全球劳动力的20%,占所有经济生产力的40%。

但Gartner的调查结果表明,企业也部署了数百或数千个IT领导者无法解释或解释的人工智能模型。

没有管理的组织人工智能的风险更有可能经历负面的人工智能结果违反。模型不会像预期的那样运行,并且会出现安全和隐私故障,财务和声誉损失,以及对个人的伤害。人工智能的错误实施也会导致企业做出糟糕的商业决策。

立即下载:2021-2023年新兴技术路线图

人工智能TRiSM的影响和操作

人工智能法规正在增加,但即使在强制实施保护措施之前,重要的是实施确保信任、透明度和消费者保护的做法。IT领导者需要应用新的AI TRiSM功能来确保模型的可靠性、可信度、隐私性和安全性。

不要等到模型投入生产时才应用AI TRiSM。这只会让整个过程暴露出潜在的风险。IT领导者应该熟悉各种形式的妥协,并使用AI TRiSM解决方案集,这样他们就可以适当地保护AI。

AI TRiSM需要一个跨职能的团队一起工作。这包括来自法律、合规、安全、IT和数据分析团队的人员。如果可能的话,成立一个专门的团队,如果不行的话,成立一个特别小组,以获得最好的结果。确保每个AI项目都有适当的业务表示。

下载2023年首席信息官议程:确保你的科技投资获得数字红利的4种方法

好处包括改善他们的组织从使用人工智能中获得的业务成果,而不是简单地遵守法规。

简而言之:

  • AI TRiSM功能确保了模型的可靠性、可信度、安全性和隐私性。

  • 为了在采用人工智能、实现业务目标和用户接受度方面取得更好的成果,组织需要管理人工智能的信任、风险和安全性。

  • 将AI TRiSM视为适当保护AI的解决方案集。

Avivah Litan他是Gartner Research的杰出副总裁分析师,目前是ITL AI团队的成员,该团队涵盖人工智能和区块链。她擅长区块链创新的各个方面,以及人工智能信任、风险和安全管理。Avivah在网络安全和欺诈的许多方面都有很强的背景,包括人工智能与这些领域的整合。

参加CIO和IT高管会议

与您的同行一起在Gartner会议上发布最新见解。

Gartner使用条款和隐私政策。< / > "> 登录您的帐户访问您的研究和工具

" class="eloqua-text"> 登录您的帐户访问您的研究和工具

" class="optin-text">