沙虫科技网logo.png3D科技网

3D科技网
提供IT业界的新鲜事、奇趣事和热门焦点,掌控最热最新的互联网新闻、科技新闻和IT业界动态。
3D科技网

企业将缺乏资源归咎于不解释AI决策

使用人工智能(AI)的公司往往引用高成本等非技术原因作为不完全向人们解释为什么这些系统得出某些结论的借口。信息专员办公室(ICO)透露,企业在向人工智能系统做出的决策背后的最终用户解释理由时面临的主要挑战主要取决于物流和资源,而不是任何技术。

它的中期报告,本周与合作出版的艾伦·图灵研究所,被委托企业的探索方法如何解释给受其影响的人AI决策,以及如何在未来提高。

技术可行性未被列为主要障碍这一事实是ICO的一个缓解来源,因为这意味着负责部署AI的组织对这项技术的解释充满信心。

英国数据监管机构还声称其调查结果强调需要提高在董事会层面解释人工智能决策的形象。这样就可以做出正确的预算和人员分配来解决这些问题。由于缺乏可解释的人工智能决策的内部问责制的标准化方法,企业也面临困难。

“如果人工智能系统对个人作出决定,是否应该向该人解释决定是如何做出的?”ICO的高级政策官Alex Hubbard说。

“他们是否应该获得有关刑事司法决定的相同信息,因为他们会就医疗保健做出决定?

“行业圆桌会议参与者普遍感到有信心,他们可以在技术上解释人工智能做出的决定。但是,他们提出了”可解释性“的其他挑战,包括成本,商业敏感性(例如侵犯知识产权)以及”游戏“或滥用系统的可能性。 “

除了解释人工智能决策的主要挑战外,该报告还发现,教育和提高认识活动的愿望是向公众宣传人工智能的使用和益处。然而,并不清楚哪个社会部门应该承担责任让公众参与这些问题。作为其研究的一部分,ICO和Alan Turing Institute与来自公共,私营和第三部门的行业代表举行了几次圆桌讨论。个人和消费者也被邀请参加“公民陪审团”讨论这些主题。

报告称,还存在风险,提高认识可以“简单地用于规范人工智能决策的使用,过度强调其益处”,因此人们不太可能质疑其使用。

然而,根据ICO的说法,最强烈的信息是,当涉及到个人的期望时,背景更重要。

诸如决策的重要性或紧迫性,或者用户改变影响决策的因素的能力,甚至偏见的范围等因素在人们对部署这些技术的组织的期望中发挥着巨大作用。

一般来说,参与研究的人期望从AI决定中得到解释,就像他们期望从人类判断中得到解释一样。但他们也质疑人工智能的决定是否应该遵守更高的标准,因为人类可能存在别有用心或自私的动机。

总的来说,这表明没有“一刀切”的方法;相反,解释的内容和提供必须适应围绕基于AI的决策的受众和背景。

“ICO多次表示,数据保护并不是创新和数据驱动技术使用的障碍,”哈伯德继续说道。“但这些机会不能以牺牲个人对个人数据的使用透明和公开为代价。

“该指南将帮助组织遵守数据保护法,但不仅限于此。它还将促进最佳实践,帮助组织培养个人对人工智能决策的信任,理解和信心。”

中期报告将直接提供给ICO的组织指南,这些组织将在夏季进行公众咨询,然后在秋季全面公布。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

相关推荐