埃森哲AI总监Rumann Chowdhury解释了CIO和CTO在使用人工智能的使用中是如何道德的。
埃森哲公司(Accenture)人工智能负责人鲁曼•乔杜里表示:“人工智能(AI)就是人类在做他们一直在做的事情,但其规模难以控制。”在她的研究中,乔杜里解决了企业和社会对人工智能的担忧,并解释了首席信息官(cio)和首席技术官(cto)需要如何考虑在组织中使用人工智能的伦理立场。
“人工智能的负面影响放大,人们谈论深假货和错误的信息,尤其是在即将到来的选举,“Chowdhury说的AI据说是用来改变美国选举的投票行为,英国保守党欧盟的公投。
“宣传不是新的,它已经存在了很长一段时间,但我们现在有能力影响数百万人的机器人或一系列机器人。因此,这是真正可怕的影响的可扩展性。“
除了对信息和公共话语的损害,乔杜里还提醒首席执行官,员工们担心人工智能会夺走他们的工作,因为该软件“效率如此之高,将导致大规模失业”。另一些人则担心技术发展变得不可控制和不可逆转,导致人类文明发生不可思议的变化。更直接的担忧是人工智能和数据使用的透明度;越来越多的人担心人工智能将进一步破坏社会的多样性和机会。
在她在埃森哲的研究中,乔杜里描述了她如何将对人工智能的关注定义为三个方面:即时的、有影响力的和无形的。
乔杜里表示,商业技术领袖需要意识到人工智能的直接影响,他指的是主要平台的算法变化可以立即改变个人的环境。乔杜里指的是澳大利亚公共服务部(Department of Human Services)自动偿还债务的失败,数百万依赖政府的澳大利亚人被告知要偿还债务,而许多债务甚至根本不存在。在这种情况下,自动化和数据是直接的和有影响的,并且在很大程度上对消费者和组织是消极的。
由于人工智能不是我们可以看到的有形物体,它的隐形可能会让人们望而却步。乔杜里说,虽然一些组织试图给人工智能一张脸,但事实是:“人工智能只是代码。没有人工智能的图片,而且由于它的隐形性,它很可怕,尤其是当它收集到大量信息时。”
乔杜里在谈到人工智能如何放大数据收集时表示:“我们将会达到拥有过多数据的地步。”当被首席信息官们问及组织应该如何管理他们的数据水平时,她说:“我们可以从图书管理员和档案管理员那里学到最多的东西,因为他们有经验,知道什么该保留,什么该丢弃。我们需要对我们保留哪些数据、不保留哪些数据进行说明。”伟德国际 391她补充说,企业中数据保护角色的崛起,标志着企业界开始认识到对数据和人工智能采取道德手段的必要性。
如何成为道德
“人工智能的危险在于,它是由人类有意或无意地实现的,”乔杜里非常诚实和清晰地说。作为一名数据领域的博士专家,乔杜里解释说,今天的人工智能不是已经发展了25年多的神经网络技术。
“AI最初是为了模仿人类大脑的作用方式,但这并不是它今天如何使用。”这是故意或无意实施的危险蔓延的地方:“所以AI的道德是关于人类的决定,并确保我们有负责任的AI,”她说。
埃森哲咨询公司的这位专家表示,对于企业来说,这意味着要超越底线,并补充说,企业应该考虑如何使用人工智能作为三重底线会计的一部分,即考虑到企业对社会、环境和财务的影响。
Chowdhury表示,她自己的职业生涯展示了主要组织对AI的文化态度的变化。2017年,她的角色主要是提高意识,即组织需要对AI道德规范。2018年,她表示,组织意识到偏见和这一原因的问题。在过去的一年里,她看到公司世界努力在其客户群中创造意识,所以他们了解AI的使用。Chowdhury承认,最近的利益是由于公司的实现,即AI立法正在地平线上。
“现在,客户要求治理方法,而不仅仅是实施AI的技术工具,”她表示,补充说,组织需要的不仅仅是治理,对AI的方法有着本质上与本组织的文化有关。
欧洲联盟一般数据保护法规的到货加强了对如何使用艾德的诉诸如何使用的利益。Facebook这样的组织曾经依赖于“解释性”,说明他们之前依赖于消费者阅读应用程序或在线服务的条件条款,但现在Facebook邮件消费者检查他们对他们的隐私设置感到满意。Chowdhury继续解释一下,这是一个组织的一个例子,了解透明度很容易说明,并在大规模的软件条款协议文件中展示,但没有代理的透明度是无用的。
“透明度为您提供了洞察力,但代理改变了您如何与系统或服务互动,”她说。
她说,一系列新的道德标准预计将改变人工智能和数据在组织中的使用,工程机构IEEE正在开发一个人工智能标准,她预计欧盟将出台进一步的标准。
她说:“GDPR是革命性的,因为它奠定了基础,让我们所有人在讨论我们的数据时都有一个共同点。”乔杜里认为,这一讨论将引发一场全社会关于人工智能伦理的辩论,cio和cto都需要考虑这一问题。
“隐私将成为明年最重要的话题。”