人工智能已经是许多行业的重要组成部分,它利用复杂的软件算法做出的决定来控制现实世界中的物理机器。例如,交通信号灯和电梯已经变得比许多使用它们的人意识到的更有自控力。
在未来的几年里,这样的“网络物理系统”将加速他们进入我们的生活,我们的社会和物质世界。这就是为什么人类学家吉纳维芙贝尔正在努力改变许多人对人工智能和自动化的看法,从他们如何设计和长期规划开始。
贝尔在英特尔(Intel)做了20年的研究员,她是该公司第一位女性高级研究员,这一卓越的职位她至今仍在担任。她是一位以人类学为基础的未来主义者和人工智能实践者,这意味着她的方法不是口授答案,而是提出问题。
贝尔在堪培拉的澳大利亚国立大学(Australian National University)接受电话采访时说:“我们需要考虑网络物理系统提出的重大问题,以及我们如何回答这些问题,从而安全地扩大人工智能的规模。”2019年初,她在那里启动了一个雄心勃勃的新项目,名为the3A学院-自治,代理和保证.3Ai在2019年初推出了一个硕士项目。
(相关的故事:冠状病毒让人工智能和大数据有机会发挥作用]
这位杰出的教授在3Ai课程上采用了硅谷的方法:现在就开始教学,在学年期间根据学习情况进行调整。她和该研究所的主要目标是建立一个新的工程分支,以负责任地、安全和可持续地扩大人工智能的规模。
她在硅谷的经历强化了她的信念,即有必要在有关技术和未来的对话中强调人的重要性和我们生活经历的多样性。
她说:“自从2017年回到澳大利亚并创建了3Ai以来,我越来越惊讶于自己在这个世界上帮助实现数字化的复杂人类舞蹈,以及我们可以也应该做些什么不同的事情。”
贝尔列出了人工智能创造者在决定构建何种类型的人工智能以及它是否成功之前应该问的几个大问题。
我们的AI系统应该有多自主?他们应该有多少代理?这些都是基本问题。她建议,人工智能创造者在开始考虑实施之前,应该深入考虑要构建什么,甚至是否要构建。
“网络物理系统中的自主概念与人类的自主概念不同,”她说,不同的团队可能对如何实现自主有不同的想法。
“谷歌的自动驾驶汽车不同于特斯拉,也不同于沃尔沃,”她说。
贝尔最喜欢的一个虚构例子是科幻喜剧《银河系漫游指南》在这种情况下,一台有感知能力的电梯对自己缺乏管理能力感到不满,它把时间花在地下室生闷气,并试图说服乘客让它选择目的地。这个笑话对贝尔很管用,因为我们很容易想象出那些没有考虑过给他们的创造物太多智能可能会适得其反的工程师。
她说,人们对智能电梯的期望只有这么高。
“它可以上下移动,但没有人会想到电梯会走出大楼,然后下楼去酒吧喝啤酒。”
确保系统安全、成功
贝尔说:我们考虑风险、责任、道德、标准、政策和监管环境。但这些问题必须在规模上加以考虑,在不同的监管地区,政府机构对相同的问题会给出不同的答案,就像欧盟为处理国际互联网用户的数据设定了严格的GDPR标准一样。
(相关的故事:GPDR进入第二年]
成功是什么样子的?如何衡量成功?这些都是大问题,迫使设计师理解对人类和环境的影响。
“我特别关心能源消耗和安全与生产力之间的关系,”Bell说。
“还有关于全社会参与的问题。”
电梯是一个完美的日常例子,它要求自动控制器在节约能源和快速运送人们到达目的地之间做出决定,这两者都可以被认为是成功的。工程师需要提前考虑可以和应该测量什么来评估他们系统的性能。
人机界面设计和多样性
贝尔说:“我们对这些东西应该如何工作有一种具体化的记忆。”“我们有肌肉记忆。进入一个没有按钮的电梯会很奇怪。你进去的时候以为自己能推动他们。”
(相关的故事:关于加拿大人工智能的17个令人兴奋的事实]
任何新的自动化系统,如果它的行为与人们期望的不一样,都需要思考。贝尔引用了城市火车十字路口的一个标志:“交通信号可能会有所不同。”习惯于在心理上计时的司机可能会被红灯和绿灯的不规则变化搞得措手不及。他们甚至可能被这些符号弄糊涂。
贝尔还担心对这种潜在危险的自治的普遍反应。
“你经常听到,‘我们会让一个人参与进来,作为故障保护措施,’”她说。“我被两件事震惊了:我们认为这是哪个人类,我们认为这是哪个循环?”
人的干预可能并不总是在需要的时候和地方可用,而且在许多情况下,交给人会导致更糟糕的结果。她说,一名训练有素的专家在监测雷达屏幕上的空中潜在问题时,很难保持20分钟以上的注意力。
贝尔说,必须将多种多样的想法设计进新的系统中。
“我们希望能找到尽可能多的不同声音、观点和想法,”她说。
“即将到来的世界不是一个同质化的世界。除了教师,我们还有剧作家、艺术家、立法机构的政客和造卡车的人。”
虽然这些都是基本问题,但随着自动化机器用例的扩展和我们与它们的关系的发展,肯定会出现更多的问题。
“我们在互相教育,”贝尔说。