行业资讯 industry-information
您现在的位置:首页 > 行业资讯 > 人工智能领域 > 机器人总统强过特朗普?也从技术视角看看通用AI能否超越人类领袖

最新资讯

机器人总统强过特朗普?也从技术视角看看通用AI能否超越人类领袖

发布时间:2017/07/10 人工智能领域 浏览:513

人工智能,相比较任何人类,在面对国家重大、复杂的问题时可以做出更明智的决策。真的是这样吗?

当特朗普在白宫边收看新闻边对着电视咆哮时,有一小部分科学家和研究者认为,人工智能,相比较任何人类,在面对国家重大、复杂的问题时可以做出更明智的决策。真的是这样吗?

一个 AI 总统不会被游说,不会受到个人利益的左右,也不会有如今白宫里的那么多裙带关系

据称特朗普经常独自留宿在白宫办公室,边收看新闻,边对着电视咆哮。一觉醒来,他继续收看新闻,同时继续发推文宣泄他对世界、Mika Brzezinski,或 CNN 的愤怒。他还不忘在与国外领导人会晤时吹嘘他的选举团是如何大获全胜。

对于一个肩负一个自由国家重任的领袖来说,这些行为终归听起来不太妥当。但是即便他对于俄罗斯丑闻的暴怒和当选的不安真的影响了他做总统的决策,他也绝不是第一个在工作中掺杂个人情绪和脾性的国家元首。

从哈丁的茶壶山丑闻,到尼克松的水门事件,还有克林顿几乎因“是男人就会犯的错误”而丢掉饭碗,颠覆他们执政的都是人性的弱点:嫉妒、贪婪、欲望,裙带关系。

如今,一小部分科学家及研究者相信有一种替代方法可以将总统本人,以及大众,从他或她的人性弱点中拯救出来。一旦技术发展到一定程度,他们认为应该由计算机来统治世界。这听起来有点儿疯狂,他们的想法是,人工智能,相比较任何人类,在面对国家重大、复杂的问题时可以做出更明智的决策,而且不会有现任人类总统那些我们已经被迫勉强接受的闹剧和短视冒失的行为。

如果你脑中已经在想象一个终结者形象的总统端坐在椭圆形办公室的总统办公桌后面,画风可能需要转变一下。那时的总统多半是放置在柜子里的一台计算机,忙于解决国家最棘手的问题。不同于人类,机器人在考量具体某一条政策可能引发的结果时会参考大量的数据。它可以预见到人类思维无法预见的隐患,不受冲动或偏见干扰地权衡利弊。我们可以最终创造一个前所未有的勤勉、高效、积极应对民众需求的行政机关。

还并没有一个正规的统一的团体去推进机器人执掌总统办公室,只是一支专家和理论家组成的杂牌军认为未来派的技术会带来更英明的执政,并最终创造一个更美好的国家。其中如 Mark Waser, 一位长期从事人工智能研究的专家,供职于名为 Digital Wisdom Institute 的智囊团,称一旦人工智能中的一些关键问题得到解决,机器人将会作出比人类更好的决策。

“倡导道德地使用技术来扩展人的能力”的非营利组织 Human+ 的女主席 Natasha Vita-More ,希望我们有一天会有一个“后人类”总统,这个领导人没有身体,而是以另外的方式存在,比如上传到电脑的人类思维。去年以“超人类主义者”身份参加总统竞选的佐尔坦·伊斯特万(Zoltan Istvan),身后有一个追求人类不朽的组织。他也是机器人总统的支持者,而且他真的认为那会发生。

“一个 AI 总统不会被游说。”他说,“它不会受到金钱或个人及家庭利益的影响。它不会有现在白宫里那么多的裙带关系。机器不会做这些事情。”

机器领袖如何融入我们的民主制度?

关于机器人统治者的想法已经在科幻小说中存在了数十年。1950 年,艾萨克·阿西莫夫(Isaac Asimov)的短篇故事集“我,机器人”设想了一个机器具有了意识和人类水平智能的世界。他们受到“机器人三定律”的控制(第一条是:机器人不能伤害人类,或者通过不作为,让人类受到伤害)。在著名科幻小说家 Iain Banks 的《文明》系列中,超级 AI 扮演着政府的角色,计算着怎样组织社会和分配资源才是最佳方式。流行文化,比如电影《Her》,也一直在期待类人机器。

但到目前为止,机器人总统还只出现在这些故事中。但也许过不了多久,就会像伊斯特万这样的信徒所说,AI 领袖 30 年以内就会出现。

当然,在白宫,用机器人代替一个人并不简单,即使那些在努力推动这个想法的人,也承认存在着严重的障碍。

别的不说,机器领袖该如何融入我们的民主制度?伊斯特万设想,届时将定期举行全国选举,选民将为机器人决定优先事项,以及如何处理一些道德相关的问题,比如人工流产; 选民将有机会在下次选举中改变这些选择。系统的初始编程无疑将是有争议的,程序员很可能也需要共同入选。而伊斯特万也承认,所有这一切都需要修改宪法。

机器人总统需要的是通用人工智能

从技术的角度来看,人工智能还不够聪明,无法管理国家。机器人目前可以完成的工作列表确实很长,从诊断疾病,到驾驶汽车,再到赢得各种游戏,以及在你的智能手机上回答问题——它成长迅速,但是现在,我们所有的 AI 系统使用的都还是弱人工智能,意味着他们需要专门编程才能执行任何给定的任务。

而显然,总统要做的远不止一个“任务”。

“如果你是美国总统,你要解决的是你这个层面上没有其他人能够解决的问题。等着你砸的是那些最硬的坚果。”CMU 的机器人学教授伊拉尔·努尔巴赫什(Illah Nourbakhsh)曾说过——他曾为 NASA 的机器人项目工作过“而最难破解的坚果是认知方式。没有太多先例可供参考,你必须使用最富创造性的思维。”

为了实现这一切,机器人总统将需要科学家所说的通用人工智能,也被称为“强人工智能”——与人类智能一样广泛、富于创造性和灵活性的智能。伊斯特万和其他谈论机器人总统的人,指的是这种人工智能。强人工之智能还没有出现,但有些专家认为即将到来。

Waser 说:“有一些人相信人类水平的人工智能将比预想中来的早得多,我就是这些人之一。2008 年那会儿,我表示那会在2025 年左右到来。十年后,我看不出有什么理由要修改这个预判。”Vita-More 也同意这个观点,她预测 10 –15 年内就可以有一个早期版本的强人工智能。

但是,这种乐观的估计是基于一个关键的假设:我们很快就会来到计算机自我解决问题的时代——科学家们称之为“技术奇点”。在那个时间点上,计算机将比人类变得更聪明,甚至可以自己设计出更新更智能的计算机。然而,努尔巴赫什说,他不认为所有涉及开发更好的计算机的技术问题都可以通过机器来解决。有些还有赖于新的化学发现或者用于构建这些超级计算机的新型材料的发明。

AI 的不可解释性对需要不断做出重大决策的工作是个大问题

在 AI 管理国家之前,需要解决的另一大技术问题是:机器人不知道如何解释自己。AI 接收信息,做出决策,但没人知道为什么机器会做出这个选择——这对于需要不断做出决策的工作来说是个大问题,况且这些决策还伴随着不可预测的投入和严重的后果。是的,你对特朗普或克林顿可能会有些看法,但至少他们知道自己的思考过程,还能向公众和国会解释他们的行为,并转播到电视或 Twitter 上让民众都有所了解。

而一台计算机,至少现在还做不到这一点。

“机器必须能够与其他机器合作,才能有效。”Waser 说。“它们必须与人类合作,才能安全”。而如果你不能向别人解释你的思维过程,那么合作会很艰难。

这个缺陷部分是因为 AI 的工作方式。在称为机器学习的方法中,计算机分析如山的数据,并找到可能对计算机而不是对人类有意义的模式。在称为深度学习的变体方法中,计算机使用多层处理的方法:一层产生粗略输出,然后由下一层进行细化,而该输出又被下一层再细化。这些中间层的输出对于任何外部人类观察者都是不透明的——计算机只会给出最终的结果。

“你可以带你孩子去看电影,然后由此聊开去,聊聊他们的心情,进行一个真正有趣又深入的谈话。”努尔巴赫什说,“但 AI 做不到这点,因为 AI 不理解从一个小话题向一个大话题的转换。”

一个被投喂了种族主义滋养的数据的 AI,就可能生成种族主义的结果

即使我们可以解决所有这些问题,机器人仍然可能不是我们想像的决策者。机器人总统的主要优势之一就是能够统揽数据,而且能够做出决定,不带人类的偏见。但即使这样的优势,也并不明确——研究人员发现很难教 AI 系统完全避免偏见。

例如,2015 年发布的谷歌照片应用程序使用 AI 识别照片的内容,然后对照片进行分类。该应用程序做得不错,却犯了一个明显的错误:它将几张黑人的照片标记为“大猩猩”。系统完全意识不到自己犯了怎样的错误,更理解不了其中牵涉的令人震惊的历史和社会背景。当时谷歌做出了道歉,并表示会调查这一问题。

还有一些例子,也影响了人类的生活。一个全国法院都在使用的 AI 能够判断被告重新犯罪的风险,并为法官的判决做出指导。它似乎是这种自动化技术的完美应用。它可以会处理大量的数据,找到人们可能会错过的模式,并避免困扰人类法官和检察官的偏见。但是,ProPublica 的调查报告发现,黑人被告被 AI 系统认为在未来进行暴力犯罪的可能性要比白人被告高出77%(创建该系统的营利性公司对ProPublica 的调查结果提出异议)。AI 系统并没有明确地考虑被告的种族,而是因为一些与贫困和失业相关的因素与种族相关。系统基于这些数据,给出了这样的结果,虽然它的表面上是中立的,却是数百年不平等现象的沉淀。

这对所有计算机来说都是问题:它们的输出只是输入的忠实体现。一个被投喂了种族主义滋养的数据的 AI,就可能生成种族主义的结果。

“技术体系无法免于偏见,不会因为只是数字就自动变得公平。”哥伦比亚大学文化人类学家马德琳·克莱尔·伊利(Madeleine Clare Elish)说,“我最大的恐惧是,人们无法接受 AI 技术的人类开发者将自身的偏见和缺陷也编码其中。“

奥巴马政府去年 10 月发表的关于 AI 的报告对这一问题也同样关切:怀着最美好初衷、全无偏见的开发者也可能无意中做出有偏见的系统,因为即使是 AI 的开发人员也可能无法完全了解他所开发的系统,无法防止意外结果的产生。

所谓依靠强人工智能来让 AI 自己解决 AI 的现有问题,大多是文字游戏

一旦我们开发出超级人工智能,一些专家认为对偏见的担忧将会烟消云散。Humanity+ 主席 Vita-More 表示,这样一个系统能够“发现偏见”。“会有一个测量仪器。”她说,“可以检测‘信息来自哪里’、‘这些人需要什么’,并说明数据的缺陷。”

黑客问题是另一个使用 AI 可能带来的风险。如果别国黑客黑进机器人总统的系统,从而操作整个美国政府,我们该当如何?我们甚至可能不知道机器人总裁所做的决定是否被操纵。AI 总统的支持者会说,机器人总统足够聪明,不仅可以解决我们国家最大的问题,而且还能阻止任何试图破坏这一努力的人。

努尔巴赫什表示,所谓依靠强人工智能来解决 AI 的现有问题,大多是文字游戏。他说:“如果你提出一个问题,就会有人说‘这些 AI 智能超过人类,所以它们自己会找到解决这个问题的办法。”努尔巴赫什认为,人类必须自己解决问题。

让一台计算机与总统协同工作,可以修正人类总统的一些缺陷

这些障碍会使机器人总统拥趸沮丧和泄气,不过目前也许可以有一个折中的方法,计算机可以处理所有总统需要做的决策,自己并不做出最终选择,而是给予人类元首做决策的指导。这类似于一种人机协作,协作的结果优于任何一方独自决策的结果。

哈佛法学院互联网法学教授 Jonathan Zittrain 认为尽管 AI 存在缺陷,计算机仍可被用于消除人类的做决策时的偏见。在近日的一篇博客中他写道:“经过适当的训练,AI能够系统地识别整体的不公正性及具体的偏见。” 

也许让一台计算机与总统协同工作,仍旧可以修正人类总统的一些缺陷。

“AI 发挥作用的领域在于理解后果”,Nourbakhs 说道。他指出特朗普的旅行禁令就是一个总统决策带来不良后果的例子,因为其法律及宪法的影响并未被充分理解及考量。计算机则可以提前分析反对者及地方法院有可能做出的反应。

已经有几项研究表明,“人机协作的团队比各自组成的团队更高效”,如奥巴马政府的 AI 报告中所称。“在最近的一项研究中,在被要求针对所给出的淋巴结细胞图像做出病人是否患癌的诊断时,AI 的错误率在 7.5%,人类病理学家的错误率在 3.5%,而人机协作的错误率降至 0.5%”。香港的一家风投公司正在把类似的人机协作应用于实际业务。他们于 2014年宣布为董事会引入一套 AI 系统,用于处理数据及向董事会成员提供投资决策建议。

“总统是一个国家的象征”,查普曼大学政治学教授 Lori Cox Han 指出:“无论顺境或逆境,他总是我们的指望”。当危机来临,或在做决策本身已经不足够的的那些情势下,也许我们还是期待一位人类总统。 

END

来源/公众号”新智元”(ID:AI_era)、politico.com,作者/MICHAEL LINHORST,编译/熊笑。机器人内参编辑整理。文章版权归原作者所有,如有转载,请标明来源与原作者,如有异议,欢迎提出,我们将第一时间作出回复。

姓 名:
邮箱
留 言: