人类将制造出超越自己的强人工智能,但怎么控制它?——《AI新生》带你破解人机共存的密码

2020-11-02 11:38:50 和讯网 

  精彩试读:

   如果我们成功了

  很久以前,我父母住在英国伯明翰大学附近。后来他们决定搬出这座城市,并把房子卖给了英语文学教授戴维•洛奇(David Lodge)。那时候,洛奇已经是一位著名小说家了。我从未见过他,但我决定读读他的书:《换位》和《小世界》。书中的主要人物都是学者,他们从伯明翰搬到了加州伯克利。而我正是刚刚从伯明翰搬到伯克利的学者,这一系列的巧合似乎在提醒我要多多注意。

  《小世界》中有一个特别的场景令我印象深刻。主人公是一位有抱负的文学理论家,他参加了一个重要的国际会议,并问一群领军人物:“如果所有人都赞同你们的观点,接下来会发生什么?”这个问题引起了恐慌,因为专家组成员更关心的是智力竞赛,而不是弄清真相、获得认同。当时我想到,我们可以对人工智能领域的领军人物提出一个类似的问题:“如果你们成功了会如何?”该领域的目标一直是创造出达到或超越人类水平的人工智能,但人们很少或根本没有考虑过,如果我们创造出了这样的人工智能会发生什么。

  几年后,我和彼得•诺维格(Peter Norvig)开始编写一本新的人工智能教科书,书的第一版于 1995 年出版。这本《人工智能》的最后一节题为“如果我们成功了会如何”,它指出了出现好结果和坏结果的可能性,但没有得出明确的结论。到 2010 年第三版出版的时候,许多人终于开始考虑,创造超越人类的人工智能可能不是一件好事,但这些人大多是局外人,而不是主流的人工智能研究人员。到了2013 年,我开始相信这个问题不仅是主流的人工智能研究人员应该考虑的问题,而且可能是人类面临的最重要的问题。

  2013 年 11 月,我在伦敦南部一座久负盛名的艺术博物馆——杜尔维奇绘画馆演讲。听众大多是退休人员,他们不是科学家,但是普遍对智能问题感兴趣,所以我只好做一次完全非技术性的演讲。这似乎是一个在公共场合验证我的想法的合适场所。在解释了人工智能是什么之后,我提出了 5 个“人类未来最大事件”的候选选项:

  1. 我们灭亡了(因为小行星撞击、气候灾难、流行病等)。

  2. 我们都能永生(医学攻克了衰老)。

  3. 我们发明了超光速旅行,征服了宇宙。

  4. 高级外星文明造访了我们。

  5. 我们发明了超级人工智能。

  我认为第 5 个候选选项,即我们发明了超级人工智能,将会胜出,因为如果可能,超级人工智能将帮助我们避免灾难,实现永生和超光速旅行。它将代表我们文明的一次巨大飞跃,或者说一次突变。超级人工智能的到来在许多方面类似于高级外星文明的到来,但前者更有可能发生。也许最重要的是,人工智能不同于外星人,它是我们对其有发言权的东西。

  然后,我让听众想象一下,如果我们收到一个来自高级外星文明的通知,说它们将在 30 到 50 年后到达地球,会发生什么。 “乱作一团”这个词并不能准确地描述这种情景。然而,我们对超级人工智能即将到来的反应却是……“冷淡”。(在后面的演讲中,我用图 1 所示的电子邮件交流的形式对此进行了说明。)最后,我将超级人工智能的意义解释为:超级人工智能的成功将是人类历史上最重大的事件……或许是人类历史上的最后一个事件。

  在那之后几个月,也就是 2014 年 4 月,我在冰岛参加一个会议,美国国家公共广播电台打来电话,问我是否可以接受他们的采访,谈谈刚刚在美国上映的电影《超验骇客》。虽然我已经看过了剧情概要和影评,但我还没有看过电影,因为我当时住在巴黎,电影要到 6 月才会在巴黎上映。然而碰巧的是,我在从冰岛回家的路上绕道去了波士顿,参加美国国防部的一个会议。所以,到达波士顿洛根机场后,我乘出租车去最近的电影院看了这部电影。我坐在第二排,看到约翰尼•德普饰演的加州大学伯克利分校人工智能教授遭到了对超级人工智能存有担忧的“反人工智能激进分子”的枪击。我不由自主地瘫倒在座位上。(又是巧合在警示我吗?)在这名教授死去之前,他的意识被上传到一台量子超级计算机上,这台计算机迅速超越了人类的能力,威胁要接管世界。

  2014 年 4 月 19 日,我和物理学家迈克斯•泰格马克(Max Teg-mark)、弗兰克•威尔切克(Frank Wilczek)、史蒂芬•霍金(StephenHawking)合写的关于《超验骇客》的影评被发表在了《赫芬顿邮报》上。其中包括我在杜尔维奇绘画馆的演讲中谈到的人类历史上最重大的事件。从那时起,我便公开承认,我的研究领域对我自己所属的物种构成了潜在危险。

  我们如何走到今天?

  人工智能的起源可以追溯到很久以前,但它正式启动是在 1956年。两位年轻的数学家约翰•麦卡锡(John McCarthy)和马文•明斯基(Marvin Minsky)说服了著名的信息论创始人克劳德•香农(Claude Shannon)和 IBM(国际商业机器公司)第一台商用计算机的设计者纳撒尼尔•罗切斯特(Nathaniel Rochester)加入他们,一起在达特茅斯学院组织一个暑期项目。项目的目标如下:

  这项研究基于一个猜想:“学习”的各个方面或“智能”的任何特征在原则上都可以被精确地描述出来,所以人们可以制造一台机器来模拟“学习”或“智能”。人们试图让机器使用语言,形成抽象概念,解决现在人类面临的各种问题,并让机器自我改进。我们认为,一个精英科学家小组如果共同努力一个夏天,就可以在其中的一个或多个问题上取得重大进展。

  不用说,我们花费的时间已经远远超过了一个夏天,但我们仍在努力解决这些问题。

  在达特茅斯会议后 10 年左右的时间里,人工智能取得了几项重大成功,包括艾伦•罗宾逊(Alan Robinson)的通用逻辑推理算法和阿瑟•塞缪尔(Arthur Samuel)的西洋跳棋程序,这个程序通过自学战胜了它的创造者。第一次人工智能泡沫在 20 世纪 60 年代末破裂,当时,人们在机器学习和机器翻译方面的早期努力没能达到预期。英国政府在 1973 年委托撰写的一份报告中总结道:“到目前为止,该领域的任何发现都没有产生当初承诺的重大影响。”换言之,这些机器不够智能。

  幸运的是,当时 11 岁的我并不知道这份报告。两年后,我得到了一台辛克莱剑桥可编程计算器,我想让它变得智能。然而,辛克莱的程序有 36 步运算限制,这对于人类级别的人工智能来说还不够大。我并没有泄气,而是使用伦敦帝国理工学院的CDC 6600超级计算机编写了一个国际象棋程序——一沓两英尺高的穿孔卡片。虽然这个程序不够好,但是没关系。我知道我想做什么。

  到了 20 世纪 80 年代中期,我已经成为加州大学伯克利分校的一名教授,由于所谓的“专家系统”的商业潜力,人工智能正在经历一次巨大的复兴。当这些系统被证明无法完成人们指派给它们的许多任务时,第二次人工智能泡沫破裂了。同样,这些机器也不够智能。人工智能的寒冬随之而来。我在伯克利开设的人工智能课程目前有 900多名学生,而在 1990 年,我只有 25 名学生。

  人工智能界吸取了教训:显然,机器越智能越好,但我们必须做好功课才能做到这一点。这个领域与数学的关系变得尤为密切。人们将人工智能与历史悠久的概率论、统计学和控制理论建立了联系。今天,进步的种子是在那个人工智能的寒冬播下的,包括对大规模概率推理系统以及后来众所周知的深度学习的早期研究。

  从 2011 年前后开始,深度学习技术开始在语音识别、基于机器视觉的物体识别和机器翻译方面取得巨大进步,以上是人工智能领域最重要的三个开放问题。从某些方面来看,机器在这些方面的能力已经达到甚至超过了人类的能力。2016 年和 2017 年,DeepMind(英国人工智能公司)的 AlphaGo(阿尔法围棋)击败了前世界围棋冠军李世石和后来的冠军柯洁,而此前一些专家预测,这种事情如果会发生,也要到 2097 年才会发生。

  如今,人工智能几乎每天都会出现在媒体的头条报道中。在大量风险投资的推动下,成千上万家初创公司应运而生。数以百万计的学生参加在线人工智能和机器学习课程,该领域专家的年薪可达数百万美元。来自风险基金、国家政府和大公司的投资每年达到数百亿美元,该领域过去 5 年获得的资金超过了其在先前整个历史中所获得的总额。无人驾驶汽车和智能个人助理等已经在酝酿中的技术进步,很可能在未来 10 年左右对世界产生重大影响。人工智能潜在的经济效益和社会效益是巨大的,这为人工智能研究提供了巨大的动力。

  接下来会发生什么?

  这种快速的进步是否意味着我们即将被机器超越?不是。我们在拥有类似的具有超人类智能的机器之前,必须要实现几项突破。

  众所周知,科学突破是很难预测的。为了了解到底有多难,我们可以回顾一下另一个领域的历史,这个领域具有终结文明的潜力,那就是核物理学。

  20 世纪初,也许没有哪位核物理学家比质子的发现者、“分裂原子的人”欧内斯特•卢瑟福[Ernest Rutherford,图 2(a)]更为杰出。与他的同事一样,卢瑟福早就意识到原子核储存了巨大的能量,然而,主流观点认为开发这种能源是不可能的。

  1933 年 9 月 11 日,英国科学促进协会在莱斯特举办年会,卢瑟福在晚间会议上发言。正如他之前几次所做的那样,他向原子能的前景泼了冷水:“任何想从原子的转变中获取能源的人都是异想天开。”第二天早上,伦敦《泰晤士报》报道了卢瑟福的演讲[图 2(b)]。

  匈牙利物理学家利奥•西拉德[Leo Szilard,图 2(c)]那时逃离了纳粹德国,住在伦敦罗素广场的帝国酒店。他早餐时阅读了《泰晤士报》的报道,随后出去散步,仔细思考着报道的内容,构想出了中子诱发的链式核反应。在不到 24 小时的时间里,释放核能的问题从不可能变成了已经基本解决。次年,西拉德申请了核反应堆的保密专利。1939 年,法国颁发了第一项核武器专利。

  这个故事的寓意是,与人类的聪明才智打赌是鲁莽的,尤其是在我们的未来岌岌可危的时候。在人工智能界,一种否定主义正在出现,它甚至否定成功实现人工智能长期目标的可能性。这就像一名驾驶着载有全人类的公共汽车的司机说:“是的,我正尽我所能往悬崖边开,但是相信我,在开到悬崖边之前,我们的汽油会用完!”

  我并不是说人工智能一定会成功,而且我认为人工智能在未来几年内成功的可能性不大。尽管如此,为可能发生的事情做好准备才是慎重之举。如果一切顺利,这将预示着人类进入黄金时代,但我们必须面对的事实是,我们正计划着制造出远比人类强大的实体。我们如何确保它们永远不会掌控我们?

  为了对我们正在玩的火有一个初步的了解,请思考一下内容推荐算法在社交媒体中发挥的作用。虽然这些算法不是特别智能,但它们能够影响整个世界,因为它们直接影响数十亿人。通常,此类算法旨在最大限度地提高点击率,即用户点击展示条目的概率。那么,解决方案就是简单地展示用户喜欢点击的条目,对吗?不对。正确的解决方案是改变用户的偏好,从而使他们变得更可预测。对于更可预测的用户,算法可以通过推送他们更可能会点击的条目,而带来更多收入。持有极端政治观点的人往往更容易被预测出会点击哪些条目。(顽固的中间派可能会点击某一类文章,但算法很难想象这类文章由什么内容组成。)与所有理性实体一样,算法会学习如何修改它的环境状态(在这个例子中是用户的思想),从而使自身获得的奖励最大化。其后果包括法西斯主义复活,支撑世界民主的社会契约被解除,这甚至可能导致欧盟和北约的终结。区区几行代码在得到了人类的帮助后,就可以导致上述后果。现在想象一下,一个真正智能的算法能做什么?

人类将制造出超越自己的强人工智能,但怎么控制它?——《AI新生》带你破解人机共存的密码

  AI新生

  破解人机共存密码——人类最后一个大问题

  Human Compatible: Artificial Intelligence and the Problem of Control

  《卫报》(The Guardian):今年关于人工智能最重要的一本书。

  定价:88.00元

  书号:ISBN 978-7-5217-1951-2

  作者:斯图尔特·罗素(Stuart Russell)

  出版时间:2020年9月

  页数:376页

  装帧:精装

  编辑推荐:

  1. 在一个由超级AI主宰的世界里,人类如何保持独立?

  这本书提出一个大问题,给出一种解决方案。作者用三个大原则,一个“有益的AI”,带你破解人机共存的密码,这可能是人类面临的最后一个大问题。

  2. AI领军人物,业界公认的“标准教科书”作者,时隔25年,打造全新烧脑之作。

  作者认为,人类试图将自己的目标灌输给机器,是注定要失败的尝试。这本书倡导一种颠覆性的新方法——逆强化学习,让机器根据人类行为,学习人类目标。

  3. 埃隆•马斯克、万维钢、姚期智、张宏江、黄铁军、周志华、周伯文、曾毅等专家鼎力推荐。

  《思考,快与慢》作者丹尼尔•卡尼曼,《生命3.0》作者迈克斯•泰格马克,《为什么》作者朱迪亚•珀尔,《深度学习》作者约书亚•本吉奥 专业背书!

  内容简介:

  从比尔•盖茨、埃隆•马斯克到霍金,众多企业家和科学家都曾表示担心AI对人类生存造成的威胁。真的有一天,人类会成为自己发明的机器的受害者吗?

  在过去相当长的一段时间里,人类之所以能控制地球,是因为人类的大脑比其他动物的大脑要复杂得多。但如果AI变得比人类更聪明,我们要如何掌控这个世界?智能是一种权力,我们能否控制智能,决定了我们未来的命运。

  这本书讲述了我们为理解和创造智能,在过去、现在和未来所做的尝试。这很重要,并不是因为AI正迅速成为当前的一种普遍现象,而是因为它是未来的主导技术。世界上的各个大国正在意识到这一事实,各家大公司也早就知道这一点。

  作者在书中提出了一个大问题:如何破解人机共存密码,掌控比我们强大得多的智能,让AI获得新生?这可能是人类面临的最后一个大问题。这本书的目的是解释为什么这可能是人类历史上的最后一件事,以及如何确保这不会成为现实。

  作者简介:

  © Peg Skorpinski

  斯图尔特·罗素(Stuart Russell)

   加州大学伯克利分校计算机科学家,人类兼容人工智能中心(CHAI)主任,人工智能研究实验室指导委员会(BAIR)成员。

   世界经济论坛人工智能和机器人委员会副主席,美国科学促进会(AAAS)会士,美国人工智能协会(AAAI)会士。

   曾与谷歌研究总监彼得·诺维格合著,出版了人工智能领域里的“标准教科书”《人工智能》,该书被128个国家的1400多所大学使用。

   获得过多项科学荣誉,包括美国国家科学基金会总统青年研究员奖、国际人工智能联合会议(IJCAI)计算机与思想奖、国际计算机学会(ACM)卡尔斯特朗杰出教育家奖等,并受邀在TED、世界经济论坛演讲。

  媒体及专家评论:

  这本关于人工智能未来风险和解决方案的书值得一读,作者罗素很棒!

  埃隆·马斯克(Elon Musk)

  特斯拉创始人兼CEO

  人工智能到底发展到了哪一步,未来会怎么发展,这本书代表主流专家意见,能让你迅速获得“当前科学理解”。作者是研究人工智能的教授,但书中并不过度讨论技术,他关心更大的问题:人的偏好可以“算法化”吗?人工智能是人类的威胁吗?人能限制人工智能吗?当前的答案并不乐观。到最后,你会发现人工智能的问题首先是“人”的问题:我们其实并不了解我们自己。

  万维钢

  科学作家

  “得到”App《精英日课》专栏作者

  这是一本引人入胜的巨作,无论一般读者还是人工智能专家都将从中获得启发。罗素教授对于超级智能这个人工智能的重大问题做出了深刻明确的分析。更重要的是,他提出了一个新颖的人机关系处理方案,为解决超级智能这个重要问题开辟了一个崭新的研究方向。

  姚期智

  中国科学院院士

  2000年图灵奖得主

  当人们为人工智能技术的突飞猛进而欢呼雀跃,并期盼着超级人工智能到来时,我们不能忘了人类正面临着一个非常关键的挑战:如何确保人工智能的发展以人为本,基于人类的共同价值造福人类?这本书为我们带来了罗素教授多年潜心的研究成果和深刻洞见,读起来令人赏心悦目。

  张宏江

  智源研究院理事长

  源码资本投资合伙人

  人类可能在不久的将来制造出超越自己的强人工智能,我很高兴人工智能知名学者斯图尔特·罗素教授不仅仔细推敲了这种可能性,还提出了一种巧妙的应对之策。

  黄铁军

  智源研究院院长

  北京大学教授

  创造出达到或超越人类水平的人工智能会怎么样?超级人工智能的成功为什么可能是人类历史上的最后一个事件?人类是否还有希望?人工智能经典教科书作者斯图尔特·罗素的这本书值得每位关心人工智能的人士阅读。

  周志华

  南京大学人工智能学院院长

  欧洲科学院外籍院士

  自我们这一代人开始,科学地理解、探索、协同和管控超级智能机器,将变成一个越来越不能回避的严肃课题。如果说罗素的经典教科书在过去帮助很多学者进入了人工智能研究领域,他的这本新书则将让更多人思考如何创造更好的人机协同的未来。

  周伯文

  京东集团副总裁

  书中倡议的构建“尽可能安全且对人类有益的人工智能”应成为全球人工智能研究与实践者的共同愿景。罗素论述的人工智能安全风险与人类自身的隐忧无疑将“确保人工智能的安全有益”这个重要挑战长期置于未来人工智能研究的核心。

  曾毅

  中国科学院自动化研究所研究员

  类脑智能研究中心副主任

  智源研究院人工智能伦理与可持续发展研究中心主任

  这是我在相当长的一段时间以来,读到的非常重要的一本书。它清晰地解释了超级人工智能时代的到来如何威胁到人类的控制权。至关重要的是,这本书还提出了一个新颖的解决方案,以及我们应该存有希望的原因。

  丹尼尔·卡尼曼(Daniel Kahneman)

  诺贝尔经济学奖得主,《思考,快与慢》作者

  这是一场由人工智能先驱罗素带来的智识之旅。罗素不仅以引人入胜且有说服力的方式解释了人工智能带来的风险,而且给出了一种切实可行的解决方案。

  迈克斯·泰格马克(Max Tegmark)

  《生命 3.0》作者

  与那些未来学家和警告人工智能风险的人不同,罗素是一位人工智能领域的专家。这本书比其他我所知的书更能教导公众,而且这本书读起来令人愉快、振奋人心。

  朱迪亚·珀尔(Judea Pearl)

  贝叶斯网络之父,《为什么》作者

  这本文笔优美的书解决了人类面临的一项基础性挑战:越来越智能的机器会按照我们的要求行事,却不会按照我们的本意行事。如果你关心我们的未来,请务必阅读。

  约书亚·本吉奥(Yoshua Bengio)

  2019 年图灵奖得主,《深度学习》作者

  目录:

  前 言 //V

  01 如果我们成功了

  我们如何走到今天? //006 接下来会发生什么? //008 出了什么问题? //010 我们能解决吗? //013

  02 人类和机器的智能

  智能 //017 计算机 //035 智能计算机 //043

  03 人工智能在未来会如何发展?

  近未来 //067 超级人工智能何时到来? //080 概念上的突破即将到来 //082 想象一台超级智能机器 //095 超级智能的局限 //098 人工智能如何造福人类? //100

  04 人工智能的滥用

  监督、劝导和控制 //107 致命性自主武器 //113 篡夺其他人类角色 //127

  05 过于智能的人工智能

  大猩猩问题 //137 迈达斯国王问题 //141 恐惧与贪婪:工具性目标 //145 智能爆炸 //147

  06 不那么伟大的人工智能辩论

  否认 //154 转移话题 //162 部落主义 //166 难道我们不能…… //168

  辩论重新开始 //176

  07 人工智能:一种不同的方法

  有益机器的原则 //182 乐观的理由 //188 谨慎的理由 //190

  08 可证明有益的人工智能

  数学保证 //197 从行为中学习偏好 //202 辅助博弈 //205 要求和指示 //215 “主动嗑电” //218 递归式自我完善 //220

  09 复杂的难题:我们

  不同的人 //227 许多人 //229 善良的、可恶的、爱嫉妒的人类 //242 愚蠢的、情绪化的人类 //247 人类真的有偏好吗? //250

  10 问题解决了吗?

  有益的机器 //263 对人工智能的治理 //265 滥用 //269 衰弱与人类自主 //270

  附录 A 寻找解决方案 //273

  附录 B 知识与逻辑 //283

  附录 C 不确定性和概率论 //289

  附录 D 从经验中学习 //301

  致 谢 //311

  注 释 //313

  图片版权 //357

  

(责任编辑:李莹 HN016)
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        和讯热销金融证券产品

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。