Py学习  »  机器学习算法

深度学习out了?深度解读AI领域三大前瞻技术

深度学习世界 • 5 年前 • 531 次点击  

来源:IT时报

摘要:人类面前有很多风险、变化和机会,我们需要做好准备。


如今,人类将自己的未来放到了技术手里,无论是让人工智能更像人类思考的算法,还是让机器人大脑运转更快的芯片,都在向奇点靠近。谷歌工程总监、《奇点临近》的作者库兹韦尔认为,一旦智能机器跨过奇点,人工智能的发展将进入加速喷发状态,可以与人脑相媲美,甚至比人脑更具可塑性的“仿生大脑”终将出现。


究竟有哪些技术能够推动AI迈过这个奇点呢?在本期专刊中,我们采访了全球AI界的顶尖技术“大咖”:“德扑AI之父”卡内基梅隆大学教授托马斯·桑德霍普,迁移学习“掌门人”香港科技大学教授、国际人工智能联合会理事会主席杨强以及“胶囊网络”最好的解读者Aurélien Géron,试图寻找能推动AI迈过这个奇点的技术引擎。


源起


“玄学”深度学习之惑:


打不破的“炼丹炉”黑盒子?


2018年初,一个来自伯克利大学、阿姆斯特丹大学、MPI for Informatics以及Facebook的人工智能研究部门开始向人工智能传授自我判断和解释的能力,试图让“黑盒”变得透明。这已经不是人类对深度学习黑盒子探索的首次尝试,但至少说明人类对黑盒子的解释正在不断努力。


黑盒子,顾名思义,就是内部结构不可探视的密闭空间。对于深度学习研究者来说,层层叠加的神经元网络结构使程序在经过几千万个样本训练以后,对输出的结果无法解释。也就是说,一旦程序输出结果有错,人们无法知晓是哪里出了错,应该调整什么地方。


人工智能正处于初始阶段,香港科技大学教授杨强告诉我们,因果关系非常重要。在很多实际领域中,如果一个计算机模型只给出结论,但人类并不知道这个结论如何得出,往往这个模型不会被实际使用。


杨强认为,让黑箱模型具有可解释只是人工智能未来的一个方向。在未来,人工智能还身兼太多重任——让机器学习更快速更可靠、使机器实现自动推理、使预测更远更精准,使机器能够理解人,能够观看和收听影像……也就是说,让机器具有人的能力,在人不想做的领域都能超过人,但这个阶段还有相当长的时间。


因此,在主流的深度学习和卷积神经元网络结构之外,人工智能领域还在尝试许多其他方向,科学家们希望通过不同的技术路径,可以用更小的成本、更快的速度实现人工通用智能。当这些源自不同“山头”的技术汇聚成海时,或许技术爆炸的奇点就到来了。


迁移学习:

批量生产“小而美”的AI公司?


数据缺失、算力有限,很多公司在解决AI可移植问题和普适性问题。试想当你学会中英文互译,就可以将翻译的法则同时运用在中法互译当中;当你学会骑自行车,也就同时具备了驾驶摩托车的技能……这就是迁移学习的初衷,利用更低成本实现更多功能。在大数据成本居高不下、小企业无力弯道超车的人工智能领域,迁移学习或将成为颠覆现有格局的下一个技术风口。



让机器学会举一反三。


《论语·述而》曾有云:举一隅不以三隅反,则不复也。正如物理学家开尔文通过巴斯德高温杀菌的发现,延伸出低温存储的“冷藏工艺”,举一反三能够帮助人类解决生活中各种各样的问题。而这种举一反三的能力在机器学习领域同样适用,科学家将其称之为“迁移学习”。


2009年,新加坡南洋理工Sinno Jialin Pan 和香港科技大学教授杨强在一篇调查中首次提出人工智能领域“迁移学习”的概念。杨强是首位也是至今为止唯一的AAAI(美国人工智能协会)华人执委,同时也是第一位担任IJCAI(国际人工智能联合会议)理事会主席的华人科学家。这位AI牛人对“迁移学习”技术的研究直指人工智能发展的痛点——用于支持机器深度学习的基础大数据往往未经标注,收集标注数据或者从头开始构建模型代价高昂且费时。


机器学习是人工智能的核心,卡内基梅隆大学人工智能教授Tom Mitchell曾定义机器学习为“对能通过经验自动改进的计算机算法的研究”,即机器通过对大量数据和过往经验的学习,提升计算机程序的性能。杨强说,在这个过程中,机器内置的模型往往已经人为预测好,但是如果未来有所变化,这个模型就会无法扩展,迁移学习意在使模型具备可扩展性,增强其范化能力。也就是说,迁移学习可以使机器学习通过更低廉的数据成本,解决更广泛的问题。


实现不同场景AI模型再利用?


迁移学习之于深度学习,就好比通过节约用纸保护森林。在人工智能领域,当模型具备一定可扩展性,就能反复被“回收利用”,减少不必要的数据成本。“回收利用”的想法十分诱人,而在现实应用当中,表现也并不逊色。


杨强说,迁移学习已经在现实中很多领域应用广泛:人类可以通过建立语音识别模型,将对普通话的深度学习模型迁移到方言;也可以建立起人脸识别模型,将光照很好状态下的模型迁移到不同光照场景;甚至可以实现不同领域、不同背景下的文本和舆情分析。


在大数据甚嚣尘上的数字化时代,基于大数据深度学习下的人工智能并不能满足所有细分场景,更何况“大数据”并非轻易得来。杨强认为,如何用少量数据实现同样预测效果,即“迁移学习”,将会是人工智能中一个未来的发展方向。而在迁移学习技术面前,中国平行于世界先进水平,甚至走在世界的前端。


杨强在2017年7月CCF-GAIR(全球人工智能与机器人峰会)的演讲中曾提到一个愿景——利用迁移学习,即使是自身没有条件获得大量训练数据的小公司,也可以按照自己的需要应用大公司训练出来的模型,从而普及AI的应用。或许公司小而美,技术精而尖,将是人工智能公司的下一个发展方向。


冷扑大师:


玩一场不完美信息的游戏?


这是一场“不完美信息”的游戏。


2017年1月30日,AI机器人Libratus和四个全球顶级德州扑克玩家,用20天完成了一场人机大战,Libratus(中文名:冷扑)大获全胜,赢得了176万美元奖金。


或许因为德州扑克是舶来品,与Alpha Go大战李世石相比,这场比赛并不太为中国大众所知,但在人工智能圈里,冷扑和他的创建者美国卡内基梅隆大学(CMU)的计算机系教授托马斯·桑德霍姆(Tuomas Sandholm)和其研究生诺姆·布朗(Noam Brown)却是2017年最闪亮的明星。在全球AI顶级峰会2017 NIPS上,他俩合写的论文《不完美信息游戏中安全内嵌的残局计算法》在3240篇投稿论文中脱颖而出,被评为最优秀论文,桑德霍姆也被称为德州扑克AI之父。



它学会了“诈唬”对手。


“与深度学习相比,我们技术最大优点是具有可证明的性能保证。”5月13日,桑德霍姆表示。


近几年的人工智能热潮中,深度学习是最主流的技术,Alpha Go以及之后Alpha Zero的成功,更是使其几乎成为AI的代名词。然而,尽管Alpha Zero成为全棋类冠军,但这些游戏都属于所谓“完美信息游戏”,也就是说,交战双方清楚每一时刻棋面上的全部情况。


德州扑克是典型的不完美信息博弈,除了牌面信息,对手有什么牌?对手会怎么出牌?下一张翻出的公共牌会是什么?通常这种博弈会出现纳什均衡的局面。所谓纳什均衡,是指在博弈中,每个人都在猜测对手会出什么牌,每个人的策略都是对其他人策略的最优反应。


和完美博弈不同,不完美信息博弈不能通过将博弈分解为可独立求解的子博弈而求得占优策略,所以冷扑必须通过纳什均衡来计算该如何应对对手那些没出现在决策树上的招数,并以收益反馈对自身的出招进行动态修正,以期达到最大可能的收益,而非简单地将对手的行为进行近似处理。


简而言之,冷扑不仅要猜下一张牌可能是什么,还要猜对手可能会如何押注,更要最后做出决策,自己该怎么押注,它学会了分析对手是否“诈唬”,甚至自己也会“诈唬”对手,总之,它变成了一个“心理学高手”。


让冷扑帮你炒股


“现实世界中的大多数应用都是不完美的信息游戏,休闲游戏、商业战略谈判、战略定价、产品组合规划、金融、投资银行、投标策略、拍卖设计、政治活动、自动驾驶和车辆车队、医疗规划、网络安全、物理安全、军事应用等等,在面对这些不确定性问题时,我们可以帮助人们找到最优策略。”桑德霍姆认为,冷扑在现实生活中应该比Alpha Go更实用。


举个例子,一家企业要为自己的产品定价,但它的决策一定基于市场中同类竞品的定价、市场需求等多种因素,如果竞争对手突然改变了自己的定价,你为了实现价值最优,必须也要改变自己的定价。AI技术的作用在于可以进行事先战略性定价,也就是说,预判对手可能的策略,提前进行战略部署,这样市场的主动权便掌握在自己手里。


胶囊网络:

让人工神经元像人脑那样思考?


当Alpha Go带起的深度学习浪潮席卷AI界时,一位年近70的老人,却开始对它说“不”,尽管他是它的“创造者”。2011年开始,被誉为深度学习之父的Geoffrey Hinton(杰弗里·辛顿)开始反思CNNs(卷积神经网络,深度学习的一种结构)的弱点,并提出了一种新的神经元网络计算结构——胶囊网络(the capsule network)。


这种自我颠覆在AI圈掀起一阵巨浪,有的人坚定地站在Hinton一边,认为胶囊有可能对深度学习带来深远影响,特别是在计算机视觉领域,会大大减少训练计算机所需要的数据量,但也有人认为,胶囊网络并没有新鲜的理论,算不上什么特别大的革新。

那么,胶囊网络究竟是什么?它会对人工智能领域带来什么?Hinton最近因为家庭原因,闭门谢客,于是我们找到了Aurélien Géron。


Aurélien Géron是一名机器学习咨询师,也是《Hands-on Machine Learning with Scikit-Learn and TensorFlow》(《用Scikit-Learn and TensorFlow实际操作机器学习》)一书的作者(这本书很快将在中国出版),他在谷歌时曾领导了YouTube的视频分类团队。Aurélien制作发布的两个视频,被称为“史上最通俗易懂的胶囊网络科普视频”。5月9日,专访Aurélien,请他深度解析胶囊网络。



1、请问胶囊网络是什么?目前有最新技术进展吗?


Aurélien Géron:先举一个简单的例子理解深度学习中的CNNs,如何确认一张脸?对于CNNs来说,一个椭圆形的脸,有两只眼睛、一个鼻子和一个嘴巴,这些对于它判断这是否一张脸是很重要的指标,但这些器官是不是在正确的位置,并不是它做判断的依据。


胶囊网络核心思想是,将神经元分组成一个一个小胶囊,每一个决策点,并不需要每个人工神经元都做出判断,而是只要检查这个胶囊是否同意,然后将结果输入下一层合适的胶囊中。


我觉得这个理论很有前途,但局限性也很明显,特别是在识别大图片的时候,效果并不是很理想,而且训练的速度非常慢。总得来说,胶囊网络相当程度上依然是实验性的。


2、世界范围内的胶囊网络研究者有多少?与其他深度学习相比,这项技术处于什么阶段?


Aurélien Géron:目前还很难判断,在谷歌论文上,我看到了“胶囊间动态路由”论文的73篇引文,其中46篇引用了标题中的“胶囊”一词。平均一篇论文大约有3到5个作者,这意味着大约有200名研究人员出版了论文。所以我猜想,全球大概有500名研究人员正在研究胶囊网络,但这也只是一个猜想:研究是分散的,所以很难具体知道研究者的数量。


3、胶囊网络最大的优势是什么,特别是与其他深度学习方法相比?研究者可以减少数据和输入吗?


Aurélien Géron:胶囊网络的好处还是很明显的,比如它比CNNs需要更少的训练实例,当信号通过胶囊时,可以更好地保存关于对象的位置、方向等方面的详细信息,这对于需要这些详细信息的应用来说非常有前途,类似像对象检测、图像分割(即发现哪些像素属于哪个对象)等应用。其次,胶囊比CNNs更善于总结归纳,如果你训练它们识别一些物体,然后向它们显示方向不同的同一个物体,它们可能比CNNs更不容易被迷惑。


4、胶囊网络未来可以有哪些应用场景?


Aurélien Géron:胶囊网络已经成功地被用于检测癌症,因为几乎不需要太多的训练数据和精确的位置信息。我相信还会有很多其他的场景,例如,分析卫星图像或者检测制造业的缺陷。


5、吴恩达曾说:“今天的人工智能的成就更多地是由计算机科学的原理推动的,而不是神经科学的原理。”您对这句话如何理解?


Aurélien Géron:最初人工智能的整个领域都受到生物学的启发:人工神经元便是由生物神经元激发的,因为新(大脑)皮质层似乎就是这样组织的,卷积神经网络也是受到视觉皮层的启发。


6、《IT时报》:人工智能的最终形式是什么?你认为AI离这个理想状态有多远?


Aurélien Géron:人工智能的最终形式将是人工通用智能(AGI),一种能够快速学习并掌握任何新智力任务的计算机系统,它能不断地学习和改进,希望能造福于全人类,而不是少数人(或仅仅为自己)。它不一定像人类一样思考,我们大部分行为来自于对吃饭、繁殖、社会交往等的需求,机器不会有同样的需求,因此它可能不会像我们一样思考。但是,由于我们大部分智力来自于我们的文化(语言、书籍、科学……),它可能很早就需要学习我们的方法,所以我认为它会很好地与我们进行交流和互动,甚至可能会将我们的局限性和偏见也考虑进去。


人类面前有很多风险、变化和机会,我们需要做好准备。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。





点击下方“阅读原文”了解【大数据师资培训班】
↓↓↓

今天看啥 - 高品质阅读平台
本文地址:http://www.jintiankansha.me/t/9jLU0VhLaq
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/12653
 
531 次点击