作者:冯郁青
谷安佳, 斯坦福大学应用物理学博士。 他与斯坦福大学张首晟教授共同创办的丹华资本管理规模5.5亿美元以上, 已经是硅谷地区最有影响力的华人风险投资基金之一。广泛投资人工智能等领域。年纪轻轻的他,今年在香港获得了“ 世界杰出华人奖”。
学霸出身的谷安佳秉承传统理科生对科学和规律的信仰,尽管投资是对未来事物可行性的一种判断,他认为规律在起着决定性的作用。 而关于未来的种种不确定性都是规律中的变量。
“ 不确定性的东西也是规律的一部分。有一些东西一定会发生,不确定的东西发生也有一定概率存在。未来有很多确定的东西也有更多不确定的东西。这些加起来才构成规律。”
谷安佳说中文稍有些南方口音,语速稍快, 思维缜密。 硅谷精英多是穿着随意的工程师, 而他西装革履, 看世界的眼光是科学家的严谨和乐观。 他和一财记者深入探讨了人工智能的发展以及对人类社会有可能带来的深刻改变。
大数据使得人工智能已经可以自己学习。最近三五年,人工智能的巨大变化就是因为“专家系统”到“小孩系统”的转变。人工智能飞速发展是否会造成大量社会人口失业? 人工智能随着不断的学习,是否也会渴望意义和权力? 这些可能性都让很多人担忧不已。
谷安佳认为,就目前情况来说,离这两种情况还非常远。人类进化到现在,逻辑方面的进步几乎是不太可能了。人类社会需要依靠技术和创造出来的新事物,来反逼人类进步。这种进化是体现在一种更高层的模式,即人类和人类所创造出的新事物一起进化。
他进一步阐述, “人类是碳基文明, 人工智能是硅基文明, 能够作为人类文明的遗产留下来,人类的肉体并不如人工智能。在极端条件下,人类如果可以开发出来一种可以承载文明、逻辑思考学习能力的载体,这其实是人类文明的延续。”
一财:从2011年IBM机器人Watson赢得Jeopardy 答题秀,到去年alpha狗击败柯洁,你觉得人工智能经历了一个什么样的过程?
谷安佳: 人工智能质的突变在于让它的算法有提升的空间。它可以自己学习,可以自己跟自己比赛,这个是人工智能让我们感到惊异的一点。
一财: 为什么机器可以自己学习?
谷安佳:其实机器自己学习也没有什么深奥的地方。机器学习其实就是在数据里面找出规律。机器在大量的数据里面通过重复的计算,像人的神经网络一样,从表面现象再归纳,抽象,再一层层地推进。在这个过程中,实际上也是一种算法。人类也是这样的,只是一般人意识不到。计算机学会人类一些简单的推理和算法的演变也没有什么奇怪的。只是人类在最开始的时候认为计算机不太可能学会人类的思维模式。像当年IBM的“深蓝”,它还是用比较简单粗暴的方法,通过运用大量的实例,大量的演算。需要的数据库也是几栋楼。所以在那个时候人们认为这种机器的实用性,离日常生活比较远。人类对于人工智能的理解,是经过了几个阶段的,比如说,最开始的机器比人类算得更快,后来人类发现人工智能不过如此。人类经过这种“狼来了”的效果后,觉得人工智能在某些方面可以打败人类,人类的整体认知就进入了两极分化,一些人就很积极地,狂热地投身于人工智能;另外一些人就陷入悲观,也进入一个瓶颈期。
最近三五年人工智能的巨大变化就是因为“专家系统”到“小孩系统”的转变。图片识别也是最近几年人工智能发展的一个方面。当训练一个机器去看图的时候,其实跟小孩一样。小孩小时候对猫狗或者周边环境也是没有感觉的,但当他不停接受外界刺激后,神经元就自然而然地被固化。这个过程跟训练机器的过程非常相似。运用大量的数据通过一些算法总结他的最基本的结构最基本的一些特征之后,机器就学习到了。机器学习是通过参数实现的。人工智能也是通过大数据的方式取得了大的突破。
一财: 当人工智能学习到大量的数据后,会不会出现变异的可能性?
谷安佳: 人工智能在数据归纳总结认知等方面是有可能超过人类的。比如说图像识别中,人工智能所花费的时间和识别准确度都已经超过人类了。所以人工智能超过人类已经不是什么让人吃惊的事情了。所有能量化的事情,比如围棋,电子游戏,或者其他的能够定义好的东西,人工智能在这些方面都有可能超过人类。
目前还没有看到人工智能会变异这种现象的发生。因为人工智能现在都需要人类给它定义好工作范畴,当你告诉它目标和优化方向的时候,人工智能可以做到比人类更好。对于一些简单机械重复,靠时间日积月累的事情,人工智能也能做得比人类好。
人工智能在未来某些方面可能会出现一些延伸,但是在未来还是要看科学家或者研究人员的本性是不是要让人工智能为人类造福,如果是出于这种动机,我相信人工智能是不会出现变异的问题的。因为在我们看来,人工智能本身对人类是没有敌意的。因为人工智能所基于的硅基系统和人类的碳基系统在本质上是没有冲突的。
一财: 但是这些不同是最基础的生理方面的不同。人工智能随着不断的学习可能也渴望意义和权力,那这种情况可能发生吗?
谷安佳: 这些东西其实是需要人类给它定义的。这些东西其实是人类对自己的影射,也就是说我们有这种需要,那其他物种是不是都会有。人工智能所谓的意义和我们人类定义的意义可能是不一样的。我觉得人工智能是不会去危害人类的。除非人工智能被人利用。
一财: 但被人利用也很可怕呀。
谷安佳:所以说这些技术的作用其实取决于人类本身。如果有人故意用人工智能达到一些邪恶目的,那也是很可怕的。所以关键是如何控制人。比如说通过立法,或者是一些伦理道德方面的控制,或者对研究经费方面的一些调控,严格定义人工智能犯罪的范畴,才能防止人工智能犯罪。
一财:人工智能可能导致大量社会人口失业,也有可能变异危害人类社会。那您认为人工智能可能导致的危害是否包含这两点?
谷安佳: 这两种可能性都是存在的。极端情况下,这两方面的情况是可能造成社会问题的。就目前情况来说的话,离这两种情况还非常远。因为人工智能本身来说,如果它真的做得比人类好的话,其实是一件乐见其成的事情,因为它确实减免了一些不必要的重复性劳动。
一财: 在现在这种相对成熟的社会模式下,人工智能可能造成的大范围失业会对人类社会的稳定造成巨大挑战,这种可能性存在吗?
谷安佳:人类的进步和技术的发展是密不可分的。每一次文明的升级都是依靠技术。在人类的发展过程中,不能因为某种技术可能会造成一些社会动荡和影响就去阻碍这种技术的发展。因为技术的发展是不可逆转的。而且技术所带来的阵痛其实是对人类社会有帮助的。即使是有失业情况的发生,但是最终人类还是可以通过自己的学习和自我演化来进步。人类进化到现在,逻辑方面的进步几乎是不太可能了。人类社会的进步是依靠技术和创造出来的新事物来反逼人类进步。这种进化是体现在一种更高层的模式,即人类和人类所创造出的新事物一起进化。
一财: 这些新东西是敌是友呢?
谷安佳:我觉得目前来讲人类所创造出的新事物是帮助人类自己的。所以虽然在某一阶段,我们可能会看到虽然人工智能会带来巨大冲击,但人类自己会去学习,失业的人会去找到新的工作。
一财: 你认为我们要对未来可能出现的科技发展对社会的影响保持“谦卑”的态度吗?没有人确切会知道会发生什么
谷安佳:我认为人类应该谦卑。我认为人类更应该去适应。因为从自然进化的角度来说,人类已经处于生物链顶端,再没有天敌会逼着人类走向一个更高级的社会形态。所以人类社会的发展更需要依靠人类自己的演化和人类自己创造的一些技术。
一财: 人类文明会毁灭吗?
谷安佳: 这个到最后的话也是有可能的。我相信万事万物都有规律。比如出生发展鼎盛衰退灭亡。这个规律几乎在所有事物中都可以看到。所以在我看来人类的毁灭最终是会发生的。
一财: 我的意思是人类因为自己创造出来的东西而毁灭。
谷安佳: 我相信这种概率会小一些,人类把自己作死的可能性比较小。人的个体很脆弱,但人类整体是拥有神奇的自我调整和纠错能力的。人类善于从过去的失败中找出经验教训。比如两次世界大战后,人类处理冲突的手段有了很大的改变。所以人类毁灭更有可能是因为一些自然灾害或者大的变故。
我们人类的历史非常短,在这么短的时间内,我们还没有遇到过灭顶之灾,但这并不代表以后就不会遇到。比如以前恐龙就遇到过小行星碰撞。人类是碳基文明, 非常脆肉。如果地球出现问题,很难延续。 而人工智能是硅基文明, 能够作为人类文明的遗产留下来其实是对人类文明的一种保存,是一种延续和技术的探索。所以我们不应该害怕人工智能。人类的肉体并不如人工智能。在极端条件下,人类如果可以开发出来一种可以承载文明,逻辑思考学习能力的载体,这其实是人类文明的延续。人工智能其实是人类的后代,人类可以把自己的想法倾注到人工智能上。如果人类把人工智能看作自己的后代并允许它延续人类文明的话,其实人类文明可以延续地更久。
一财:人工智能发展到现在产生了一些错误,你怎么看待?人工智能汽车也是个很热的议题,但是像这种设备如果出现bug可能会出人命,你对人工智能的可靠性有信心吗?
谷安佳: 这个取决于算法是否完整。人工智能从学习到应用的过程中确实可能会产生差错,但总体来讲,当我们应用一些机制的方式,比如范式验证,来检查人工智能中的错误。有一部分工程师在开发人工智能,另外一部分是在做验证工作。通过数据和系统的方式把人工智能从头到尾排查一遍。这种方式在现实当中也是存在的。做到100%没有差错也是有可能的。
其实人类开车出差错的可能性从统计意义上来说更大。人工智能和人类在相同的on road时间下,人工智能反而出差错的可能性更小。
一财: 但是人类可以为自己的驾驶错误负责,那谁来为人工智能的驾驶错误负责?
谷安佳: 如果是机器出错的话肯定是机器的责任,或者是开发机器的团队的责任。
一财: 是不是人更愿意相信自己而不是一个理论上是存在bug的机器?
谷安佳: 其实人类就是愿意相信自己已经经历过的事情。难道去外面吃饭就能一定保证饭里没毒吗?人类自己开车难道就不会怀疑车会出问题吗?所以人首先要相信这个东西。
一财: 但是人类建立信任需要一定时间,比如对车的信任是经历和几十年的时间,那对人工智能的信任是不是也需要时间?
谷安佳: 我相信这是一个过程,我相信经过这个过程后,人类对人工智能会更有信心。当所有汽车被人工智能驾驶的时候,其实整个协调性会比人类更好。几乎不可能出现剐蹭这种事故。因为这在系统中都是协调好的。那这些东西如果都是符合规律的,它的整体效果肯定是更好的。
一财: 您相信规律,做投资也是如此。 但是投资是对未来的判断, 有很多不确定性的东西如果所有东西都是按照规律来发生,那也就不会有预见不到的情况了,那是不是没什么意思?
谷安佳: 在做投资的时候有一些规律性的东西也有一些不确定的东西。那么这些不确定的东西应该考虑进去。不确定性的东西也是规律的一部分。有一些东西是一定会发生的,但也有不确定的东西。但不确定的东西发生有一定概率存在。未来有很多确定的东西也有更多不确定的东西。这些加起来才构成规律。
一财: 从美国2016大选,以及这次facebook 的数据丑闻来看, 大数据会不会被人操纵, 使真相更难被发现?
谷安佳:大数据所造成的这些问题是很大的挑战。一些有很多数据的组织在互联网上可能变成一个中心化的组织。现在技术的发展是希望把一些掌握大数据的集权公司放到去中心化的模式中去。让某些大公司不会变得那么强大。这就可以通过区块链的方式。通过这种去中心化的理念把数据权利还给用户本身。
一财: 但是用户不能控制自己看什么,大公司依然可以推送数据给用户,但用户无法控制。
谷安佳: 但是未来的用户拥有数据权利后,可以决定数据是否要共享。如果用户数据都是保护起来的,那大公司是没办法知道用户的喜好,所以信息都是中立的,大公司就无法针对特定用户做一些有预谋的推送。
一财: 但是区块链能真的做到让这些大公司放弃数据控制权吗?
谷安佳: 这个取决于大众能否意识到这个问题。如果人们只认为这些大公司提供的服务是巨大的好处,而忽略了这些大公司对于信息的攫取和控制,那其实大量的数据就被这些中心化的公司控制了。在去中心化的社交网络中,公司为了拿到用户的数据可以给他们一些激励和好处。
一财: 激励的做法解决了数据价值,但没有解决数据有可能被操纵的社会问题。
谷安佳: 未来在一个去中心化网络中,任何一个网络中的节点需要看到什么东西就不再是一个中心化的算法或者组织来决定推送给用户的内容。所有内容应该是用户去选择的。
一财: 那谁来提供算力呢?
谷安佳: 那就可以借助分布式的算法,可以让用户自己选择。用户可以自己选择内容,而不是由别人加工过以后再给我看。用户可以知道信息源头是谁,发布的观点是什么。去中心化算法可能可以提供更真实,更由社区决定的东西。而这些工作就可以由人工智能来完成。而不是像现在一些大公司来决定用户应该看什么。如果用区块链这种公正透明的方式把信息都打散的话,用户是知道信息是怎么来的。由于现在这种中心化组织架构,人类在信息面前是没有力量的。
谷安佳: 人工智能和区块链其实是一个自然衍生的过程。人工智能最近巨大的发展是来自于大数据,这些大数据为人工智能提供了训练。区块链可以让人工智能更好地发展,因为它可以打破信息的孤岛。现在我们可以看到人工智能都在巨头手上,因为这些巨头掌握了大量数据。如果人工智能想要发展就必须打破这种中心化数据控制权。而如果想打破,就要靠区块链,靠信息加密,信息分享,信息认证个方面,变成公开透明,不可篡改,完好无损保存在链上。通过这种方式,人工智能可以更多更好吸收大数据的养分,对于算法的提高,更好服务社会。所以人工智能和区块链是一个整体,这两样是相辅相成,互相推动的。