人和机器的界限在哪里?
什么是机器人?
我个人认为,随着人工智能进一步的发展,我们和机器的界限会越来越模糊,我喜欢把我们现在的自然人称为是人,而那些纯机器的就称为机器,然后会诞生一种新的生物,它能更像机器和人的结合,被称为机器的人。
现在我们讲的机器人是什么呢?越来越像人的机器,这一点我们都可以相信,就是我们从材料方面,外观方面,我们都会发现我们造的机器人都确实越来越像人类。
著名的图灵测试说:“如果你跟它聊了半天都不知道它是个机器的话就通过了图灵测试。”这个我觉得会越来越接近,图灵测试应该是人和机器界限中的一个最低的门槛,如果这个槛都过不去,你稍微聊两句就知道它是机器的话,说明它不像人,它对人的interwetten与威廉的赔率体系 和接近距离尚远,这个其实只是一个最低的门槛。更高的门槛是它能不能像人类一样具有高度丰富的智慧,甚至具有人类的情感,这才是所谓机器跟人之间的距离。以前我们可能会认为,机器最擅长的实际上是运算,确实是,当我们人类发明计算机的时候,目的就是让它帮助人类计算。但问题是这次通过人机大战,我们感受到了,人工智能不仅仅在计算领域中超越了人类,在完全不能计算复杂的智慧中,它依然挑战和战胜了人类,这恰恰是人工智能一次飞跃性的发展。
当这种能力复制在很多人类的工作领域中时,它和我们人类之间的关系就会变得更加复杂。通过这次人机大战我们能够感受到的是什么呢?就是在这种深度的人类智慧中,机器开始挑战人类,它不仅仅是个运算的工具了。今天如果有一个人坐在我的对面和我们下棋,然后轻松的击败了我们,这时候我们知道对方是一个机器还是人吗?如果我们不知道,说明机器人在模拟人类方面已经越来越接近人类了。
机器人是否会有情感?
另一方面我们说它永远不会成为人类,是因为它不会有自我的意识,它可能不懂得什么叫爱。就像今天(钛坦白)群里有人说的一样,“机器可能知道我怎么做,我做什么,怎么做,但我不知道为什么要做这件事。”而现在看来确实是这样的。现在的AlphaGo下的棋确实是不知道为什么下,甚至不知道它下的是围棋,它只知道按照规则去执行一些动作,最后产生一个结果,至于赢了还是输了我觉得它甚至没有喜悦也没有痛苦。我们先不说,拥有这种情感对人类是好事坏事,对机器是好事还是坏事,先说它可能不可能拥有这些东西。
我觉得机器人在帮助人类做很多机械的劳动和工作以后,它可能会上升到更高级别的服务中,比如说情感机器人,我觉得未来肯定会诞生。如果我们在家里,有一个专门打扫卫生给你端茶送水的一个机器人,我们很容易理解,我们需要它用这种努力和工作来代替我们原来人类的职业。甚至可能会做得更好。但是如果是伺候的是一个老人呢?我们会不会希望它能够陪老人说说话呀?如果是这样的话,未来可能会诞生一类就是情感机器人,它可以陪你聊天。
在陷入孤独和痛苦中,无法向别人倾诉的时候,向一个机器人倾诉也可能是你情感宣泄的一个过程,它跟你做非常好的应对,甚至是心理治疗的一个部分,这个比较容易想象我们也比较容易接受。这个过程你是否觉得它给你带来很多来自情感上的安慰呢?这时候它是不是更像人了呢?
这样的话它会带来更大的一些问题:未来我们会不会爱上一个机器人呢?机器人和人之间会产生情感吗?我觉得它可能是会的,就像你在家里你养狗或猫时间长肯定会产生感情,当然它对你也有依赖和感情,所以人类喜欢上一个机器人,可能是很正常的一件事情。机器人会不会爱上你,那变成另外一个较复杂的问题了,包括它自己会不会有一些自我的意识,这是一个比较有意思的话题。
机器人会不会摆脱人类的控制?
机器人一旦知道自己是一个机器人的时候,它还会像现在这样接受人类的管理,服务于人类吗?这在我看来,是机器人摆脱人类控制的一个重要因素,或者是一条路径,但是实际上我们人类失去对机器人的这种控制,有很多种不同的路径。就是说,机器有没有可能有一天摆脱我们人类的控制?甚至反过来控制我们人类?这个话题在我看来是一个越来越现实的话题,当然现在我们不用特别担心它,因为现在机器智能离我们人类尚远,甚至还不能够综合掌握人类所有的智慧,有些机器只能下下棋,有些只能打打牌,有的只能搬搬东西,那种具有人类综合能力的机器人还没有完全形成,我们只是对未来做一个展望,就像做一个科学幻想一样。
我觉得人类至少有这样几条不同的路径,失去对机器的这种管控:
一,人类自身犯下的错误。人不是神,只要是人就会犯错误,虽然机器人的所有程序都是我们编写的,但是依然可能会失去对它的控制,因为我们会犯错,如果有个机器人给你端咖啡,端到一半突然不动了,我们知道这个机器人出了一个bug,不能帮你倒咖啡问题上还算是小事,你找个人修一修就又接着对你服务了。关键是如果我们人类会犯错,有时候我们不知道犯错会犯在哪个地方。如果犯在一个失去控制的地方,我们根本不能预测犯错以后的结果,这是我觉得人类自身存在的一个可能。
二、其他人类因素的介入。机器人确实是我们人制造出来的,并且我们可以对它进行有效的控制但是在控制和制造机器人的过程中,会不会有其他的人类的因素介入?比方说我们人里头分好人和坏人,这里头会不会有不同的利益集团想利用机器人反过来为自己的集团利益服务?这时候他们会不会改变对机器的设置?当然这个过程中,也会带来一些新的风险,就是有些机器人可能是忠实于人类的,但是被人为的改变以后,也许进入一个反人类的状态,至少反部分人类的状态,最后改变了对整个机器的控制,这是更显而易见的。
三、利用人类的善良与同情。像电影《机械姬》讲的,我们人类一些比较善良的人去参加一个图灵测试,这时候他看到人和机器的关系,非常同情这些机器,开始对机器拥有一种感情,这时候他想帮助机器来摆脱人类的控制,但是这个结果依然可能带来风险,机器人可能借助人类的善良或者其他的爱心,不仅摆脱人类的控制并且还会反过来控制人类。那这种情况也可能会出现。
四、人工智能理解上的差异。就像我们一个大人和一个孩子说话,看起来你把问题表达的比较清楚,但对孩子来说听到可能是不同的。有可能你觉得讲得很有道理,但是别人听着完全不是这么回事,这也会带来理解上的差别,带来可能一种更大的风险。
比如著名科幻小说家艾萨克·阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则:第一,机器人不得伤害人类,或坐视人类受到伤害;第二,除非违背第一法则,机器人必须服从人类的命令;第三,在不违背第一及第二法则下,机器人必须保护自己。
作为三个公理我们听起来挺好的,觉得可以很好的管控机器人,可以像植入操作系统一样,使每个出厂的机器人都拥有基本的原则,我们以为这样就完成了对机器人的管理。实际上在我们现在理解中,这样的三个原则真能管好机器人吗?其实不一定。
从小的地方讲,什么叫保护人类?比如说我们让一个家庭机器人照顾好自己的孩子,我们告诉他必须绝对保证这个孩子的安全。听起来这是非常重要的,但是机器人怎么理解这件事情呢?机器人通过各种分析,发现怎么样才能够最好的保证这个孩子的安全呢?就是呆在家里不出去,因为出去的话可能会遇到交通事故,遇到恐怖袭击等很多不确定的因素,它通过大数据的分析和各种概率计算,最后发现呆在家里是最安全的,于是它就不让他出去了。如果只是管理个孩子还行,换成是大人呢?说要保证我的绝对安全,绝对安全是什么?就是把你关在家里,然后不出去,是最安全的一种方式,这时候相当于软禁了,如果它对人类的理解就是这样保护人类安全,同样带来一些大的风险。
另一些机器人可能理解的程度就更高了,不是要我保护人类吗?但它认为人类正在自己毁灭自己,比如说我们搞的空气污染、战争,人类自相残杀,它觉得人类这个物种正在自己毁灭自己,于是它认为保护人类最好的方式,就是把人全部关起来,像宠物一样的去养他们,就很像我们现在保护野生动物一样。如果它这样理解保护人类的话,是不是对我们人类同样是非常危险的呢?当然如果哪天机器人有一点自我的意识,真的变得非常危险了。
关于这个问题,我没有特别深入的思考,就是说我们不知道有没有可能在这个高度智慧的情况下,机器人开始思考自己来自于哪里,要去哪里,自己是谁等这些人类基本的哲学问题。假如说它们有了所谓自觉的意识,它们还愿意服务于人类吗?
对于“真正的机器人”的构想
我认为人类和机器的界限会变得越来越模糊,当机器越来越高度智慧的时候,它从外观上,甚至内在上,会越来越接近我们人类。但是机器就是机器,我觉得有另外一类的模糊会发生在我们人和机器之间,所以会有一种新的物种会诞生,我认为那个才叫真正的机器人,就是机器和人的结合。
机器自己产生了意识或者人类把自己的意识放到一台机器上了,这时候就会出现机器和人的这种混合物,这很容易理解。你想一个机器发展到足够好的时候,它在很多部分开始代替人类,假如说我们因为车祸受伤了,会装一个义肢、假肢,这时候我们是不是很容易接受它代替我们的四肢?如果我们的器官出现了问题,我们替换了一个器官我们是不是能够接受?当我们身体大部分被替代的时候,我们到底是不是人了呢?
有一个电影叫《攻壳机动队》,它可以把人类的大脑植入一台钢铁的器具中,变成了人和机器的结合物,只保留我们大脑。是不是还是我们的人,但是其他部分全部变成了机器?在我看来,这就变成了一个新的物种叫机器人了。拥有人类的大脑,又有很多其他机器的能力。实际某种程度上已经开始超过我们人类自身了,因为人类的血肉之躯可能是我们的弱点,比如说我们跑不过猎豹,打可能打不过老虎,很多动物在原始的技能上都超过了我们。我们最重要的就是拥有一个大脑,但是我们并没有一个强健的躯体,当我们具有一个钢铁之身的时候,是不是已经变成了一种优势?所以那样的机器人对于人类来说已经形成了某种优势。如果让机器人这样的开始不断的学习和掌握人类的智慧,逐渐开始接近人类,我觉得是个挺危险的事情,机器越来越像人类甚至超越人类,还有钢铁之躯的时候,它整体上会不会真正超越人类成为一个新的物种呢,所以人类要面对这样的一个新的物种,我们应该怎样呢?
人类自身的进化
我觉得人类也会完成自我的进化,我们看到人类在几百万年的演化过程中,成为了万物之灵。我们超越了很多其他的动物,成为了食物链的顶端,这个过程中,我们成为了高等动物,我们可以让其他的人,包括甚至某些动物为我们人类去服务。但是我们见到过一个低等动物能够奴役和驾驭高等动物吗?没有,在进化的过程中,大家都向更高级别去发展,所以说当机器人如果真的超越了人类,这时候一旦失去控制,它不会服务于人类,而是很有可能让人类服务于它了。
所以人类也会发生一些新的进化,比如说现在我们大脑具有很强的思维能力,但记忆能力依然有限。从现在看,互联网已经几乎把人类所有的知识都沉淀在互联网上了,我们可以非常容易用搜索的方式或者其他大数据分析的方式,获得我们所需要的知识。我本人曾经就写过一本书叫《搜商》,我把它定义人类的第三种能力,就是继智商、情商之后的第三种能力。
所谓搜商不是说我们要把人类所有知识都记到自己的大脑中,主要的问题来自于我们未来的人类是掌握知识重要还是掌握获取知识的能力更重要。当然很多人开始越来越接受我关于搜商的观点:当然掌握知识获取知识的能力更重要,知识很多不必要记到我们大脑中。在哪里呢?在整个互联网上,当我们需要的时候再用就可以了。如果是这样的话,可能我们的记忆能力,甚至存储能力都有可能会退化,或者变得不那么重要,但是可以利用我们人类的威廉希尔官方网站 和能力来补充我们的能力,最容易想到的应该是为大脑植入一个芯片,这个芯片把我们人类的很多知识都浓缩在里头。其实很简单,只要知道大脑是怎样工作的,如何存取和使用这些数据的,这些芯片就可以很好的发挥知识的作用,那时候我们就不用学好多东西了,什么学个外语,学个人工智能,学个下棋,我们很多的知识都可以直接存在芯片中,为我们人类所使用。
在我的想象中这些都是个性化的,就是需要哪一类知识你就可以装哪一类知识,不需要还可以把它们卸载。未来我们每个人都生活在网络中,应该都是一个无线的网络,就是随时随地都在这个云端,所以人类应该极其容易地获取这些信息。这样的话,我们人类就真正有机会把人类的威廉希尔官方网站 成果同样为人类所用,未来会怎么样就看起来听起来很像一个科幻的电影,但是我们现在也应该能感知到:我们曾经看过的很多科幻电影如今都变成了现实。
未来的计算机体系结构
随着我们人类科技的进步,在我看来,整个人类的进步实际上是加速进行的,而最近这几十年,人类的科技进步会出乎我们的意料,是因为在整个互联网情况下,在云计算和大数据的支持下,我们曾经很难做的事情,会变得越来越容易,所以人工智能在近期得到了爆发性的发展。
在我看来人工智能如果要想再有一个大的进步,可能有一个威廉希尔官方网站 领域的方向应该来自于对整个计算机系统的重新再造,或者会出现一个新的计算机体系。因为从现在的情况看,我们现在是把很多知识用现在的计算机系统表达出来。而现在计算系统大家知道,是基于冯诺依曼的体系结构,他是用0、1这种二进制的表达方式来表达人类的所有知识。这种知识是非常便于运算的,所以我们在现有的体系下处理器,有存储器,运算器构成了现在的计算机体系。
未来会不会有人工智能的计算机呢?我觉得可能会有,它可能会更接近于大脑的使用方式,就是用神经网络的方式作为整个计算机体系的基础,完全模拟人大脑思维,再结合现在的计算机体系。这样的话它具有更强的人类大脑思维方式,同时也借鉴了机器最擅长的运算、存储等能力。这样的体系,可能是未来更具有接近人类或者超越人类的优势。所以计算机领域可能也会发生一些大的变化,包括系统体系结构的变化,来适应人工智能威廉希尔官方网站 的发展。未来的这个计算机的体系结构,会不会从冯诺依曼的体系结构进化到新的人工智能体系结构呢?这个我们可以拭目以待。
我觉得人工智能的话题是一个非常具有这种想象力的话题,通过“人机大战”,它开始充分展示人工智能的魅力,也通过人机大战检验了人工智能的很多成果。它们注定会应用到很多不同的应用场景中,然后在帮助人类的过程中,完成自己的深化。当然在我看来未来我们和机器的关系,就像是新的物种一样,我们未来最好是能够相生相伴,和平共处。如果说未来我们看到有三个人形的物体在那斗地主的话,我们很容易识别什么是自然人,因为斗的最差的那位是自然人,另外两位可能是机器人。
钛坦白群友互动:
1、陈总您好,请问能源问题是不是限制人工智能发展的一个因素呢?
陈沛:能源问题应该不影响机器人发展,因为我们可以让机器人去挖煤嘛,现在还有什么各种可燃冰,有很多新能源,我觉得能源不会成为问题,包括核能的广泛使用。
2、陈总,我想请教您一个问题,机器人威胁论最主要的观点是机器人可能会失控,而失控来源于机器人对外界事物的判断和处理上,会对人类造成危害,请问从人工智能威廉希尔官方网站 角度,是否有威廉希尔官方网站 可以避免这种情况的发生? 举个例子,机器人默认不对人类有暴力。
陈沛:当然人类会用各种各样的威廉希尔官方网站 去保证来对过程的管控。但我刚才其实列举了若干个可能失控的这个原因,其中还包括人类自身的问题,所以单纯从威廉希尔官方网站 方面去做一个安全防护,就像我们做一个安全体系来防止病毒入侵一样,我想所有的安全体系都以为它能防止所有的病毒,但是事实上总有各种各样的不同的病毒。包括他们不断进化和变种,侵入各种安全系统,所以这是一个矛和盾的过程,很难说有一个绝对安全的方案可以保证我们人类的安全。
机器人这个不对人类有暴力是不太行的,因为机器人作为一个工具有时候就是人类某个集团用于战争的工具,这是很正常的,他们用机器人去打击另外一些人类,这是最容易理解的东西。它就像武器一样,所以机器人不太可能不使用暴力,只是它使用暴力的对象有可能被人为的改变。如果有坏人要毁灭世界,机器人应该保护人类去战胜那个坏人对吗?所以不是简单用暴力可以控制机器人的。
其实所谓机器人是我们把拥有智慧的机器称为叫机器人,而它有时候可以像人,有可能也可以不像人,你们看到现在很多的无人机,其实拥有高度的人类智慧,可以识别地形,精确打击等等,这些东西其实本来就变成人类杀人的武器,所以这一类其实也都是一种机器人。
3、请问陈总,您说机器人可能作为军事人员或警察,机器人识别犯罪行为还是一般错误,可能会直接影响其处理结果,您认为人类以免过度暴力是否有能力处理好?
陈沛:所谓的机器人能不能处理,人类能不能处理好机器人的问题,这就是人工智能本身的一个问题,就像刚才我们讲的:我们认为能够处理好了不一定它理解那样的,所以我想理解本身就可能是我们跟机器人沟通中最重要的一个问题,它可能觉得这样是对的,但是也许我们人类看来并不是你的意思。
4、请问陈总,人类要怎么从娃娃抓起,跟越来越智能的机器竞争?机器能快速学习,人类该多学什么领域的知识,或者技能呢?
陈沛:靠提高运算速度,包括快速学习来赶超机器是不可能的,所以最好的方式是把机器已经学习好的成果用一个芯片植入我们的大脑,我觉得这是我们人类进化最快的方式。柯洁也说了,这是可能他最后的三盘棋,如果他这次赢不了机器,以后靠人的学习速度和机器的学习和迭代速度相比,只能距离越来越远。
机器威胁论最直接的就是部分岗位被机器所替代,这是一个非常现实的,不管你是蓝领还是白领还是金领都有可能被机器取代。
5、陈总您好,如果复盘今天的棋到中盘,然后让AlphaGo下柯洁的棋,您觉得谁会赢?
陈沛:这个中盘的问题,就是复盘今天的棋,要看你中盘在什么位置上。我个人认为一段时间内,实际上在一百多手以后, AlphaGo已经取得了明显优势,它的管子下的相对比较松。前一个测试版Master,在网络上60连胜的也是具有这个特点,如果赢了以后它并不选最强硬的下法,所以它如果换成柯洁的话整个的下法就不太一样了,据说在不利的情况下,可能经常会下一些比较拼命的下法,会失去它原有的水准,但是人类如何逼出它的劣势是战胜AlphaGo的关键。
6、陈总您好,像您刚才说的和我们目前所了解的,现在人工智能的神经网络研究方向,是一种类似仿生学但又不能说是真正的仿生学的研究方向。因为人类现在对大脑的运作方式还知之甚少,据说神经网络的层级越深得到结论的过程就越类似于黑盒。人类越难理解它的逻辑方式和人类的逻辑方式可能是完全不一样的。这样在利用人工智能的过程中就很容易出现失控和误用的情况,我想问一下,您觉得有什么方法可以控制这样的问题吗?
陈沛:其实人工智能分成两个学派,一个是本格派,一个是功能派。本格派认为,应该研究人大脑是怎么思维的,只有研究好大脑我们机器才知道怎么学习大脑,这是一种方式,所以通过人类生物学的进化提升整个人工智能。另外功能派的观点是,其实我并不一定要学习大脑怎么运营的,我只要把大脑这个智慧产生的结果做出来,一样是可以的。就像我们人类有了飞机就能够飞行,并不要像小鸟一样煽动翅膀,我们发行了汽车也可以跑得很快,不一定要像猎豹那样去奔跑。
现在我看是两种流派的融合,既要深度了解大脑的使用的工作原理,然后更好的知道人类智慧思考的这个模型,包括已有的一些知识的支撑,包括结构的支撑,那另一方面的话,其实它不应该完全依赖于人类的这种已有知识,生物学知识,所以这是一个相互融合的一个过程。
评论
查看更多