英国已故科学家斯蒂芬·霍金的遗作《对大问题的简明回答》于10月16日发售。在书中,霍金暗示,不久的未来,富人可以选择编辑他们自己和孩子的DNA,让自己和孩子变成拥有更强记忆力、抗病力、智力和更长寿命的“超人”。
霍金遗著封面
富人将有能力选择变成“超级物种”
霍金写道:“我敢肯定,本世纪之内,人们将找到修改智力和天资的办法,比如攻击性。”“可能会制定禁止人类基因工程的法律。但是,有人肯定抵制不了改进人类特征的诱惑,比如记忆力、疾病抵抗力和寿命。”
他还表示,这将对未修改基因的人造成严重后果,导致他们没有竞争力。这位教授甚至警告说这可能导致人类走向灭绝。“他们可能会绝种,或沦为可有可无。”霍金谈到了普通人。未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。可是,到那时,“我们的天才种族将已经发现了摆脱地球粗暴束缚的办法,因此能够战胜灾难”。
不过,地球上的其他物种可能做不到。
书中还提到,成功逃离地球的人很可能是新的“超人”,他们利用诸如“规律成簇间隔短回文重复系统(CRISPR)”这样的基因编辑威廉希尔官方网站 超过其他人。霍金说,他们会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命。
“已经没有时间留给达尔文的进化论来提高我们的智力、改善我们的天性了。”
这位《时间简史》作者还提到了相关基因编辑方法,比如“规律成簇间隔短回文重复系统(CRISPR)”,科学家可以借此修复有害基因并加入其他基因。报道称,尽管这类方法可能促进医学发展,但是一些批评者担心它也可能导致优生学式的运动,弱势者将被社会淘汰。
人工智能:别让人类陷入“蚂蚁窘境”
报道称,霍金对规范管理人工智能的重要性提出了严重警告,指出“未来人工智能可能形成自己的意志,与我们人类相冲突的意志”。
他在书中写道,应当制止可能出现的自动武器军备竞赛,提出如果发生类似于2010年股市闪电崩盘那样的武器崩盘,其后果将会如何的疑问。他接着写道:“总之,对人类来说,超级智慧的人工智能的出现不是福就是祸,二者必居其一。人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能将极其擅长实现目标。如果这些目标与我们不一致,那我们就麻烦了。你可能不是出于恶意而踩死蚂蚁的那种邪恶的仇恨蚂蚁的人,但是如果你负责一项水力环保能源项目,而洪水淹没地区有一个蚁丘,那么蚂蚁就惨了。别让人类陷入蚂蚁的境况。”
地球面临的最大威胁
未来,地球面临的头号威胁就是小行星碰撞,类似那种导致恐龙灭绝的碰撞。霍金写道:“我们(对此)无法防御。”
更直接的威胁是气候变化。“海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到250摄氏度。”
这些年来,霍金做过的预言
除了以上几点,霍金在世时还做过这些预言,值得深思。
“外星人”在看着你
在2015年伦敦皇家科学学会寻找外星生命迹象的启动仪式上,霍金就说过:“在无限的茫茫宇宙中,一定存在着其它形式的生命。”
他说:“或许外星生命会正盯着我们看呢。”“不管最终地外智慧生命到底存在、还是不存在,现在该是有人正式投入进来。这个问题,我们必须要弄个明白。”
据介绍,目前已有相关项目,该项目将动用部分目前世界上最大的望远镜,更远地深入宇宙中去捕捉任何无线电波和激光信号。
地球将变成一个“熊熊燃烧的火球”
霍金预言称,称人类可能在2600年前就会灭绝。霍金认为,随着地球人口增长,能源消耗将会增加,地球将变成一个“熊熊燃烧的火球”。
霍金表示相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。就如同1492年的欧洲,探索新大陆对旧世界带来了深远的影响。人类向太空的拓展,甚至将会产生更深远的影响,这将彻底改变人类的未来,甚至会决定我们是否还有未来。
千年内人类须移民外星否则“灭绝”
霍金在美国洛杉矶发表演讲时称,他认为,未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此,他强调人类必须移居其它星球。美国航空航天局局长格里芬也表示,单独一颗行星上的物种,是不可能永久生存下来的。
在太阳系中,火星是除地球之外可供人类居住的最佳选择。但火星载人探测要几十年之后才能实施,探测一次往返要450天。
霍金表示:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学威廉希尔官方网站 的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。”
智能机器是真正人类“终结者”
如上面所说,“超级智慧的人工智能的出现不是福就是祸,二者必居其一。”霍金曾多次表示,“彻底开发人工智能可能导致人类灭亡”。
按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。
事实上,美国Space X首席执行官埃隆·马斯克,微软创始人兼慈善家比尔·盖茨,也都警告过要注意人工智能的“危害”。麻省理工学院教授、科学家、谷歌、IBM和微软等企业员工及与人工智能领域有关的投资者,也联名发出公开信,表达同样的忧虑。
这是我们星球最危险的时刻
英国《卫报》网站2016年12月1日刊载霍金的文章《这是我们星球最危险的时刻》。文章指出,英国脱欧公投和特朗普当选总统,都代表了那些自认为被领导人抛弃的民众的怒吼。这些被遗忘的民众拒绝了所有专家和精英的建议和指导。西方精英须以谦逊之心看待民粹,切实弥补贫富差距。
“选票背后暗藏着人们对全球化与威廉希尔官方网站 加速革新所造成的经济后果的担忧,而这种心理完全可以理解。自动化工厂已经裁减了大批传统制造业岗位,人工智能的崛起很可能使就业遭破坏的情况蔓延到中产阶级,只有最需要护理能力、创造力或者管理能力的岗位才能保留下来。”
“我们应不应该反过来把投票结果看成是在宣泄粗鲁的民粹主义,认定民粹主义无法认清现实,并企图规避或者限制选票所代表的选择结果?我认为如果这样做将是大错特错的。”
“世界各国领导人必须承认,他们从过去到现在都在辜负大众的期望。随着资源日益集中到少数人手中,我们必须变得比现在更懂得如何分享。当消失的不只是岗位,还包括整个行业时,我们必须帮助人们接受再教育,迎接新的世界,必须在他们接受再教育的过程中提供经济支持。”
“我非常看好我们人类。但这需要所有精英,从伦敦到哈佛,从剑桥到好莱坞,都吸取教训。而且首先要学会保持一定程度的谦逊态度。”
-
人工智能
+关注
关注
1791文章
47229浏览量
238345 -
霍金
+关注
关注
0文章
40浏览量
10491
原文标题:霍金临终担忧曝光!富人编辑基因成为“超人”,穷人无法竞争,“阶级固化”无法避免
文章出处:【微信号:WUKOOAI,微信公众号:悟空智能科技】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论