霍金再发警告 人工智能已成优势群体将用战争摧毁人类

放大字体  缩小字体 发布时间:2018-03-03 15:18:33  阅读:6888+ 来源:本站原创 作者:辰亦儒
霍金再发警告,人工智能已成优势群体将用战争摧毁人类。霍金是目前世界上最伟大的人之一,早前他就一直在提出人工智能对人类未来发展的危害,近日,霍金再发警告称“人工智能已经慢慢补受人类控制,以此发展下去,人类必将成为弱势群体,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。”对于人工智能,霍金一直很担忧,他不能确定人类究竟人能不能控制住AI。这也是目前世界上的有一大难题。

最近,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的崛起可能带来各种负面的副作用。

报道说,霍金慷慨地分享他对世界的观察,并提出关于世界所面临的问题的警告。他认为,世界的毁灭已经逼近,人类创造了可以毁灭地球的科技,却没有建立有效的机制去防止毁灭的发生。

这位全球知名的物理学家认为,人类的科技进步太过迅速,而这个巨大的步伐却可能经由生化或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。

霍金还说,当这些人工智能学会自我思考并适了人类的环境,人类等于是慢慢走向灭绝。虽然人工智能的进展可以让人类受益,包括根除疾疾、战争与贫穷,但它也有负面的影响,人类的贪婪与愚蠢是人类毁灭的根源。

霍金最后总结道,人类的智商让他可以创造出最后将可毁灭世界的科技,但人类却至今没有发展出可以避开此命运的能力。

他已就人工智能对中产阶级工作岗位的影响向我们发出警告,并与特斯拉CEO埃隆·马斯克(ElonMusk)一起,呼吁禁止开发用于军事用途的人工智能机器人。他也担心人工智能可能会接管世界,或者更糟糕的是,它会终止这个世界。现在,他在接受英国《泰晤士报》采访时表示,防御人工智能崛起的最好方式,是组建可以控制这种技术的“某种形式的世界政府”。

霍金接着解释了他建立这样一家国际管理机构的理由:

自人类文明开始以来,人类的积极进取是有益的,因为它具有明确的生存优势。它是在达尔文进化过程中渗透到我们人类基因的。然而,现在技术的发展速度,使这种积极进取可能以核战争或生物战争的方式摧毁我们人类。我们需要利用逻辑和理性来控制这种继承下来的本能。

为了跟上人工智能的发展,我们必须学会适应。霍金在2014年年底表示:“人工智能的发展可能会导致人类的终结。它将自己发展自己,并以不断增长的速度重新设计自己。人类则受到缓慢的生物进化限制,将无法与它竞争,并最终将被它取代。”

他认为这些人工智能机器人抛弃我们,不会是出于任何情感的原因:“人工智能的真正风险不是它有恶意,而是它的能力。一个有超常智慧的人工智能能将非常善于实现目标,如果那些目标与我们的目标不一致,那我们就麻烦了。”

因此,根据霍金的看法,某种形式的管理机构和快速适应的能力——这是即将到来的人工智能或超级智能时代我们生存的法宝。

幸运的是,这样的机构已经出现。这些机构,例如“人工智能伙伴关系”(PartnershiponAI)和人工智能伦理与治理基金(EthicsandGovernanceofArtificialIntelligenceFund),已经开始制定有关指导方针或框架,以让人们更负责任地开发人工智能技术。国际电子电气工程协会(IEEE)还发布了世界首个有关人工智能道德准则的“指南”。

尽管未来的一切难以预料,霍金对未来仍然感到乐观:“这一切听起来有点像厄运来临,但我仍是一个乐观主义者。我认为人类会奋起迎接这些挑战。”

霍金表示:

自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧毁我们。因此人类需要利用逻辑和理性去控制未来可能出现的威胁。

霍金还就如何应对人工智能的威胁给出了自己的建议。霍金认为,人类可以组成某种形式的“世界政府”来防范人工智能可能带来的威胁,但他同时认为“世界政府”本身也有问题,因为这样一个政府可能会施行暴政。

实际上,霍金是人工智能技术的支持者,霍金认为,如今AI似乎已经渗透到各个领域,包括推动自动汽车进步,支持Facebook的广告筛选功能,并通过苹果Siri、亚马逊Alexa等虚拟助理与世界各地的人们互动。AI甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。

但霍金也一直对AI带来的潜在挑战表示担忧。2015年9月,霍金在美国网站reddit的AMA(问我任何问题)专栏中谈到,他担心聪明能干的AI会让人类灭亡。

一个超级聪明的AI可以非常好地实现它的目标,如果这些目标都没有与我们人类一致,我们人类就麻烦了。

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!