您的位置: 漯河信息港 > 游戏

人工智能的警报声科技发展的裁量人应该是谁

发布时间:2019-03-26 18:36:33

虎嗅注:原文来自 MarketWatch,由新浪科技编译。

长达几十年的时间当中,未来派一直都在担心着计算机真正获得人类的智能。从《2001太空漫游》到《终结者》,再到《黑客帝国》,一部又一部电影都在重复讲述着智能机器给人类造成浩劫的主题。现在,哪怕是严肃思考的人们也已经听到了关于人工智能的警报声——机器人和自动化已经在造成意义重大的社会和经济混乱了。

两周前,物理学巨擘霍金(Stephen Hawking)对BBC表示:“全面人工智能的发展可能会导致人类的终结。”“它将会自行发展,以加速度重新设定自我。”霍金警告说,“人类受限于生物演化的缓慢,是无法与其竞争的,终将会被替代。”睿智的企业家马斯克(Elon Musk)是贝宝的创始人之一,目前担任特斯拉汽车(TSLA)和SpaceX的首席执行官,他也说人工智能是“对我们的存在的威胁”。“开发人工智能,我们其实就是在召唤魔鬼。

人工智能的警报声科技发展的裁量人应该是谁

”马斯克如是说。

此外,两位牛津大学的研究人员估计,计算机化将使得美国近一半的工作机会受到威胁,甚至一些创造性的专业岗位也不能免疫。“那些要求微妙的判断力的岗位也日益受到了计算机化的波及。”弗雷(Carl Benedikt Frey)和奥斯伯恩(Michael A. Osborne)写道,“在很多这种任务当中,依照计算法则做出的不偏不倚的判断较之人类确实有一定优势。”

计算机开始接管世界?

总之,机器真的开始接管世界了吗?我采访了几位业界的人工智能研究专家,得到的回答让我多少感到了一点安心,但也不是特别安心。人工智能正在发展,但是一些技术障碍或许会延缓其前进速度,使得机器智能无法立即实现大幅度的跃进。

不过,假以时日,智能机器必然能够完成越来越复杂的思维计算,甚至完全复制人类大脑高度复杂的运作。IBM的专家估计,人类的大脑一秒钟之内就能完成36800万亿次计算。世界上所有的超级计算机的计算力加在一起,总能力相当于一个人脑的八倍,而中国广州的全球超级计算机,计算能力大致和一个人脑相当。

正如霍金所指出的,计算力的指数增长背后,是摩尔定律在发挥作用——集成电路上的晶体管数目,每十八个月就会翻一番。2007年,耶鲁大学经济学家诺德豪斯(William D. Nordhaus)估算得出的结论是,和手工计算相比,计算机的表现已经好出了1万7000亿到76万亿倍。

“在复杂度和计算力方面,计算机正在逼近人脑。”诺德豪斯写道,“或许,计算机终会被证明,它才是外包。”乔治华盛顿大学工程学名誉教授波克(Peter Bock)研究人工智能已经四十年了,他说,人工智能的发展轨迹和摩尔定律高度契合。波克在1993年出版有《人工认知的兴起》(The Emergence of Artificial Cognition)一书,其中虚构了一个类似于人脑的人工智能机器Mada,他预计Mada2024年将成为现实,而目前,一切“都在精确地按照预定日程”发展。他在接受采访的邮件当中介绍说,这一智能机器将可以学习新事物,以使得自己的智能得到不断发展,“就像人类认知的过程一样”。

那么,人类的情感呢?波克的回答是:“这是简单的部分,只是反馈学习而已。”不过,智能机器显然会比巴甫夫的狗高明得多。在有些地方,电脑已经于我们了。正如加州大学伯克利分校电机工程和计算机教授罗素(Stuart Russell)所指出的,哪怕我们穷尽一生的时间,也不可能像谷歌那样在不到十分之一秒的时间中检索数以亿计的文件,找出答案。

只是,思想机器还不能完成某些常识性任务,这一点谷歌的自驾车就已经证明。“你必须尽快决定,不然车子就要把你撞倒了。”这,以及其他一些技术局限或许会延缓发展的过程,但是计算力的缺乏显然不在障碍之列。罗素指出,目前,“我们依然不了解”该如何为一个思维机器编程,以便它可以像人类大脑一样运转。他在邮件中写道:“想要设计能够得出智能行为的运算法则,还有许多观念上和技术上的问题需要解决。”

可是,那些大科技公司如IBM、微软、Facebook,尤其是谷歌,都在投入重金和人力去研究这一问题。日前,谷歌斥资4亿美元收购英国公司DeepMind Technologies,罗到了很多人工智能精英。

我信奉自由企业理念,但是考虑到人工智能潜在的危险性,到底是谁该成为这一科技发展终的裁量人显然是至关重要的。到底该是由利润和股市表现驱动的企业,是,再或者是其他人呢?

谷歌设立了一个道德委员会来监控DeepMind——公司的创始人之一和马斯克一样,也说人工智能是“这个世纪的头号风险”。可是,我们必须看到,华尔街的风险管理部门可曾防止住金融危机?当然没有。当闪烁着巨大利润光晕的重大突破发生时,道德肯定会被抛出窗外的。谷歌方面拒本文发表评论。

罗素在剑桥大学生存风险研究中心顾问委员会中与霍金一同任职,他相信,科学家们应该“理解并消除掉潜在的风险”。他对我表示:“让人工智能的能力发展到越来越强大的过程中,你也必须开发出越来越好的控制机制。”“我们在真正走到那一步之前,是不会真正明白自己做了些什么的。”波克表示,“那道路的终点,对我们而言简直是墓穴一样的危险。”

我们从魔瓶中放出的,到底会是怎样的妖怪?希望我们不会是以惨痛的方式来接受教训的,这样的错误,我们过去犯下过太多次了。

猜你会喜欢的
猜你会喜欢的