2014年8月13日 星期三

埃伦•穆斯克警告人工智能可能消灭人类【世界末日】

埃伦•穆斯克警告人工智能可能消灭人类

  •  
  •   
“我们需要对人工智能超级小心,”他在其中一条推文中说,“人工智能可能比核武器还要危险。”
另一条推文则称:“希望我们不要在生物学上成为数字超级智能的启动加载程序。不幸的是,这种可能性越来越大。”
穆斯克此番令人惊异的“科技恐惧症”评论,是在看过《超级智能:方法、危险、战略》(Superintelligence: Paths, Dangers, Strategies)以及《我们最后的发明:人工智能及人类时代的终结》(Our Final Invention: Artificial Intelligence and the End of the Human Era)两本书之后有感而发。这两本书的作者分别是牛津大学哲学教授尼克·博斯特伦(Nick Bostrom)以及詹姆斯·巴拉特(James Barrat)。
人类未来研究院(Future of Humanity Institute)的创始人兼主任博斯特伦教授认为,第一个拥有超级智能的实体会消灭人类。“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。”他写道。
巴拉特先生认为,即便超级智能是出于好意而被创造出来,但它仍有犯下种族灭绝罪行的倾向。
他写道:“如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标。”
人类报应到来的第一步必将是使超级智能通过图灵测试,英国代码破译者、计算机先驱阿兰·图灵(Alan Turing)说道。
在该测试中,一台计算机和一个人必须竞相说服一个看不到它们的观察者,使其相信自己才是真正的人类。只有至少在半数观察者那里蒙混过关,该计算机才算通过了测试 。
目前,尚无一台计算机接近于通过测试。
我们制造的机器将会叛变并杀死我们,或者至少统治我们,这类恐惧是永恒的科幻主题,不仅限于奥利安电影公司( Orion Pictures)出品、由阿诺·施瓦辛格主演的《终结者》(Terminator)系列影片。
为了制衡这种情况,上世纪50年代美国科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的机器人相关小说中为机器人设定了行为准则,也就是机器人三定律(Three Laws of Robotics)。
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;
法则二:机器人必须服从人类的命令,除非违背第一法则;
法则三:在不违背第一及第二法则的前提下,机器人必须保护自己。
去年去世的科幻作者伊恩·M.班克斯(Iain M Banks)在其《文明》(Culture)系列小说中,频繁刻画了具有自我意识的计算机,其中有些具备超级智能,但它们全都受到道德感的约束。
执教于印第安纳大学等学术机构的认知科学教授道格拉斯·郝夫斯台特(Douglas Hofstadter)在其《哥德尔、艾舍尔、巴赫——集异璧之大成 》(Gödel, Escher, Bach: an Eternal Golden Braid,1979年获普利策奖)一书中称,为了获得真正的智能,计算机必须以和人类差不多的方式整合知识。
谷歌公司(Google)工程总监雷·库兹威尔(Ray Kurzwell)认为,到2029年时,计算机将变得比人类更智能,这样的一个点被未来学家们称之为“奇点”。但他在《灵魂机器时代》(The Age of Spiritual Machines)中称,人工智能将屈从于人类。

沒有留言:

張貼留言

卒業

業卒