3月15日消息,霍金再發警告,人工智能已成優勢群體將用戰爭摧毀人類。霍金是目前世界上最偉大的人之一,早前他就一直在提出人工智能對人類未來發展的危害,近日,霍金再發警告稱“人工智能已經慢慢補受人類控制,以此發展下去,人類必將成為弱勢群體,而未來新科技(人工智能)進一步發展便可能具備這種優勢,它們可能會通過核戰爭或生物戰爭摧毀我們。”對于人工智能,霍金一直很擔憂,他不能確定人類究竟人能不能控制住AI。這也是目前世界上的有一大難題。
最近,霍金對從地外生命到人工智能(AI)等一些熱門話題表達了自己的觀點。對于后者,他表示出非常擔憂。他并不反對開發人工智能技術,事實上,他曾經說過人工智能可能是我們文明歷史上最重大的事件。但是像今天世界上其他許多科學家和思想家一樣,霍金擔心人工智能的崛起可能帶來各種負面的副作用。
報道說,霍金慷慨地分享他對世界的觀察,并提出關于世界所面臨的問題的警告。他認為,世界的毀滅已經逼近,人類創造了可以毀滅地球的科技,卻沒有建立有效的機制去防止毀滅的發生。
這位全球知名的物理學家認為,人類的科技進步太過迅速,而這個巨大的步伐卻可能經由生化或核子戰爭的方式摧毀人類。人類唯一的辦法,就是運用其邏輯與理性去控制這個可能即將到來的毀滅。
霍金還說,當這些人工智能學會自我思考并適了人類的環境,人類等于是慢慢走向滅絕。雖然人工智能的進展可以讓人類受益,包括根除疾疾、戰爭與貧窮,但它也有負面的影響,人類的貪婪與愚蠢是人類毀滅的根源。
霍金最后總結道,人類的智商讓他可以創造出最后將可毀滅世界的科技,但人類卻至今沒有發展出可以避開此命運的能力。
他已就人工智能對中產階級工作崗位的影響向我們發出警告,并與特斯拉CEO埃隆·馬斯克(ElonMusk)一起,呼吁禁止開發用于軍事用途的人工智能機器人。他也擔心人工智能可能會接管世界,或者更糟糕的是,它會終止這個世界。現在,他在接受英國《泰晤士報》采訪時表示,防御人工智能崛起的最好方式,是組建可以控制這種技術的“某種形式的世界政府”。
霍金接著解釋了他建立這樣一家國際管理機構的理由:
自人類文明開始以來,人類的積極進取是有益的,因為它具有明確的生存優勢。它是在達爾文進化過程中滲透到我們人類基因的。然而,現在技術的發展速度,使這種積極進取可能以核戰爭或生物戰爭的方式摧毀我們人類。我們需要利用邏輯和理性來控制這種繼承下來的本能。
為了跟上人工智能的發展,我們必須學會適應。霍金在2014年年底表示:“人工智能的發展可能會導致人類的終結。它將自己發展自己,并以不斷增長的速度重新設計自己。人類則受到緩慢的生物進化限制,將無法與它競爭,并最終將被它取代。”
他認為這些人工智能機器人拋棄我們,不會是出于任何情感的原因:“人工智能的真正風險不是它有惡意,而是它的能力。一個有超常智慧的人工智能能將非常善于實現目標,如果那些目標與我們的目標不一致,那我們就麻煩了。”
因此,根據霍金的看法,某種形式的管理機構和快速適應的能力——這是即將到來的人工智能或超級智能時代我們生存的法寶。幸運的是,這樣的機構已經出現。這些機構,例如“人工智能伙伴關系”(PartnershiponAI)和人工智能倫理與治理基金(EthicsandGovernanceofArtificialIntelligenceFund),已經開始制定有關指導方針或框架,以讓人們更負責任地開發人工智能技術。國際電子電氣工程協會(IEEE)還發布了世界首個有關人工智能道德準則的“指南”。盡管未來的一切難以預料,霍金對未來仍然感到樂觀:“這一切聽起來有點像厄運來臨,但我仍是一個樂觀主義者。我認為人類會奮起迎接這些挑戰。”
霍金表示:自從人類文明形成以來,來自生存能力優勢群體的侵略就一直存在,而未來新科技(人工智能)進一步發展便可能具備這種優勢,它們可能會通過核戰爭或生物戰爭摧毀我們。因此人類需要利用邏輯和理性去控制未來可能出現的威脅。霍金還就如何應對人工智能的威脅給出了自己的建議。霍金認為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅,但他同時認為“世界政府”本身也有問題,因為這樣一個政府可能會施行暴政。實際上,霍金是人工智能技術的支持者,霍金認為,如今AI似乎已經滲透到各個領域,包括推動自動汽車進步,支持Facebook的廣告篩選功能,并通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動。AI甚至可幫助根除長期存在的社會挑戰,比如疾病和貧困等。
但霍金也一直對AI帶來的潛在挑戰表示擔憂。2015年9月,霍金在美國網站reddit的AMA(問我任何問題)專欄中談到,他擔心聰明能干的AI會讓人類滅亡。
一個超級聰明的AI可以非常好地實現它的目標,如果這些目標都沒有與我們人類一致,我們人類就麻煩了。
來源:科技訊
需要進一步了解本文信息,請點擊在線溝通或撥
打電話:010-52401598/52297285