巜交换做爰2伦理法国,少妇被粗大的猛进69视频,国产亚洲精品久久久久久久软件,国产精品亚洲色婷婷99久久精品

霍金再發(fā)警告:機器人100年內(nèi)將控制人類

2015-05-13   來源:潤滑油情報網(wǎng)

摘要:日前在倫敦舉行的2015年Zeitgeist大會上,著名科學(xué)家史蒂芬·霍金(Stephen Hawking)再次發(fā)出警告——未來100年內(nèi),人工智能將比人類更為聰明,機器人將控制人類...


\

日前在倫敦舉行的2015年Zeitgeist大會上,著名科學(xué)家史蒂芬·霍金(Stephen Hawking)再次發(fā)出警告——未來100年內(nèi),人工智能將比人類更為聰明,機器人將控制人類。

霍金宣稱,現(xiàn)在不是擔心誰控制人工智能的時候,而應(yīng)該擔心人工智能是否能被完全控制住。未來100年中,人類將面臨比人類更聰明的人工智能的挑戰(zhàn);艚鸫饲耙苍l(fā)出警告,他稱人工智能可能終結(jié)人類。

霍金說:“在未來100年內(nèi),結(jié)合人工智能的計算機將會變得比人類更聰明。屆時,我們需要確保計算機與我們的目標相一致。我們的未來取決于技術(shù)不斷增強的力量和我們使用技術(shù)的智慧之間的賽跑。”

今年年初,霍金曾與特斯拉CEO伊隆·馬斯克(Elon Musk)共同發(fā)表公開信,他們認為人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機器無法保障安全,人類可能陷入黑暗的未來。

信中警告科學(xué)家們警惕人工智能將抹殺人類?茖W(xué)家們稱:“我們已經(jīng)達成共識,人工智能研究正取得很大進展,將對社會產(chǎn)生越來越大的影響。潛在好處十分巨大,因為文明提供的一切都是人類智慧的產(chǎn)物。但是當這種智慧放大到人工智能工具都可提供的程度,我們無法預(yù)測結(jié)果,疾病和貧苦的消除并非不可能。”

科學(xué)家們也提出更嚴肅警告,人工智能研究必須避免潛在威脅。比如,從短期來看,人工智能可能導(dǎo)致數(shù)百萬人失業(yè)。從長期來看,人工智能可能像科幻電影中一樣,比人類更聰明時違反自己的程序設(shè)定。為此,必須確保人工智能系統(tǒng)按照人類的意圖行事。

11月份,馬斯克也提出警告,最少只需5年,智能機器可能就會帶來極端危險。他認為,人工智能就像“召喚惡魔”。馬斯克在麻省理工學(xué)院發(fā)表演講時,將人工智能描述為人類“最大的生存威脅”。他說:“我認為我們對人工智能應(yīng)該保持高度警惕。如果讓我猜測人類生存的最大威脅,那可能就是人工智能。”

關(guān)鍵詞:機器人人類霍金再

最新圖片文章

最新文章