計算能力有限,但人類無法控制超級人工智能。
最近,一項新的研究發(fā)現(xiàn),從理論上講,人類不可能控制超級人工智能。
更糟的是,這項研究還明確指出,人類無法在生成這種AI時發(fā)現(xiàn)它。
令人欣慰的是,根據(jù)多個預(yù)測,任何通用超級計算機超越人類的時間都將相差數(shù)十年。
近年來,在國際象棋,圍棋,德州撲克,危險游戲和其他游戲中,人工智能已經(jīng)超越了人類。
在Dota2和StarCraft游戲中,它與頂級玩家來回玩耍,這將不時引起小恐慌。
有些人擔(dān)心。
超越人類的機器智能將有一天使人們無所適從。
“關(guān)于超智能是否受人類控制的問題實際上是很老的了,”他說。
西班牙馬德里自治大學(xué)的計算機科學(xué)家Manuel Alfonseca說。
“它必須追溯到1940年代阿西莫夫的三項機器人技術(shù)定律”。
隨著超級人工智能的發(fā)展。
任何形式的交流都是冒險者熟悉的機器人的三大法則。
首先,在1942年科幻小說家艾薩克·阿西莫夫(Isaac Asimov)的短篇小說集中提出了“ I,Robot”。
規(guī)則如下:禁止機器人傷害人類,或坐著觀看人類受傷;除非順序與第一定律相抵觸,否則機器人必須遵守人類的命令;機器人可以保護自己,而不會違反第一定律或第二定律。
在“機器人與帝國”一書中, 1985年,阿西莫夫(Asimov)將三項法律擴展為四項法律:添加第零規(guī)則機器人不能傷害整個人類,也不能坐著觀看整個人類受到的傷害。
2014年,牛津大學(xué)人類未來研究所所長哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)不僅探索了超級人工智能可以摧毀人類的方式,而且還研究了此類機器的可能控制策略以及它們無法工作的原因。
Bostrom列舉了對此“控制問題”的兩種可能的解決方案。
一種是控制AI可以做什么,例如阻止AI連接到Internet。
另一種方法是控制AI想要做的事情,例如教授AI規(guī)則和價值觀,以便它可以按照人類最大利益的原則行事。
博斯特倫認為,第一種解決方案的問題在于,超級智能機器可能會擺脫人類對其施加的任何限制。
第二種解決方案涉及人類可能無法訓(xùn)練超級人工智能。
計算的固有局限性可能導(dǎo)致人類無法控制超級人工智能。
在本月初發(fā)表在AI領(lǐng)域頂級期刊上的一篇文章中,“人工智能研究雜志”馬德里自治大學(xué)馬克斯·普朗克人類發(fā)展研究所(JAIR),其他機構(gòu)的研究人員認為,由于計算固有的基本局限性,人類可能無法控制超級人工智能。
他們表示,旨在確保超級人工智能不會傷害人類的任何算法都必須首先模擬機器行為,以預(yù)測其行為的潛在后果。
如果超智能機器確實確實可能造成傷害,則這種類型的遏制算法(遏制算法)需要停止機器的運行。
但是,科學(xué)家認為,任何抑制算法都不可能模擬AI的行為,并且不可能100%地預(yù)測AI的行為是否會造成傷害。
抑制算法可能無法正確模擬AI的行為或無法準確預(yù)測AI動作的后果,并且可能無法區(qū)分這些故障。
論文地址:https://jair.org/index.php/jair/article/view/12202/26642“ Asimov的第一部法律實際上已被證明是無法計算的”。
阿方塞卡說。
"因此,不可能實現(xiàn)。
我們甚至都不知道我們是否創(chuàng)造了超級智能機器,這是賴斯定理在可計算性理論中的推論,該定理闡明了遞歸可枚舉語言的所有非平凡性。
性質(zhì)是不可決定的。
本質(zhì)上,僅觀察程序本身就無法知道程序可能輸出什么。
當然,另一方面,我們不需要為將來的機器人大師做好提前準備的準備。
在這項研究中,存在三個重要的問題,這些不確定性給本文的推論帶來了不確定性。
首先,阿方塞卡(Alfonseca)預(yù)測,強大的人工智能的關(guān)鍵時刻仍然遙遙無期。
他說:“至少還有兩個世紀”。
其次,人們究竟稱其為通用人工智能還是str還是未知之數(shù)。