人工智能的最新發(fā)展引起了一些道德困境。其中最重要的也許是人類是否可以控制自主機(jī)器。
人工智能驅(qū)動的機(jī)器人照顧家務(wù)或自動駕駛汽車(例如亞馬遜)的情況越來越普遍。盡管這種技術(shù)使生活更輕松,但也會使生活更加復(fù)雜。
一個國際研究小組警告說,創(chuàng)建過于強(qiáng)大和獨立的軟件存在潛在的風(fēng)險。通過一系列理論計算,科學(xué)家們探索了如何控制人工智能。
根據(jù)發(fā)表在《人工智能研究門戶雜志》上的研究報告,他的結(jié)論是不可能的。 “控制世界的超級智能機(jī)器聽起來像科幻小說。
但是,已經(jīng)有一些機(jī)器可以獨立執(zhí)行某些重要任務(wù),并且程序員不能完全理解他們的學(xué)習(xí)方式。這種情況可能會變得“不可控制且對人類構(gòu)成危險”??。
這項研究的合著者,馬克斯·普朗克人類發(fā)展研究所的曼努埃爾·塞布里安(Manuel Sebrian)說。科學(xué)家們嘗試了兩種控制人工智能的方法。
一種是將其與Internet和其他設(shè)備隔離,從而限制其與外界的聯(lián)系。問題在于,這將大大降低其執(zhí)行為其創(chuàng)建的功能的能力。
另一種是設(shè)計一種“理論上包含算法”。確保人工智能“在任何情況下都不會傷害人”。
但是,對當(dāng)前計算范式的分析表明,無法創(chuàng)建此類算法。 “如果將問題分解為理論計算的基本規(guī)則,則表明指示AI不破壞世界的算法可能會無意間停止其自身的運行。
如果發(fā)生這種情況,我們將不知道遏制算法是否會繼續(xù)分析威脅。或者它是否將不再包含有害的AI。
實際上,這使遏制算法無法使用。”另一位研究人員Iyad Rahwan解釋說。
基于這些計算,問題在于沒有確定AI是否會損害世界的算法。研究人員還指出,人類甚至可能都不知道何時會出現(xiàn)超級智能機(jī)器,因為確定設(shè)備是否具有卓越的智能和遏制問題是同一領(lǐng)域。
人工智能驅(qū)動的機(jī)器人照顧家務(wù)或自動駕駛汽車(例如亞馬遜)的情況越來越普遍。盡管這種技術(shù)使生活更輕松,但也會使生活更加復(fù)雜。
一個國際研究小組警告說,創(chuàng)建過于強(qiáng)大和獨立的軟件存在潛在的風(fēng)險。通過一系列理論計算,科學(xué)家們探索了如何控制人工智能。
根據(jù)發(fā)表在《人工智能研究門戶雜志》上的研究報告,他的結(jié)論是不可能的。 “控制世界的超級智能機(jī)器聽起來像科幻小說。
但是,已經(jīng)有一些機(jī)器可以獨立執(zhí)行某些重要任務(wù),并且程序員不能完全理解他們的學(xué)習(xí)方式。這種情況可能會變得“不可控制且對人類構(gòu)成危險”??。
這項研究的合著者,馬克斯·普朗克人類發(fā)展研究所的曼努埃爾·塞布里安(Manuel Sebrian)說。科學(xué)家們嘗試了兩種控制人工智能的方法。
一種是將其與Internet和其他設(shè)備隔離,從而限制其與外界的聯(lián)系。問題在于,這將大大降低其執(zhí)行為其創(chuàng)建的功能的能力。
另一種是設(shè)計一種“理論上包含算法”。確保人工智能“在任何情況下都不會傷害人”。
但是,對當(dāng)前計算范式的分析表明,無法創(chuàng)建此類算法。 “如果將問題分解為理論計算的基本規(guī)則,則表明指示AI不破壞世界的算法可能會無意間停止其自身的運行。
如果發(fā)生這種情況,我們將不知道遏制算法是否會繼續(xù)分析威脅。或者它是否將不再包含有害的AI。
實際上,這使遏制算法無法使用。”另一位研究人員Iyad Rahwan解釋說。
基于這些計算,問題在于沒有確定AI是否會損害世界的算法。研究人員還指出,人類甚至可能都不知道何時會出現(xiàn)超級智能機(jī)器,因為確定設(shè)備是否具有卓越的智能和遏制問題是同一領(lǐng)域。