這些警告來自牛津大學(xué)的尼克·博斯特羅姆(Nick Bostrom)等各種專家,還有埃隆·馬斯克(Elon Musk)和已故的斯蒂芬·霍金(Stephen Hawking)等公眾人物。他們畫的照片太暗了。
作為回應(yīng),許多人夢想著制定一套原則來指導(dǎo)AI研究人員,并幫助他們談判人類道德和道德的迷宮?,F(xiàn)在,《自然機(jī)器智能》上的一篇論文聲稱這種如此高的原則雖然值得稱贊,但卻無法為我們提供我們需要的道德AI社會,從而使工作陷入混亂。
AI倫理學(xué)領(lǐng)域通常分為兩個領(lǐng)域:一個是指導(dǎo)開發(fā)AI的人類的倫理學(xué),另一個是指導(dǎo)AI或機(jī)器人本身的道德行為的機(jī)器倫理。但是,這兩個區(qū)域并不是那么容易分開的。
機(jī)器倫理有著悠久的歷史。1950年這位偉大的科幻作家艾薩克·阿西莫夫明確闡述他對工作,現(xiàn)在著名的“機(jī)器人三個定律”我,機(jī)器人,并提出了它們的方式:
1-機(jī)器人不得傷害人類,也可以通過不采取行動而傷害人類。
2- 機(jī)器人必須服從人類的命令,除非這些命令會與第一定律發(fā)生沖突。
3- 機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)與第一或第二定律不沖突。
后來又增加了“零”定律:機(jī)器人可能不會傷害人類,也可能無所作為而讓人類受到傷害。
這些法律共同構(gòu)成了阿西莫夫(以及編輯約翰·坎貝爾(John W Campbell)的想法),以確保如何確保人工智能系統(tǒng)不會影響其創(chuàng)建者:一種旨在生產(chǎn)友好而仁慈的機(jī)器人的安全功能。阿西莫夫(Asimov)在眾多著作中探索了這三個定律的局限性,常常發(fā)現(xiàn)它們是缺乏的。雖然法律是一種文學(xué)手段,但它們?nèi)匀粸锳I倫理的現(xiàn)實世界提供了信息。
2004年,電影《機(jī)器人》(I,Robot)的改編版上映,其中包括一臺AI,該AI對這三個定律的解釋導(dǎo)致了一個計劃,要統(tǒng)治人類以拯救我們自己。
為了凸顯這三部法律的道德原則的缺陷,由美國AI研究人員Eliezer Yudkowsky領(lǐng)導(dǎo)的名為人工智能奇點研究所(現(xiàn)為機(jī)器智能研究所)的組織啟動了一個名為“三部法律不安全”的在線項目。
Yudkowsky是超智能AI的危害的早期理論家,也是友好AI理念的擁護(hù)者。他認(rèn)為,如果AI發(fā)展到阿西莫夫小說中所描述的階段,那么這些原則將變得毫無希望。
盡管人們普遍認(rèn)識到這三部法律的弊端,但從私營公司到政府,許多組織都堅持開發(fā)基于原則的AI倫理體系的項目,其中一篇論文列出了“84份包含AI倫理或指導(dǎo)原則的文件,迄今已出版。