手机免费看国产欧美精品_久久精品国产9久久综合_免费无码一区二区三区视频_亚洲综合精品一二三区在线

您的位置:首頁>科技>

Microsoft和OpenAI還有OECD如何將AI倫理原則付諸實(shí)踐

微軟的AI倫理委員會幫助制定了國防部的內(nèi)部合同政策,如果不是日本領(lǐng)導(dǎo)層,G20成員國就不會通過AI倫理原則。根據(jù)一項(xiàng)案例研究,該案例研究了本周微軟,OpenAI和OECD的項(xiàng)目。

加州大學(xué)伯克利分校長期網(wǎng)絡(luò)安全中心(CLTC)案例研究于周二發(fā)布,研究了組織如何將AI倫理原則付諸實(shí)踐。道德原則通常是措辭含糊的規(guī)則,可能難以轉(zhuǎn)化為工程師或其他一線工人的日常實(shí)踐。CLTC研究員Jessica Cussins Newman告訴VentureBeat,許多AI倫理和治理辯論更多地將重點(diǎn)放在需要的內(nèi)容上,而不是在實(shí)現(xiàn)原則所載目標(biāo)所需的實(shí)踐和政策上。

該研究的重點(diǎn)是OpenAI推出的GPT-2;經(jīng)合組織和二十國集團(tuán)采用人工智能原則;并在Microsoft創(chuàng)立了AI,道德和工程與研究效果(AETHER)委員會。經(jīng)合組織政策觀察站于2月啟動,旨在幫助36個成員國將原則轉(zhuǎn)化為實(shí)踐。紐曼說,該案例研究包括以前未公開的有關(guān)微軟AETHER委員會和七個內(nèi)部工作組的結(jié)構(gòu)及其在確定政策(例如在美國聯(lián)邦監(jiān)獄中使用面部識別)的作用的信息。

案例研究中的一個新內(nèi)容是20國集團(tuán)如何以及為什么認(rèn)可與OECD原則相同的AI倫理原則。經(jīng)合組織(OECD)創(chuàng)造了世界民主國家去年采納的第一項(xiàng)道德原則。

該研究發(fā)現(xiàn),人工智能治理自2016年以來已經(jīng)歷了三個階段:近年來,科技公司和政府發(fā)布了約85項(xiàng)道德準(zhǔn)則,這標(biāo)志著第一階段,隨后圍繞隱私,人為控制,可解釋性和公平性等主題達(dá)成了共識。第三階段始于2019年,一直持續(xù)到今天,正在將原則轉(zhuǎn)化為實(shí)踐。在第三階段,她認(rèn)為采用原則的企業(yè)和國家將面臨信守諾言的壓力。

該報(bào)告寫道:“幾乎所有AI利益相關(guān)者目前都面臨著有關(guān)如何實(shí)施AI原則和策略的決策,并且正在以一種有意義的方式來確定實(shí)踐和政策。”“人工智能公司和組織采取實(shí)施工作的壓力越來越大,那些被認(rèn)為偏離既定意圖的行為者可能會受到員工,用戶和公眾的強(qiáng)烈反對。今天就如何大規(guī)模實(shí)施AI原則而做出的決定將對未來數(shù)十年產(chǎn)生重大影響,并且AI利益相關(guān)者有機(jī)會學(xué)習(xí)現(xiàn)有的努力,并采取具體步驟來確保AI幫助我們建立更美好的未來。”

該案例研究的部分編制是通過與每個組織的領(lǐng)導(dǎo)人進(jìn)行訪談,包括微軟首席科學(xué)家埃里克·霍維茨和經(jīng)合組織的工作人員。

由于組織,技術(shù)和法規(guī)上的鎖定效應(yīng),紐曼認(rèn)為,像Microsoft和OECD那樣的早期努力將特別有影響力,并且越來越多的AI倫理原則通用性“將導(dǎo)致建立確保AI原則和方法的方法的壓力越來越大。策略得以實(shí)現(xiàn)。”

紐曼強(qiáng)調(diào),每個案例都可以提供經(jīng)驗(yàn)教訓(xùn),例如AETHER如何說明自上而下的道德領(lǐng)導(dǎo)的需求,盡管每種方法可能都不是其他組織復(fù)制的理想模型。

例如,OpenAI面臨研究人員的壓制,他們稱9個月內(nèi)發(fā)布GPT-2是PR特技或背叛了同行評審的核心科學(xué)過程,但Newman認(rèn)為OpenAI值得鼓勵,因?yàn)樗膭铋_發(fā)人員考慮發(fā)布APT的倫理意義。模型。她指出,承認(rèn)和陳述人工智能系統(tǒng)的社會影響還不是常態(tài)。今年以來,全球最大的AI研究會議NeurIPS首次要求作者解決對社會的影響以及任何金融利益沖突。

該研究還匯編了一系列將原則付諸實(shí)踐的最新舉措,包括框架,監(jiān)督委員會和工具,例如IBM的可解釋AI工具包和Microsoft的InterpretML,以及隱私法規(guī),例如加利福尼亞的CCPA和歐盟的GDPR。

上個月,來自Google和OpenAI等組織的一系列AI研究人員建議組織實(shí)施偏見懸賞或創(chuàng)建第三方審計(jì)市場,以將道德原則轉(zhuǎn)化為實(shí)踐,創(chuàng)建更強(qiáng)大的系統(tǒng),并確保AI仍對人性。3月,Microsoft Research負(fù)責(zé)人與AETHER和來自十幾個組織的近50位工程師一起,發(fā)布了針對AI從業(yè)人員的AI倫理清單。

免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章