阻礙AI廣泛采用的最大障礙之一就是解釋其工作原理。尤其是深度神經(jīng)網(wǎng)絡(luò)非常復(fù)雜,并且難以清晰描述,這在確保AI做出的決策公正且沒有人為偏見的情況下是一個(gè)問題。但是在幾個(gè)方面,可解釋的AI(XAI)問題正在取得真正的進(jìn)展。
幾周前,隨著Google Cloud Explainable AI的發(fā)布,Google成為頭條新聞??山忉尩腁I是框架和工具的集合,這些框架和工具向用戶解釋每個(gè)數(shù)據(jù)因素如何促進(jìn)機(jī)器學(xué)習(xí)模型的輸出。
Google的Cloud AI戰(zhàn)略主管Tracy Frey在11月21日的博客文章中寫道:“這些摘要可幫助企業(yè)理解該模型為何做出決定的原因。”“您可以使用此信息來(lái)進(jìn)一步改進(jìn)模型或與模型的消費(fèi)者分享有用的見解。”
Google的Explainable AI公開了Google創(chuàng)造的一些內(nèi)部技術(shù),以使開發(fā)人員可以更深入地了解其大規(guī)模搜索引擎和問答系統(tǒng)如何提供答案。根據(jù)Google關(guān)于其Explainable AI的白皮書,這些框架和工具利用了復(fù)雜的數(shù)學(xué)方程式。
使用的關(guān)鍵數(shù)學(xué)元素之一是Shapley值,這是諾貝爾獎(jiǎng)獲得者數(shù)學(xué)家Lloyd Shapley在1953年在合作博弈領(lǐng)域中創(chuàng)建的一個(gè)概念。Shapley值有助于創(chuàng)建“反事實(shí)”或箔,算法如果某個(gè)數(shù)據(jù)點(diǎn)的值不同,則將持續(xù)評(píng)估它將給出的結(jié)果。“主要問題是要做這些稱為反事實(shí)的事情,例如,神經(jīng)網(wǎng)絡(luò)會(huì)問自己,'假設(shè)我無(wú)法看到走進(jìn)商店的人的襯衫顏色,那會(huì)改變我的估計(jì)嗎?他們走路的速度有多快?'”上個(gè)月在倫敦的一次活動(dòng)上推出“可解釋的人工智能”后,摩爾告訴英國(guó)廣播公司。“通過(guò)做許多反事實(shí),它逐漸建立了一張關(guān)于它是什么以及在進(jìn)行預(yù)測(cè)時(shí)沒有注意的圖片。”
摩爾說(shuō),這種反事實(shí)方法是如此強(qiáng)大,以至于使可解釋性問題變得毫無(wú)意義。他告訴英國(guó)廣播公司:“黑匣子機(jī)器學(xué)習(xí)的時(shí)代已經(jīng)過(guò)去。”
但是,Google的XAI有一些限制。首先,它僅與TensorFlow機(jī)器學(xué)習(xí)框架兼容。該模型必須在Google Cloud上運(yùn)行。盡管這無(wú)疑給Google Cloud帶來(lái)了超越其公共云競(jìng)爭(zhēng)對(duì)手Microsoft Azure和Amazon Web Services的寶貴競(jìng)爭(zhēng)優(yōu)勢(shì)-微軟Azure和Amazon Web Services正在積極地構(gòu)建自己的AI系統(tǒng)-但它并沒有使那些不想在Google Cloud上運(yùn)行的公司受益(我們被告知可能還有幾個(gè))。
這就是Zest AI的用武之地。這家由前Google工程師創(chuàng)立的位于加利福尼亞伯班克的機(jī)器學(xué)習(xí)軟件公司采用了Shapley和他的同事Robert Aumann(另一位獲得諾貝爾獎(jiǎng)的數(shù)學(xué)家)創(chuàng)建的完善的數(shù)學(xué)概念,并且將其提供給金融服務(wù)行業(yè)的客戶。
Zest AI首席技術(shù)官Jay Budzik向我們介紹了所有工作原理:
Budzik告訴Datanami:“ Google引入了一種稱為積分梯度的算法,它實(shí)際上只是對(duì)合作博弈理論中一種技術(shù)的重新包裝。”“ Shapley和他的同事Aumann描述的數(shù)學(xué)使您能夠準(zhǔn)確地量化這些參與者的貢獻(xiàn)。”
通過(guò)將機(jī)器學(xué)習(xí)模型中的變量替換為游戲中的玩家,Aumann-Shapley方法可用于評(píng)估每個(gè)變量對(duì)整個(gè)模型結(jié)果的貢獻(xiàn)。這是他們XAI方法的核心“復(fù)雜數(shù)學(xué)”。