Google LLC已在其云平臺(tái)上推出了一項(xiàng)新的“可解釋AI”服務(wù),旨在使機(jī)器學(xué)習(xí)模型做出決策的過(guò)程更加透明。
谷歌表示,這樣做的想法是,這將有助于建立對(duì)這些模型的更大信任。這很重要,因?yàn)榇蠖鄶?shù)現(xiàn)有模型往往相當(dāng)不透明。只是不清楚他們?nèi)绾巫龀鰶Q定。
Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey在今天的博客中解釋說(shuō),Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性。她說(shuō),這項(xiàng)新服務(wù)的工作原理是量化每個(gè)數(shù)據(jù)因素對(duì)模型產(chǎn)生的結(jié)果的貢獻(xiàn),幫助用戶了解其做出決定的原因。
換句話說(shuō),它不會(huì)以通俗易懂的方式解釋事物,但是該分析對(duì)于首先構(gòu)建機(jī)器學(xué)習(xí)模型的數(shù)據(jù)科學(xué)家和開(kāi)發(fā)人員仍然有用。
可解釋的AI有進(jìn)一步的局限性,因?yàn)樗岢龅娜魏谓忉尪紝⑷Q于機(jī)器學(xué)習(xí)模型的性質(zhì)以及用于訓(xùn)練它的數(shù)據(jù)。
她寫道:“任何解釋方法都有局限性。”“一方面,AI解釋反映了數(shù)據(jù)中發(fā)現(xiàn)的模型的模式,但它們并未揭示數(shù)據(jù)樣本,總體或應(yīng)用程序中的任何基本關(guān)系。我們正在努力向客戶提供最直接,最有用的解釋方法,同時(shí)保持其局限性透明。”
盡管如此,可解釋的AI還是很重要的,因?yàn)闇?zhǔn)確解釋特定機(jī)器學(xué)習(xí)模型為何得出結(jié)論的原因,對(duì)于最終負(fù)責(zé)這些決策的組織內(nèi)的高級(jí)管理人員很有用。對(duì)于高度嚴(yán)格的行業(yè)來(lái)說(shuō),這尤其重要,而信心絕對(duì)至關(guān)重要。谷歌表示,對(duì)于處于這一職位的許多組織來(lái)說(shuō),沒(méi)有任何可解釋性的人工智能目前已超出范圍。
在相關(guān)新聞中,Google還發(fā)布了所謂的“模型卡”,作為其Cloud Vision應(yīng)用程序編程界面的面部檢測(cè)和對(duì)象檢測(cè)功能的文檔。