手机免费看国产欧美精品_久久精品国产9久久综合_免费无码一区二区三区视频_亚洲综合精品一二三区在线

您的位置:首頁>AI>

Google提高了機器學(xué)習(xí)模型得出結(jié)論的過程的透明度

雖然大多數(shù)人每天都會接觸某種算法,但沒有多少人可以自信地說他們實際上了解人工智能(AI)的工作原理。但是,谷歌在當(dāng)?shù)貢r間11月20日在英國舉行的“ Google Cloud Next '19 UK”上宣布的新工具,對于普通大眾來說,是克服機器學(xué)習(xí)(ML)困難的強大工具。應(yīng)該的。

該工具稱為“可解釋的AI”,其名稱暗示了一個功能:ML模型建立思想的方法,并向用戶說明了得出結(jié)論的原因。

可解釋的AI量化了數(shù)據(jù)集中的每個特征如何影響算法得出的結(jié)果以實現(xiàn)這些功能。換句話說,為每個數(shù)據(jù)系數(shù)分配一個分數(shù),該分數(shù)指示ML模型受到了多少影響。

通過參考分數(shù),用戶可以理解為什么算法做出某些決定。例如,在確定某人是否可以批準貸款的模型中,可解釋AI顯示帳戶余額和信用是最重要的數(shù)據(jù)。

該工具現(xiàn)在可以應(yīng)用于Google的AutoML表和Cloud AI Platform Predictions上托管的ML模型。

Google過去一直在努力提高算法的透明度。該公司宣布了假設(shè)工具,該工具為開發(fā)人員提供了在AI平臺上工作時可視化和瀏覽數(shù)據(jù)集的功能。

可解釋的AI對數(shù)據(jù)的系數(shù)進行量化,以提供更深入的見解,并使這些見解更易于理解。

“您還可以將AI解釋和假設(shè)工具相結(jié)合,以全面了解模型的行為,” Google Cloud云AI戰(zhàn)略總監(jiān)Tracy Frey說。

在某些領(lǐng)域,例如醫(yī)學(xué),提高AI透明度可能特別有用。

該公司還宣布推出名為“模型卡”的新概念。模型卡是簡短的文檔,提供有關(guān)特定算法的簡要信息。

該文檔包含有關(guān)模型性能和約束的實用細節(jié),并且實質(zhì)上是ML模型的一種識別形式。

該公司表示:“這使開發(fā)人員可以對負責(zé)任的模式,目的,部署方式做出更好的決策。”

Google已經(jīng)發(fā)布了兩個模型卡示例:人臉識別算法和對象檢測算法。

免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!