根據(jù)NUS的說法,這些模型容易受到推理攻擊,使黑客可以提取有關(guān)訓(xùn)練數(shù)據(jù)的敏感信息。
已開發(fā)出一種稱為“機(jī)器學(xué)習(xí)隱私權(quán)計(jì)量器”的新開源工具,以幫助檢測基于人工智能(AI)的系統(tǒng)中的數(shù)據(jù)漏洞,并防止它們受到可能的攻擊。
新加坡國立大學(xué)(NUS)的一組研究人員開發(fā)了該工具以及通用攻擊公式,該公式為測試AI系統(tǒng)中不同類型的推理攻擊提供了框架。
“在使用敏感數(shù)據(jù)構(gòu)建AI系統(tǒng)時(shí),組織應(yīng)確保在此類系統(tǒng)中處理的數(shù)據(jù)得到充分保護(hù)。我們的工具可以幫助組織在部署AI系統(tǒng)之前執(zhí)行內(nèi)部隱私風(fēng)險(xiǎn)分析或?qū)徍耍?rdquo; NUS助理教授Reza Shokri在一份新聞稿中說。
在包括敏感信息的數(shù)據(jù)集上訓(xùn)練了各種服務(wù)中使用的AI模型。根據(jù)NUS的說法,這些模型容易受到推理攻擊,使黑客可以提取有關(guān)訓(xùn)練數(shù)據(jù)的敏感信息。