皮尤研究中心最近的一項研究發(fā)現(xiàn),大多數(shù)專家和倡導(dǎo)者擔(dān)心人工智能將繼續(xù)專注于優(yōu)化利潤和社會控制,并且不太可能在未來十年內(nèi)建立道德基礎(chǔ)。在今年早些時候的一項學(xué)術(shù)研究中,康奈爾大學(xué)和賓夕法尼亞大學(xué)的研究人員發(fā)現(xiàn),三分之二的機器學(xué)習(xí)研究人員表示,人工智能安全應(yīng)該比現(xiàn)在更重要。他們還發(fā)現(xiàn),當(dāng)人工智能得到聯(lián)合國或等現(xiàn)有國際機構(gòu)的支持時,人們愿意信任人工智能。
其中一些擔(dān)憂是基于早期的人工智能模型,這些模型表現(xiàn)出無意的偏見。例如,Twitter 選擇性裁剪圖像預(yù)覽的算法顯示出對某些群體的明顯偏見(Twitter 后來獨立評估了該算法并決定將其刪除)。不僅在計算機視覺中,而且在機器學(xué)習(xí)的幾乎所有領(lǐng)域都發(fā)現(xiàn)了類似的偏見。
我們已經(jīng)看到最近幾次嘗試緩解此類問題。比如去年,國防部發(fā)布了五項人工智能原則,建議人工智能技術(shù)應(yīng)該是負(fù)責(zé)任的、公平的、可追溯的、可靠的和可治理的。谷歌、Zendesk和微軟也發(fā)布了指導(dǎo)方針,提供了一個框架來實現(xiàn)圍繞道德 AI 開發(fā)的雄心勃勃的目標(biāo)。這些都是很好的起點。
道德人工智能仍處于起步階段,但對于公司采取行動來說變得越來越重要。我的團隊從第一原則的角度研究了道德 AI,并通過其他參與者的研究對其進行了擴充。我們在開發(fā)自己的道德 AI 框架時提出了這些原則,并希望它們對其他團隊有所幫助:
1. 闡明您要解決的問題并確定潛在的偏見
開發(fā)合乎道德的 AI 的第一步是明確闡明您要解決的問題。例如,如果您正在開發(fā)信用評分算法,請準(zhǔn)確概述您希望您的算法確定申請人的哪些內(nèi)容,并突出顯示可能無意導(dǎo)致偏見的任何數(shù)據(jù)點(例如,基于某人居住地的種族混雜因素) . 這也意味著了解工程師或產(chǎn)品經(jīng)理可能存在的任何隱性偏見,并確保這些偏見不會被寫入代碼。在設(shè)計階段識別偏見的一種方法是從一開始就讓具有不同觀點的團隊成員參與進來,無論是在他們的業(yè)務(wù)職能(例如法律、產(chǎn)品和營銷)方面,還是在他們自己的經(jīng)驗和背景方面。
2. 了解您的基礎(chǔ)數(shù)據(jù)集和模型
一旦您闡明了問題并確定了潛在的偏差,您應(yīng)該通過灌輸過程來衡量數(shù)據(jù)集的多樣性和跨感興趣組的模型性能來定量研究偏差。這意味著對訓(xùn)練數(shù)據(jù)進行采樣以確保它公平地代表感興趣的組,并按這些感興趣的組分割模型性能以確保您不會看到某些組的性能下降。例如,在開發(fā)計算機視覺模型(如情感檢測算法)時,問問自己:它們對男性和女性是否同樣有效?適合各種膚色和年齡?了解數(shù)據(jù)集的構(gòu)成以及可能在培訓(xùn)或生產(chǎn)中無意引入的任何偏差至關(guān)重要。
3. 透明且平易近人
人工智能團隊還應(yīng)該尋求更好地理解他們的人工智能模型,并與正確的利益相關(guān)者透明地分享這種理解。這可能有多個維度,但應(yīng)主要關(guān)注您的 AI 模型能做什么和不能做什么,以及它們所基于的基礎(chǔ)數(shù)據(jù)集??紤]一個內(nèi)容推薦系統(tǒng):在向客戶提供相關(guān)推薦之前,您能否闡明它需要多少信息?如果有的話,采取了哪些步驟來減輕觀點的放大和用戶體驗的同質(zhì)化?您對正在構(gòu)建的底層 AI 技術(shù)了解得越多,就越能在內(nèi)部向用戶和其他團隊透明地解釋它們。谷歌用模型卡提供了一個很好的例子 — 對其 AI 模型的簡單解釋,描述模型何時工作最佳(以及何時無效)。