人工智能本身可以解決AI引起的問(wèn)題嗎?我將這個(gè)問(wèn)題提交給IBM的Francesca Rossi和上周在巴黎《財(cái)富》全球論壇上發(fā)表講話的弗朗西斯卡·羅西(Francesca Rossi),他領(lǐng)導(dǎo)了Blue Blue在人工智能倫理方面的工作,而Facebook AI研究實(shí)驗(yàn)室的負(fù)責(zé)人安托萬(wàn)·鮑德斯(Antoine Bordes)。
是的-至少在某些情況下,兩位研究人員都說(shuō)。
例如,Bordes的小組正在創(chuàng)建基準(zhǔn)測(cè)試,該基準(zhǔn)測(cè)試可用于訓(xùn)練機(jī)器學(xué)習(xí)算法來(lái)自動(dòng)檢測(cè)Deepfake。羅西說(shuō),在某些情況下,人工智能可以用來(lái)突出其他人工智能算法創(chuàng)建的模型中的潛在偏差。
盡管技術(shù)可以提供有用的工具來(lái)檢測(cè)甚至糾正AI軟件的問(wèn)題,但兩位科學(xué)家都強(qiáng)調(diào),不應(yīng)讓人們對(duì)需要批判性的人類判斷感到自滿。
“解決這個(gè)問(wèn)題確實(shí)是一個(gè)過(guò)程,”羅西告訴我。“當(dāng)交付AI系統(tǒng)時(shí),您不能在準(zhǔn)備部署產(chǎn)品時(shí)就考慮這些問(wèn)題。您可以在此閱讀更多關(guān)于我們的討論的內(nèi)容,并在此處觀看視頻。
在本周晚些時(shí)候,我去了英國(guó)劍橋,觀看了最新版本的IBM“ Project Debater” AI幫助兩隊(duì)人類在擁有200年歷史的劍橋聯(lián)盟辯論會(huì)上對(duì)峙。辯論的主題是:人工智能是否會(huì)造成弊大于弊。
運(yùn)作方式:在進(jìn)行辯論的一周內(nèi),一個(gè)IBM網(wǎng)站眾籌了1100多個(gè)論點(diǎn)。該軟件接受了這些論點(diǎn),并在大約兩分鐘內(nèi)將其歸類為贊成或反對(duì)該主張,并將其提煉為每一方面的五個(gè)主要主題。
盡管Project Debater的聚類和匯總技巧令人印象深刻,但人類辯論者偷走了該節(jié)目。伯明翰大學(xué)法律與倫理學(xué)教授西爾維·德拉克勞瓦(Sylvie Delacroix)認(rèn)為,人工智能是一種罕見(jiàn)的工具實(shí)例,其設(shè)計(jì)對(duì)其道德價(jià)值至關(guān)重要。她說(shuō):“是的,AI確實(shí)確實(shí)與它所饋送的數(shù)據(jù)一樣好。”但是,她認(rèn)為,這潛在地賦予了人們巨大的力量。如果他們聚集在一起并將其數(shù)據(jù)匯總到諸如數(shù)據(jù)信任之類的實(shí)體中,則他們可以抓住對(duì)AI開(kāi)發(fā)和使用的大量控制權(quán)
另一方面,前亞馬遜機(jī)器學(xué)習(xí)負(fù)責(zé)人,劍橋大學(xué)教授尼爾·勞倫斯(Neil Lawrence)表示,認(rèn)為該技術(shù)會(huì)造成危害更為謹(jǐn)慎,因?yàn)檫@樣一來(lái),人們將對(duì)潛在危險(xiǎn)保持警惕,并尋求預(yù)防措施—與帕斯卡的賭注相比,他的位置。您可以在此處閱讀有關(guān)辯論的更多信息。