人工智能(AI)當(dāng)前正在革新技術(shù)世界。從能夠自行駕駛的汽車到可以在數(shù)秒內(nèi)處理大量數(shù)據(jù)的算法,人工智能系統(tǒng)具有廣泛的用途。它們在醫(yī)療保健和國防等重要領(lǐng)域也得到了越來越多的利用,以制定決策并提高效率。
實際上,如果沒有人工智能,當(dāng)今世界將大為不同。盡管近年來僅流行并迅速進(jìn)入主流,但人工智能已經(jīng)對數(shù)字世界的幾乎所有方面產(chǎn)生了巨大影響。
但是,如果要繼續(xù)在高風(fēng)險的情況下使用AI,則必須解決一個迫在眉睫的問題。盡管這些算法能夠以較高的速度做出準(zhǔn)確的決策,但研究人員并不真正知道它們是如何工作的。如果人類要完全信任人工智能,那么找到一種方法來揭示其決策背后的原因?qū)⒅陵P(guān)重要。
任何值得投入的網(wǎng)絡(luò)開發(fā)人員都應(yīng)該能夠瀏覽網(wǎng)站的代碼,并逐行解釋正在發(fā)生的事情。但是,嘗試使用AI算法這樣做幾乎是不可能的。這就是理解人工智能工作的問題所在。
在過去的十年中,研究人員在開發(fā)AI系統(tǒng)時轉(zhuǎn)向了所謂的“黑匣子方法”。從本質(zhì)上講,這意味著他們能夠測試和開發(fā)功能齊全的人工智能,而無需查看使之起作用的代碼。事實證明,允許AI以這種方式通過深度學(xué)習(xí)自學(xué),只需向其提供大量數(shù)據(jù)并達(dá)到目標(biāo)就可以了。
但是,該方法嚴(yán)重限制了研究人員了解AI系統(tǒng)為何做出特定決定的能力。向前邁進(jìn),這將是克服困難的障礙。