今天,我們推出了Neural,這是我們以人為本的AI新聞和分析的新家。在我們慶祝幕后工作人員多年辛勤工作的高潮時,我花了一天的時間靜靜地思考著AI新聞業(yè)的未來。
《衛(wèi)報(bào)》的奧斯卡·施瓦茨(Oscar Schwartz)在2018年發(fā)表了一篇題為“無話可說:媒體如何使AI令人震驚地出錯”的文章。在其中,他討論了2017年圍繞Facebook的AI研究實(shí)驗(yàn)室進(jìn)行的炒作爆炸式發(fā)展,該實(shí)驗(yàn)室開發(fā)了一對聊天機(jī)器人,這些聊天機(jī)器人創(chuàng)造了一種用于談判的簡寫語言。
實(shí)際上,聊天機(jī)器人的行為舉世矚目,但并非完全出乎意料。不幸的是,整個媒體都報(bào)道了這個有趣的事件,好像“終結(jié)者”電影中的SKYNET誕生了一樣。數(shù)十個頭條新聞突然出現(xiàn),宣稱Facebook的AI已經(jīng)“創(chuàng)造了人類無法與自己交流的語言”和其他廢話。數(shù)十人補(bǔ)充說,F(xiàn)acebook的工程師在意識到他們所做的事情后感到非??謶?,并“拔掉了插頭”。
可悲的是,這種夸張的水平也不例外。盡管它并不總是像Facebook的聊天機(jī)器人那樣極端,但是當(dāng)涉及到AI報(bào)告時,您不必費(fèi)神就可以找到奇怪的說法。
Schwartz的文章最終以沉悶的結(jié)尾結(jié)束,新興技術(shù)專家Joanne McNeil本質(zhì)上假設(shè),如果記者賺更多的錢,他們會寫出更好的文章。除了向我們支付更多的錢(對我來說這似乎是一個完全合理的策略)之外,我們還可以采取其他方式,通過明??確反對炒作和虛假信息來提高AI產(chǎn)品的批發(fā)質(zhì)量。
Robust.AI的首席執(zhí)行官加里·馬庫斯(Gary Marcus)和“重新啟動AI:構(gòu)建我們可以信賴的人工智能”一書的合著者,竭盡全力向新聞界提供他的專業(yè)知識。在最近發(fā)表的有關(guān)Gradient的文章中,他重印了對AI作家的建議,從以下內(nèi)容開始:
除去這些言論,人工智能系統(tǒng)實(shí)際上在做什么?“閱讀系統(tǒng)”真的閱讀嗎?