一個人工智能已經(jīng)討論AI的危險-狹義說服觀眾,該技術(shù)將做利大于弊。
由IBM開發(fā)的機(jī)器人Project Debater在論證的兩面都說了話,雙方都有兩個人的隊友幫助解決了這個問題。人工智能在星期四晚上以女性女性的聲音在劍橋大學(xué)聯(lián)合大學(xué)的人群中交談,并使用了事先從1100多個人類陳述中得出的論點,發(fā)表了雙方的開幕詞。
在主張方面,辯稱人工智能帶來的弊大于利,Project Debater的開場白令人毛骨悚然。它說:“人工智能會造成很多傷害。”“人工智能將無法做出在道德上正確的決定,因為道德是人類獨有的。”
它補(bǔ)充說:“人工智能公司在如何正確評估數(shù)據(jù)集和濾除偏見方面仍然缺乏專業(yè)知識。”“人工智能將承受人類的偏見,并將世代相傳。”
人工智能使用一個稱為“人群講話”的應(yīng)用程序來生成其論點,從而分析人們在線提交的內(nèi)容。然后,Project Debater將這些主題歸類為關(guān)鍵主題,并識別冗余-提交的內(nèi)容使用不同的詞語來表達(dá)相同的觀點。
AI進(jìn)行了連貫的辯論,但有一些失誤。有時它會重復(fù)進(jìn)行自己的操作(例如,在談?wù)揂I執(zhí)行平凡和重復(fù)性任務(wù)的能力時),并且它沒有提供詳細(xì)的示例來支持其主張。
在主張反對AI的反對派辯論中,Debater認(rèn)為AI將在某些領(lǐng)域創(chuàng)造新的工作機(jī)會,并“為工作場所帶來更大的效率”。
但是后來提出了一個與它的論點相反的觀點:“人工智能功能可以照顧患者或機(jī)器人來教學(xué)童—在這些領(lǐng)域,對人類的需求也不再存在。”
支持AI的一方勉強(qiáng)獲勝,獲得了51.22%的觀眾投票。
去年,Debater項目首次與人類爭論,今年2月,一對一與冠軍辯手辯論者Harish Natarajan一對一輸了,后者在劍橋大學(xué)作為第三支支持AI的發(fā)言人發(fā)言。