這就是人工智能的問題。令人印象深刻的是重新創(chuàng)建了智能,但是在工具中調(diào)用情感卻相去甚遠。
谷歌剛剛宣布,其使用AI工具的“谷歌云服務(wù)”將不再根據(jù)性別來標(biāo)記人們。AI工具通過將人的圖像標(biāo)記為“男人”或“女人”來識別個人的性別。盡管這是一種針對機器學(xué)習(xí)模型的訓(xùn)練方法,但Google仍在使用它以避免性別偏見。
在發(fā)送給公司開發(fā)人員的電子郵件中,該公司表示將更改Cloud Vision API工具。該工具使用AI掃描圖像,分析和識別人臉,地標(biāo)以及任何其他可識別的東西。但是,對于人類而言,該工具將不再標(biāo)識性別,而是將圖像標(biāo)記為“人”。
人工智能工具在用于面部識別技術(shù)時經(jīng)常受到批評,因為它們無法正確識別變性者或正常性別規(guī)范之外的人。一些工具發(fā)現(xiàn)也很難識別有色人種。
有很多情況下,人工智能工具錯誤地識別了人們的性別,并且一旦被識別出就會產(chǎn)生偏差。谷歌在2015年因其在Google相冊中使用的AI工具而遭到強烈反對。該工具將這個人的黑人朋友識別為“大猩猩”。為了避免這種情況,Google阻止了AI工具識別大猩猩,但這已完成。
盡管如此,到2018年,谷歌發(fā)布了AI原則,其中一項原則主要致力于消除偏見,監(jiān)督以及AI可能引起的任何其他道德問題。