關(guān)于業(yè)務(wù)中對人工智能(AI)的日益普及的統(tǒng)計數(shù)據(jù)并不缺乏。隨著在未來幾年中采用率的增長,毫無疑問,這將導(dǎo)致發(fā)現(xiàn)新的用例和該技術(shù)的應(yīng)用,這是商業(yè)領(lǐng)導(dǎo)者前所未有的。
從技術(shù)的角度來看,這種預(yù)期的增長令人興奮,但同時也充滿了道德地雷。作為北卡羅萊納大學夏洛特分校夏洛特可視化中心的副主任,我負責有關(guān)科學,商業(yè)和醫(yī)學等行業(yè)中大數(shù)據(jù)使用情況的內(nèi)部和外部研究,因此我熟悉道德與人工智能。
在當今的數(shù)字時代,組織可以訪問前所未有的大量消費者數(shù)據(jù),包括個人身份信息(PII),范圍從您的姓名,信用卡信息和醫(yī)療記錄到IP地址和生物特征數(shù)據(jù)(例如指紋)。這些信息以及不敏感的PII(例如您的生日或性別)將被收集,匿名化,分析,并且在某些情況下會定期出售,以便組織可以從中獲取價值。
人工智能在解析這些數(shù)據(jù)方面發(fā)揮著重要作用,并且隨著人工智能工具和技術(shù)的發(fā)展超越了數(shù)據(jù)科學家的權(quán)限,并進入了商業(yè)用戶的手中,擁有負責任地使用和負責敏感信息的框架比以往任何時候都更為重要。這超出了對數(shù)據(jù)隱私法律的遵守,例如概述了負責任地使用醫(yī)療信息的醫(yī)療保險可移植性和責任法案(HIPAA)或針對公民個人數(shù)據(jù)的歐盟通用數(shù)據(jù)保護條例(GDPR)。
我指的是基于AI民主化原則的額外透明度和問責制。當AI僅由少數(shù)幾個強大的實體(無論是政府還是大型公司)掌握時,任何人追究其責任的可能性就較小。
但是,當歷史上一直無法負擔得起AI工具的組織(如中型市場公司和非營利組織)采取行動時,他們會帶來不同的觀點,這將使他們在必要時挑戰(zhàn)現(xiàn)狀。我相信,各種各樣的利益相關(guān)者必須提出諸如“這真的必要嗎?”之類的問題?;?ldquo;我們是否出于特定原因同意使用此信息?”為了維持一個制衡制度,到現(xiàn)在為止,這種制衡基本上是不受制的。
最近引起高調(diào)的丑聞,涉及出于非預(yù)期目的使用個人信息,這使我們更加容易受到攻擊,特別是考慮到人們擔心可能會濫用AI。畢竟,人類才是釋放AI力量的關(guān)鍵。但是負責任地使用AI的公司就是利用AI來擴大決策過程的公司。他們了解到AI只會增強人們的能力,并為他們提供所有信息以做出明智的決定,而不是完全取代他們。
人工智能的民主化不是采用自上而下的方法,而是增強了透明度并增強了對整個社會的責任感。盡管我們永遠無法完全消除對AI將用于最初未打算用于其目的的擔憂,但我們當然可以緩解它們。
矯正無限制使用AI帶來的力量平衡是我們所有人都將從中受益。因此,不要讓它嚇到您-進入那里并嘗試一下。