科學家們提出了一個新的國際框架,以保持道德和人類福祉在我們與技術關系的最前沿。
從基因療法和AI預測的疾病到自動駕駛汽車和3D打印,技術的進步可以改善健康狀況,節(jié)省時間并提高效率。
但是,盡管創(chuàng)造者有最好的意圖,技術可能會給個人隱私和自治帶來意想不到的后果。
當前,關于誰有權訪問汽車,智能電視和啟用語音的個人助理中的黑匣子記錄的數(shù)據(jù),目前尚無國際公認的法規(guī)。最近的發(fā)現(xiàn)表明,技術可用于影響投票行為。
現(xiàn)在,倫敦帝國理工學院的研究人員提出了一個新的監(jiān)管框架,政府可以利用該框架最大程度地減少我們與技術關系的意外后果。該評論文章發(fā)表在《自然機器智能》上。
由帝國大學教授拉斐爾·卡爾沃(Rafael Calvo)領導的一組研究人員說,他們的建議可以幫助確保隨著我們與技術之間關系的發(fā)展,諸如道德,隱私和福祉等人類利益得到優(yōu)先考慮。
他們建議使用環(huán)境影響評估作為藍圖,該評估評估擬議項目或開發(fā)的可能環(huán)境影響。評估將考慮人工智能和技術對社會經(jīng)濟,文化和人類健康的相互影響。
擬議的框架稱為技術人類影響評估(HIAT),旨在預測和評估新數(shù)字技術對社會和個人福祉的影響。他們認為,這應該側(cè)重于道德考量,例如個人隱私,福祉和自治。
研究人員說,評估還應該考慮哪些方面負責管理數(shù)據(jù)和維護道德標準,以及在出現(xiàn)問題時由誰負責。
帝國理工大學戴森設計工程學院的卡爾沃教授說:“通過AI和技術的快速發(fā)展,我們正面臨第四次工業(yè)革命-但是隨著我們與AI關系的發(fā)展,其破壞我們生活的潛力也在增加。例如,有證據(jù)表明人類使用AI來操縱情緒,注意力和投票行為,以及法律,教育和就業(yè)決策。