什么是人工智能,為什么會有危險?
由于學(xué)習(xí)算法可以以超出人類能力的精度和速度處理數(shù)據(jù)集,因此人工智能(AI)應(yīng)用在金融,醫(yī)療保健,教育,法律系統(tǒng)及其他領(lǐng)域變得越來越普遍。但是,對AI的依賴也會帶來風(fēng)險,尤其是在沒有人工監(jiān)督的情況下做出決策的情況。機(jī)器學(xué)習(xí)依賴于數(shù)據(jù)集中的模式識別。當(dāng)現(xiàn)有數(shù)據(jù)反映出社會偏見時,就會出現(xiàn)問題。
AI越來越多地參與算法決策系統(tǒng)。在許多情況下,該決定對人們的影響可能很大,例如獲得信貸,就業(yè),醫(yī)療或司法判決的機(jī)會。因此,自動化的決策可以使社會鴻溝永久化。例如,已經(jīng)發(fā)現(xiàn)某些招聘算法對女性有偏見。
在AI時代如何保護(hù)消費者AI
的發(fā)展和自動決策流程也為消費者的信任和福利提出了挑戰(zhàn)。當(dāng)消費者與此類系統(tǒng)進(jìn)行交互時,應(yīng)適當(dāng)告知他們其功能。
議會的立場
在1月23日通過的一項決議中,內(nèi)部市場和消費者保護(hù)委員會敦促歐洲委員會研究是否有必要采取其他措施,以確保在AI和自動決策的背景下有強(qiáng)大的權(quán)利保護(hù)消費者。
“我們必須確保消費者保護(hù)和信任,確保歐盟關(guān)于產(chǎn)品和服務(wù)的安全和責(zé)任規(guī)則符合數(shù)字時代的目的,”德國綠色/ EFA成員Petra De Sutter表示。內(nèi)部市場和消費者保護(hù)委員會。