涉及到人的事,大多比較復(fù)雜,它沒有標(biāo)準(zhǔn)答案。而業(yè)界和學(xué)界普遍認(rèn)同,機(jī)器學(xué)習(xí)就是一個“黑箱”。你投喂給人工智能數(shù)據(jù),一再調(diào)整算法模型,你知道它做出判斷的準(zhǔn)確率越來越高,但你不知道為什么。
人工智能的“心”,也是海底的針,你不知道它學(xué)到了什么。同樣,你也不知道一家公司的人力資源算法模型里包含了多少偏見。
AI能夠根據(jù)它掌握到的員工信息對其進(jìn)行潛力評估,但它究竟如何評估,在評估過程中有沒有倫理和道德的風(fēng)險,它收集數(shù)據(jù)的邊界在哪里?社會技術(shù)學(xué)家Zeynep Tufekci做過一次公開演講,她舉了一個例子:機(jī)器能推斷出你沒有公開的事情——比如,它認(rèn)為你有很高概率會換上抑郁癥,或者,它認(rèn)為你有很高概率三個月內(nèi)會懷孕。于是,它“貼心”地提前斬斷了你的路,而直到此時,你還蒙在鼓里,不知道自己為何被機(jī)器劃到了“待定區(qū)”。
那么,這究竟是精準(zhǔn)的預(yù)言,還是赤裸裸的偏見?偏見可能無處不在,當(dāng)偏見以機(jī)器之名施加于群體之上時,會變得更為隱蔽。
無論人工智能發(fā)展到什么程度,人,都要坦蕩并堅決地承擔(dān)自己的責(zé)任。HR要在對員工的一輪輪評估中去了解和審視自己的偏見,去反思自家的企業(yè)文化。
這其中涉及復(fù)雜的判斷,人無法“甩鍋”,更不能缺席。(張佳星)
5/5 首頁 上一頁 3 4 5 |