谷歌認(rèn)為
,比起殺人AI機(jī)器人
,我們更該擔(dān)心的是AI偏見問題
。谷歌提出AI技術(shù)開發(fā)的道德準(zhǔn)則
,成立了專門的機(jī)器學(xué)習(xí)道德部門,對公司的產(chǎn)品和服務(wù)進(jìn)行分析測試
,提出改進(jìn)意見
,盡可能避免AI偏見的產(chǎn)生。在去年舉行的谷歌會議上
,谷歌當(dāng)時的人工智能(AI)負(fù)責(zé)人John Giannandrea表示
,我們不需要擔(dān)心殺手機(jī)器人,相反
,我們需要擔(dān)心的是AI偏見
。“如果要說真正的安全問題
,那就是如果我們給這些系統(tǒng)提供