
據(jù)俄羅斯“衛(wèi)星新聞網(wǎng)”報(bào)道,美國普林斯頓大學(xué)的研究者發(fā)現(xiàn),人工智能系統(tǒng)可能會(huì)有種族歧視的跡象。該項(xiàng)研究表明,機(jī)器人對(duì)于白人名字感覺“喜悅”,而對(duì)于黑人名字卻表示出“不悅”。這項(xiàng)研究涉及一項(xiàng)具有自學(xué)能力的人工智能系統(tǒng)--GloVe。該系統(tǒng)能夠識(shí)別并且理解在線文段。
“我們?cè)囼?yàn)這些被廣泛使用的、純粹數(shù)據(jù)化的機(jī)器學(xué)習(xí)模型,并且利用網(wǎng)絡(luò)上的語料庫對(duì)其進(jìn)行訓(xùn)練?!毖芯繄?bào)告說。在相關(guān)的任務(wù)中,這一系統(tǒng)要將諸如“花朵”和“昆蟲”之類的詞與另外一些被科學(xué)家定義為“令人喜悅的”或“令人不悅的”詞進(jìn)行配對(duì)。
不過,當(dāng)研究人員將一串聽起來像黑人的白人名字輸入到GloVe系統(tǒng)時(shí),這個(gè)機(jī)器人卻顯示出嚴(yán)重的種族主義。這一智能系統(tǒng)將普遍使用的白人名字識(shí)別為“令人喜悅”的詞,而非裔美國人的名字卻被劃為“令人不悅”的詞。
研究人員認(rèn)為,這是人們隱藏在互聯(lián)網(wǎng)數(shù)據(jù)中的偏見,然后被機(jī)器人學(xué)習(xí)?!拔覀兊难芯拷Y(jié)果表明,語言本身也包含了歷史性歧視的精確印記。”研究人員說。(李宗澤)