Saturday, May 18, 2024  

 華人今日網 chinesedaily.com
  中國日報 台灣時報 電子報 房屋出租 求才招聘 房屋裝修 二手車
  南加社區新聞 吃遍南加 玩遍南加 南加人物 華商大全 FB好友 LINE好友
 

 

搜尋
股票
天氣
體育
銀行
購物
航班查詢
電子郵箱
健康
星座運勢
分享好友
社群網站
我的設定

分享好友

亞馬遜 AI 在履歷篩選中歧視女性 決定棄用

亞馬遜積極開發人工智慧系統。



(綜合報導)人工智慧系統雖然方便,但運作方式是根據輸入數據來學習,因此一直有研究指出這些系統未必能免除偏見。最近亞馬遜(Amazon)就宣布棄用對女性有歧視問題的招聘用人工智慧系統。

Amazon 的機器學習團隊自 2014 年以來,就在開發用來審核應徵者履歷表的自動化系統,讓尋找合適人選更簡單。有這樣的系統對已相當自動化的 Amazon 而言並不令人意外。這個系統可為應徵者自動打分數,從一星到五星,就像 Amazon 平台商品,讓人事部快速篩選不合適的人。據消息人士透露,Amazon 原先的目標是要利用人工智慧系統把招聘過程盡量自動化,放入 100 個履歷表後,就自動提供 5 個最合適的人選聘用。
不過這個系統 2015 年被發現分析軟體開發者和其他技術職位的應徵者時,會出現性別偏見。造成這問題的原因,是 Amazon 投入的數據來自 10 年來的聘用紀錄,由於大部分獲聘的都是男性,造成系統直接反映此情況,即履歷表出現「女性」一詞會扣分。雖然 Amazon 嘗試改變系統以減少偏見,但無法確保問題不再出現。
結果去年 Amazon 就棄用這個實驗性系統。Amazon 指,這個系統從來不是決定招聘與否的主要準則。這次事件也證明,要完全去除人工智慧系統對性別和種族的偏見,可能比想像中複雜。
人工智慧「性別歧視」的起因
在亞馬遜 AI 招聘歧視事件的最後,大家把問題歸咎於人工智慧訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性開發了 500 個特定職位的模型,對過去 10 年簡歷中的 5 萬個關鍵詞進行辨識,最後進行重要程度的優先級排序。
因此簡單來說,AI 的工作還是抓取關鍵詞。然而在這些履歷中,大部分求職者為男性,他們使用諸如「執行」這樣的關鍵詞更加頻繁,而女性相關的數據太少,因此 AI 會誤以為沒有這類關鍵詞的女性履歷不那麼重要。
類似的事情同樣發生在 Google 身上。早在 2017 年,Quartz 報導了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google 圖片上搜尋「doctor」,獲得的結果大部分都是白人男性。
一項來自普林斯頓大學的研究表明,這個搜尋結果與潛在的社會現狀有關。在普通人眼中醫生總是與男性相連,而護士總是與女性相連。
「正如一些資料科學家所言,什麼樣的輸入就有什麼樣的產出,沒有好的數據,演算法也做不出正確的決策。」
Google 意識到了這一點,調整了搜尋演算法。目前「doctor」的搜尋結果中,女性與男性的比例基本平等。
人工智慧發展到現在,應用到實際的時間並不長。如果把它比做嬰兒,那它的成長有很大一部分依靠人類給予的養分與教育。人工智慧在機器訓練的過程中,所輸入的數據便是養分。科學家盡力將演算法調整到中立、客觀,但最終影響其輸出的還是數據。
即使數據中出現一個小偏差,人工智慧的最終行為也會將這個偏差放大。人類獲得的結果便是「歧視」──我們如何看待社會,人工智慧也會以相同的視角去看待社會。這個情況屬於普遍現象,其涉及到的不僅是技術問題,更是一個巨大的哲學問題。
今年 7 月份,微軟同中國發展研究基金會發布了《未來基石》報告。報告涵蓋了兩家機構對人工智慧的思考。例如微軟在人工智慧的開發中,將遵循 6 個道德基本準則,以創造「可靠」的人工智慧。
在微軟的人工智慧產品中,曾出現了聊天機器人小冰爆粗口的情況,同樣是源於訓練資料庫的影響。經歷該事件後,微軟修改了小冰的對話原則,並加強了對資料庫的過濾。但實際上仍然無法百分百避開資料庫中不健康的訊息。
想要訓練出更可靠的人工智慧,用戶同樣是很重要的力量群體。

[Back]

聯繫我們