亞馬遜 AI 在履歷篩選中歧視女性 決定棄用



(綜合報導)人工智慧系統雖然方便,但運作方式是根據輸入數據來學習,因此一直有研究指出這些系統未必能免除偏見。最近亞馬遜(Amazon)就宣布棄用對女性有歧視問題的招聘用人工智慧系統。

Amazon 的機器學習團隊自 2014 年以來,就在開發用來審核應徵者履歷表的自動化系統,讓尋找合適人選更簡單。有這樣的系統對已相當自動化的 Amazon 而言並不令人意外。這個系統可為應徵者自動打分數,從一星到五星,就像 Amazon 平台商品,讓人事部快速篩選不合適的人。據消息人士透露,Amazon 原先的目標是要利用人工智慧系統把招聘過程盡量自動化,放入 100 個履歷表後,就自動提供 5 個最合適的人選聘用。
不過這個系統 2015 年被發現分析軟體開發者和其他技術職位的應徵者時,會出現性別偏見。造成這問題的原因,是 Amazon 投入的數據來自 10 年來的聘用紀錄,由於大部分獲聘的都是男性,造成系統直接反映此情況,即履歷表出現「女性」一詞會扣分。雖然 Amazon 嘗試改變系統以減少偏見,但無法確保問題不再出現。
結果去年 Amazon 就棄用這個實驗性系統。Amazon 指,這個系統從來不是決定招聘與否的主要準則。這次事件也證明,要完全去除人工智慧系統對性別和種族的偏見,可能比想像中複雜。
人工智慧「性別歧視」的起因
在亞馬遜 AI 招聘歧視事件的最後,大家把問題歸咎於人工智慧訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性開發了 500 個特定職位的模型,對過去 10 年簡歷中的 5 萬個關鍵詞進行辨識,最後進行重要程度的優先級排序。
因此簡單來說,AI 的工作還是抓取關鍵詞。然而在這些履歷中,大部分求職者為男性,他們使用諸如「執行」這樣的關鍵詞更加頻繁,而女性相關的數據太少,因此 AI 會誤以為沒有這類關鍵詞的女性履歷不那麼重要。
類似的事情同樣發生在 Google 身上。早在 2017 年,Quartz 報導了一篇題為《The reason why most of the images that show up when you search for “doctor” are white men》的文章,如果你在 Google 圖片上搜尋「doctor」,獲得的結果大部分都是白人男性。
一項來自普林斯頓大學的研究表明,這個搜尋結果與潛在的社會現狀有關。在普通人眼中醫生總是與男性相連,而護士總是與女性相連。
「正如一些資料科學家所言,什麼樣的輸入就有什麼樣的產出,沒有好的數據,演算法也做不出正確的決策。」
Google 意識到了這一點,調整了搜尋演算法。目前「doctor」的搜尋結果中,女性與男性的比例基本平等。
人工智慧發展到現在,應用到實際的時間並不長。如果把它比做嬰兒,那它的成長有很大一部分依靠人類給予的養分與教育。人工智慧在機器訓練的過程中,所輸入的數據便是養分。科學家盡力將演算法調整到中立、客觀,但最終影響其輸出的還是數據。
即使數據中出現一個小偏差,人工智慧的最終行為也會將這個偏差放大。人類獲得的結果便是「歧視」──我們如何看待社會,人工智慧也會以相同的視角去看待社會。這個情況屬於普遍現象,其涉及到的不僅是技術問題,更是一個巨大的哲學問題。
今年 7 月份,微軟同中國發展研究基金會發布了《未來基石》報告。報告涵蓋了兩家機構對人工智慧的思考。例如微軟在人工智慧的開發中,將遵循 6 個道德基本準則,以創造「可靠」的人工智慧。
在微軟的人工智慧產品中,曾出現了聊天機器人小冰爆粗口的情況,同樣是源於訓練資料庫的影響。經歷該事件後,微軟修改了小冰的對話原則,並加強了對資料庫的過濾。但實際上仍然無法百分百避開資料庫中不健康的訊息。
想要訓練出更可靠的人工智慧,用戶同樣是很重要的力量群體。
劉靜

電話本

發佈時間:2018-10-18
易搜網汽車買賣

老東方傢俱

版權所有 華人今日網