online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 AI的歧視來自人性?從性別與種族不平等談機器學習

摘要: 若這些存在社會已久的歧視議題,出現在代表著公正、客觀的AI人工智慧中,對個人與全球會有哪些隱憂?

 


images/20220511_1_1.jpg

▲圖片來源:shutterstock)

在科技與資訊傳播都相當進步的世代下,社會中的刻板印象仍然持續存在。從每天都會見到的「洗手間圖示」來試想,為什麼男生就是藍色?為什麼女生只能穿裙子呢?

縱使全球倡導「兩性平權、性別平等」,但刻板印象的扭轉卻相當有限,更別提「黑人與白人、原住民與新住民」等帶有歷史痕跡、難以弭平的種族議題,早已經深植人心。

但你有想過嗎?若這些存在社會已久的歧視議題,出現在代表著公正、客觀的AI人工智慧中,對個人與全球會有哪些隱憂?

從AI辨識看社會歧視

自2022年2月開始,俄烏戰爭已開打超過一個月,各國都以不同的方式對烏克蘭伸出援手,這其中卻埋藏著濃厚的種族歧視意味。歐洲國家對烏克蘭難民積極友善,但對來自亞洲或非洲的烏克蘭留學生則不願提供更多幫忙,認為只應提供同為白人的烏克蘭人更多協助。

除了種族歧視,關於性別的議題也層出不窮,yes123求職網在2022年3月公布【職場女力崛起與工作甘苦談調查】,結果發現即使自己認為競爭力不輸給男性,仍有57.7%的女性勞工覺得「職場性別歧視」嚴重,且有69.1%的人透露,曾經遇過與男 性同仁「同工不同酬」的狀況;企業女主管的比例佔「一半(50%)以上」的,也僅有14.2%。

那麼想像一下,將上面兩個近期的典型歧視案例與AI辨識結合:若歐洲國家用AI辨識來審核想要獲得救援的烏克蘭人,但身為亞洲人的你卻無法被辨識,無法擁有被庇護的資格;又或者假設企業使用AI機器人做初步履歷篩選,AI直接判斷身為女性的你被扣分淘汰,你能接受這個「大數據得出的公平公正結果」嗎?

是AI不夠智慧,還是人類不夠周全?

數年前的亞馬遜Amazon就曾發生過類似的案例,亞馬遜為了協助HR節省審閱履歷的大量工時,在2014年開始組織AI機器學習團隊,開發履歷篩檢功能。然而一年後團隊卻發現,AI獨獨針對女性的履歷會扣分,原因是亞馬遜過去十年都以聘用男性為主,女性資料內容的缺失造成機器學習後誤判。最終,亞馬遜無法確保完全杜絕這樣的偏差,因此只能放棄該計畫。

而現在越來越多單位開始使用AI辨識來作業,包含我們在企業中常見的「上班打卡」或是停車場的「車牌辨識」,都是常見的應用案例。如果因為人臉辨識錯誤,導致你每天上班都在幫別人打卡、或是手機Face ID老是無法解鎖等等,是不是也造成你很大的困擾?

事實上AI的錯誤不只是影響特定族群的權益,與第一段提到的俄烏戰爭案例雷同,過去矽谷就曾經想把AI辨識推薦給美國警局使用,但美國當時有嚴重的性別與種族歧視,特定族群的樣本數不夠多,導致辨識上有很大的錯誤,也因此誤抓很多無辜者。

聽完這些案例,有很多人開始錯怪AI,認為他是個「不夠聰明」的人工智慧,但其實AI的錯誤源自於人類提供的教育。最早期的人工智慧單純以電腦程式去模擬人類的行為與思維,後來發現誤差值很大,於是漸漸從機器學習(人類協助AI擷取資料特徵),最後演進到深度學習(AI自行從資料中擷取特徵)。然而不論學習的方式如何改變,透過上面提到的各種案例,我們會發現一切源頭都在於人類給AI學習的資料內容,資料有缺少或不夠周全,都會間接將歧視的視角傳遞給AI,導致AI學習的偏頗,所謂的「公正客觀」也就淪為強化多數族群的工具之一了。

面對學習中的AI幼兒,如何設計最佳「言教」

讓我們把AI想像成剛出生的孩子,就像一張白紙,AI並不會主動產生偏見,而是透過學習行為產生智慧,所以人類提供的「大數據教材」非常重要。藏有歧視的資訊量或內容,就像家長的言行容易讓孩子有樣學樣,讓AI走偏了路。正因為資料內容對AI影響之大,且AI在人心中的公平公正形象,不僅影響個人、特定族群,甚至動盪到國家,也間接助長社會歧視的負面印象。

因此,在難以完全消弭社會歧視的狀況下,如何設計讓AI「順利成長」的內容,正是人工智慧發展的一大關鍵。

(一)數據量的平衡

透過上面的案例可以得知,若資料的樣本數特別以哪類族群為多,其他族群都會出現失準的狀況,因此要特別留意性別與各族群的資料量達到平衡,讓AI在同一基準接收資訊,以呈現公正的統計結果。

(二)資料收集擴大且透明

要避免資料過於偏頗,除了數量平衡之外,應將資訊收集的範圍擴大,並制定相關收集規則,讓收集的管道更透明多元,資料才更有參考價值,避免只限縮在某些族群的特定視角。

(三)因應趨勢即時更新

全球時時刻刻都在產生不同的趨勢、文化、政策,AI的學習更應該掌握時代的腳步、參與多元意見與內容,避免守舊而導致偏差。

人類讓AI變成理想中的樣子,卻沒有去審視AI錯誤的來源,反而呈現人性在社會歧視的缺失與黑暗。即便如此,我們仍然不能抹滅科技發達的便利與優勢,純人力的作業效率與準確率,終究比不上AI的精準與速度。

或許未來可以嘗試設計「沒有性別、族群之分」的學習內容,弱化AI的框架與刻板印象。也期待有一天,我們可以反過來透過AI的便利與普及使用,傳遞無族群界線的意識,讓存在已久的社會歧視動搖或消失。

轉貼自Source: bnext.com.tw

若喜歡本文,請關注我們的臉書 Please Like our Facebook Page:    Big Data In Finance

 


留下你的回應

以訪客張貼回應

0
  • 找不到回應

YOU MAY BE INTERESTED