摘要: 如果數據帶有偏見,AI 就會承接這些結果!
世界衛生組織 WHO 警告,大量使用在醫療保健服務的人工智慧 AI 蘊含著大量偏見,會加深對老年人的歧視,進而對他們的健康照護產生影響。
目前 AI 被我們大量應用在醫療保健上,且通常沒有進行深入的調查,也因目前科技進展當中,AI 的使用已成為最佳輔助技術,因此它可能會讓歧視永久化,而使用者自己卻無法意識到任何偏見,而當醫療保健領域依賴有偏見的技術時,就會衍生出有害影響。
AI 演算法基於人類做出決策
AI 通常會被認為比人類更為客觀,然而在現實當中, AI 演算法所輸入的資料也是基於人類去做出決策的,而這些資料則都帶有某群體的偏見。
在醫療保健、商業、政府和日常生活中,帶有偏見的演算法引發了許多問題,例如,對於罪犯會再次犯罪的可能性做出有偏見的種族主義預測。
目前關於 AI 偏見的研究主要集中在性別和種族上,但是,新研究卻發現與年齡有關的歧視現象卻越來越多。
在整個新冠病毒大流行期間,年齡歧視的問題被推到了最前沿,老年人被貼上了「社會負擔」的標籤,甚至在一些救難的緊急狀況當中,年齡被用來當作救生標準的條件之一。
AI 會系統性的認為高齡者因為年紀增長,因此可以採取消極態度,無論是在活動或是引導各種機構運作的形式。
老人技術可獲取的障礙
而會有年齡歧視的現象,有很大的因素是因為老人在技術可獲取的障礙,也就是說,老年人通常會被排除在數位科技的研究、設計和開發過程之外,因為開發者會認為老年人無法使用新科技,因此,老年人的觀點很少參與進 AI 和相關政策、資金和支援服務的制定裡面。
高齡者資料的缺失會在輸入資料當中就被分隔開來,簡單來說,即使老年人被包含在大型資料庫中,這群人也會由開發人員根據劃分進行分組,老年年齡組會被劃分到更窄的年齡範圍,例如,高齡者只會被定義為 65 歲以上,因此, AI 系統就會自動忽略老年人的需求。
為 AI 系統制定保障措施
AI 中的偏見目前被許多機構組織認為是一個需要採取緊急行動的關鍵問題,我們必須制止這些與年齡相關的偏見,才能進而避免產生相關的風險和危害。
首先要先讓研究人員和開發人員知曉數位科技的演算法偏見(如種族主義和性別歧視)的存在,下一步才能為 AI 系統制定保障措施,以減輕年齡偏差造成的後果。
目前,從監管或法律角度來看,對 AI 的活動培訓、審核或監督稀少,目前的監管制度資源嚴重不足,為維護少數群體的聲音,遵循嚴格的 AI 法規,都要以評估演算法產出的結果是否符合公平規範的程度,藉此才不會讓偏差更根深蒂固。
轉貼自Source: buzzorange.com
若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance
留下你的回應
以訪客張貼回應