摘要: Meta在臉書和Instagram上,採用少量樣本學習技術來阻擋有害內容傳播,有效辨識傳統系統所無法發現的各類型違反規則貼文
Meta建構並且部署了一種稱為少量樣本學習(Few-Shot Learner,FSL)的人工智慧技術,將平臺對有害內容的反應時間從數月降低到數周,並且能夠不斷適應新的有害內容類型。該技術適用超過100種語言,還可以從圖像和文字等不同類型的資料中學習,同時能夠強化現有已經部署,用來偵測其他類型有害內容的人工智慧模型。
有害內容演變的速度很快,無論是由事件驅動,抑或是惡意人士刻意規避系統偵測的行為,官方提到,人工智慧系統能跟上有害內容演變速度變得很重要,但人工智慧要能偵測這些有害內容,通常需要數個月的時間收集並且標記範例,才能訓練每個單獨的人工智慧系統,發現新類型的內容。
而Meta新發展的這個人工智慧系統,使用少樣本學習技術,官方解釋,這是一種相對較新的方法,其模型能夠從對許多不同主題,擁有大量且一般性的理解,接著只要使用少量或甚至零樣本來學習新任務,就能有效地執行任務,Meta以捕魚技術來比喻人工智慧偵測技術,傳統系統類似可以捕捉特定魚種的釣魚線,而少樣本學習技術則像是額外的網子,可以捕捉其他類型的魚。
之所以Meta現在才能夠採用少樣本學習技術,研究人員解釋,這是因為最近的技術突破,像是自我監督學習技術,和超高效基礎設施,使該領域能夠開始從傳統、特製的人工智慧系統,轉向更大且更通用的系統,並且降低對標記資料的依賴。
Meta使用違反政策的內容,來訓練新的人工智慧系統,最後該模型還以解釋新政策的文字進行訓練,和過去透過比對資料模式的系統不同,FSL使用通用語言,以及違反政策的內容進行訓練,因此可以學習政策的隱藏含義。
目前Meta已經在一些較新的事件中,測試FSL的表現,像是辨識暗指疫苗會改變DNA,這類以誤導性或是危言聳聽資訊,嚇阻他人接種COVID-19疫苗的貼文,其他的任務還有改進現有分類器,該分類器能夠標記煽動暴力的內容,偵測到類似「那個人需要所有的牙齒嗎?」這種貼文,官方提到,傳統的方法可能會忽略這類型的煽動性貼文,因為使用DNA來質疑疫苗接種,和利用牙齒來暗示暴力的樣本並不多。
官方運用各種方法來衡量模型的效能,並且查看FSL在臉書和Instagram上部署後,有害內容的流行率,也就是人們看到違規內容的次數百分比之間的差異,經過實驗,Meta人工智慧少樣本學習技術,能夠正確偵測傳統系統可能遺漏的貼文,並且透過主動偵測潛在有害內容,來防止有害內容在平臺中傳播,以減少這類內容的流行。
轉貼自Source: ithome.com.tw
若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance
留下你的回應
以訪客張貼回應