鄉民543熱門

搜索

[新奇] AI馬賽克修復技術惹上了大麻煩,不論族裔顏色,還原出來都是白人

[複製鏈接]

凡德賽|發帖時間:2020-6-29 19:58:46 查看:2326|回復:0






本文來源:量子位
微信id:QbitAI
作者:賈浩楠
還記那個被眾網友玩壞的「最強馬賽克修復AI」PLUSE嗎?
前兩天我們報導了杜克大學發布在CVPR 2020的這項成果,還放出了一大波效果實測。
其中一張奧觀海同志復原圖引起了讀者SilverCasque的注意:

他留言說「還原的全是白人的臉,黑拳警告」。




沒想到這位讀者神預測,現在,PLUSE果然因此惹出了大麻煩。
就連深度學習巨頭LeCun出來為這項技術辯解,也被國外網友和同行炮轟。
PLUSE:不允許你不白PLUSE一經推出就引起了極大的關注,但是,網友實際使用PLUSE,卻發現了一個很嚴重的問題:PLUSE無法準確還原有色人種圖像。
如果只是還原失敗,弄出一個不人不鬼的東西,最多只是技術問題。
但麻煩的是,PLUSE不僅還原出了完整的人臉,還是一張五官端正漂亮的白人臉。
這在如今高喊「黑命貴」的美國,無疑是一股紮眼的「逆流」。
有網友就拿歐巴馬的低像素照片反復測試,結果無一不是白人男性,更加坐實了PLUSE的罪名。

隨後,知名機器學習博主Robert Osazuwa Ness拿不同有色人種的低像素照片去測試,這其中有他自己、有美國著名國會議員Alexandria-Ocasio Cortez,和華裔女星劉玉玲。




看到模特皮膚不夠白,PLUSE還十分執著地給他安上了一頭金髮…….真的是「不允許你不白」。

Alexandria-Ocasio Cortez是美國有史以來最年輕的國會議員,拉丁裔,也被強行洗成白人。




對於亞裔,PLUSE更不客氣,你甚至看不出一點人物原本真實的特徵。
比如博主Robert Osazuwa Ness自己的妻子:

華裔女星劉玉玲:




總之,在外國網友的測試中,PLUSE無一例外的把少數族裔強行洗白,似乎在有意糾正人們的膚色和五官特征。
網友對此反映自然很激烈,有人認為這是一種帶有種族歧視的、非常危險的技術;

這一種觀點引起了較多共鳴,還有人緊跟著曬出了其他「種族偏見」的AI演算法,比如這位一個將照片變成文藝復興風格的演算法也將別人強行洗白:

有人乾脆給PLUSE起了個新外號:「白人雷達」




但是也有一部分網友認為,演算法本身是沒有所謂「種族歧視」的,問題出在了用來訓練演算法的數據集上。

PLUSE的核心StyleGan是在FFHQ上訓練的,有網友認為儘管它的人種多樣性好於嚴重偏向白人的CELEB-A,但仍然不夠。
有網友截取了一部分FFHQ的人臉數據集:

確實夠白的……但有人同時指出,除了數據集的偏差,還有一種可能是模型的崩潰失效,演算法「偷懶」,僅僅把人像漂白,而不是為不同種族和面部特征建模。
但也有人認為,即使用相同數據集訓練StyleGan也能生成非白人結果,問題還是出在演算法上。




網友對PLUSE的口誅筆伐目前還沒有得到論文原作者的回應。
但另一位機器學習元老卻首先發聲了。




LeCun也中槍,到底冤不冤?深度學習巨頭LeCun對於網友對PLUSE幾乎一邊倒的抨擊,進行了回應:

他認為,機器學習系統帶有偏見是因為數據帶有偏見。假如在塞內加爾采集的數據上訓練,輸出肯定都是黑人。
隨後他還補充道,相比於這種純學術論文,這個問題應該是工程師更加關注的,實際部署中這種偏見會有嚴重的後果,盯著幾個學者討伐沒有什麼意義。

此話一出,頓時引起了同行的炮轟,外媒報導,一個可問責AI研究者Deborah Raji控訴LeCun:
對LeCun的言論十分震驚,這反應出了行業領軍人物的麻木不仁(lack of awearness)。
不明白像LeCun這樣處在如此關鍵位置的人,為什麼會認為學術研究對工程部署沒有影響。
社會的偏見不可能靠一個「正確」的數據集去解決。
LeCun對這樣的指責頗有些無奈,他對外媒說:
我從來沒說過學術研究無法在應用中確立規範。
我之前也在Facebook建立領導過致力於AI技術公平性的工作組。




其實,稍聰明的讀者都能明白,LeCun的意思是說,論文只是提供了解決問題的思路,實際應用中的問題復雜的多,這才是應該關注的。
借由一篇論文的結果炮轟研究人員,以此標榜自己的政治正確、販賣觀點,這一點是LeCun不願意看到的。
技術本身是無罪的,國外炮轟PLUSE這一事件超出了技術本身,甚至也早就超出了科學倫理的範圍,這大概就是美利堅特色科研吧。
你怎麽看?
參考鏈接
https://ww ... a-bias
文章轉載自:chinaqna.com




鄉民都在看


鄉民說什麼


回復

使用道具 舉報

快速回復 返回頂部 返回列表