性取向如何,現(xiàn)在AI掃描一下你的臉就知道了
斯坦福有一個看臉預(yù)測性取向的AI,如同相面一般,根據(jù)面部特征就能判斷一個人是直是彎,而且準(zhǔn)確度喜人:
男生81%,女生74%。
研究結(jié)果一公布,網(wǎng)友沸騰。也有不少人懷疑:AI哪有這么準(zhǔn)?
凡事需得研究才會明白。有位名叫約翰(John Leuner)的少年,不止嘴上不信,身體還積極地復(fù)現(xiàn)了算法,要用新的數(shù)據(jù)做個試驗(yàn),看看它究竟有沒有那么準(zhǔn)。
成績依然不錯:男生的準(zhǔn)確率68%,女生達(dá)到了77%。
這個結(jié)果,又引來網(wǎng)友們的一波激烈討論。這一次,大家的關(guān)注點(diǎn)不僅僅是準(zhǔn)確率本身,還有少年在復(fù)現(xiàn)研究中展現(xiàn)出的對AI的觀察:
憑什么說我是直男
AI到底是靠哪些線索,來判斷人類的性向?
約翰用了控制變量法,仔細(xì)觀察人臉的每個角落。
首先,他用眼睛、眉毛、輪廓、嘴巴和鼻子的特征,單獨(dú)指導(dǎo)AI的預(yù)測。
實(shí)驗(yàn)發(fā)現(xiàn),男生的眼睛和眉毛,對AI預(yù)測性向最有指導(dǎo)意義,鼻子就沒有幫助;
而對女生來說,眼睛是最重要的,輪廓是最次要的。
接下來,是胡子和眼鏡。
約翰發(fā)現(xiàn),在留胡子和不留胡子的男生數(shù)量相同的數(shù)據(jù)集里,AI判斷男生性向的準(zhǔn)確度,并沒有受到影響。
眼鏡也一樣,沒有左右AI的預(yù)測。也就是說,靠刻意的偽裝來欺騙AI,并不是個好辦法。
神奇的是,就算縮小成5x5尺寸,AI的判斷依然沒有受到嚴(yán)重的影響。AUC基本保持在0.6-0.8之間,偶爾還會超過0.8 (下圖之左虛線為5x5,右為大圖) 。
所以,大概是靠氣質(zhì)判斷的吧┑( ?Д ?)┍。
為了做這些探索,約翰復(fù)現(xiàn)了一個深度神經(jīng)網(wǎng)絡(luò)模型和一個基于面部形態(tài)學(xué)(FM)的模型,還從約會網(wǎng)站中抓取了50萬張照片,從中選取2萬多張,做成性別、取向平衡分布的數(shù)據(jù)集。
他用VGG-Face神經(jīng)網(wǎng)絡(luò),從圖像中提取鼻子、胡須、眉毛、嘴角、發(fā)際線等面部特征,然后將照片轉(zhuǎn)換成4096個元素的特征向量。
因?yàn)槭羌s會網(wǎng)站,這些照片還會帶有年齡、性別、性取向等標(biāo)簽信息。
然后作者根據(jù)面部特征訓(xùn)練了一個回歸模型來預(yù)測性取向。2017年斯坦福大學(xué)的研究就是這么做的。當(dāng)時,Kosinski教授把人臉?biāo)邢嗤匀∠虻哪樅铣闪?張圖片:
顯然,這四張合成面部圖片之間存在著差異。Kosinski教授就此斷言,性取向通常伴隨著特有的面部特征。
但是我們深究一下就會發(fā)現(xiàn)其中的問題:男同性戀的人臉合成圖顯示有眼鏡。因此算法可能是根據(jù)臉上的配飾做出的判斷。
fast.ai創(chuàng)始人Jeremy Howard認(rèn)為,說AI無法通過照片判別性取向顯然是不客觀的,但相關(guān)性不等同于因果關(guān)系。
神經(jīng)網(wǎng)絡(luò)只是發(fā)現(xiàn)面部特征和性取向的相關(guān)性,沒有解釋這背后的原因,它只是一臺識別機(jī)器。
又炸鍋的網(wǎng)友
和兩年前一樣,這項(xiàng)政治不正確的研究帶來了極大的爭議。對研究結(jié)果,國外網(wǎng)友提出了很多質(zhì)疑。
首先,帶有偏見的數(shù)據(jù)集,必然導(dǎo)致帶有偏見的結(jié)果。
有網(wǎng)友指出,gay一般比直男更在乎自己的形象,可能會精心打扮自己。而約會網(wǎng)站本來就帶有強(qiáng)烈的目的性,用戶會精心打扮自己吸引對象。
這會導(dǎo)致模型不太適用于其他社交媒體的場景。
這種猜測并非毫無根據(jù),威斯康星大學(xué)麥迪遜分校的心理學(xué)教授William Cox研究發(fā)現(xiàn),同性戀確實(shí)是更傾向于在網(wǎng)上發(fā)布自己高質(zhì)量的圖片。
之前斯坦福大學(xué)的實(shí)驗(yàn)結(jié)果也證實(shí),將模型用在Facebook圖片上時,準(zhǔn)確率會降至52%。
另外,這套算法在5×5的圖像上也有63%和72%的正確率,說明它還能根據(jù)皮膚、頭發(fā)顏色進(jìn)行分類。
但是5×5的馬賽克基本上完全模糊掉了臉部特征,居然也能行!這與兩年前Kosinski教授的推測相悖,更讓人懷疑結(jié)果的可信程度。
實(shí)驗(yàn)數(shù)據(jù)的表示方法也讓人懷疑不夠客觀。
比如數(shù)據(jù)集中有70%是直男、30%是gay,那么模型只要判斷所有人都是直男,對準(zhǔn)確率也會有70%。
比方說,每1000人中有50人是同性戀。準(zhǔn)確率91%的結(jié)果會誤認(rèn)9%的直男為同性戀,也就是85人。
該算法還會將9%的同性戀者視為直男,也就是會識別出45人為同性戀。結(jié)果在130個“同性戀”中,有三分之二的人其實(shí)并不是同性戀。
約翰只是南非一個名不見經(jīng)傳的學(xué)生,對他的討論尚且能控制在理性的范圍內(nèi)。
而斯坦福大學(xué)的Kosinski教授就沒這么幸運(yùn)了,他的研究一經(jīng)公布,就引起了極大的非議,他本人甚至收到了許多死亡威脅。LGBT團(tuán)體稱他的研究是“垃圾科學(xué)”(junk science)。
在某些國家,同性戀屬于違法行為,甚至最高會被判處死刑。即使是在一些同志合法的國家,這項(xiàng)技術(shù)也面臨著泄露隱私的指責(zé)。
少年在自己61頁長的論文中,就提到了這類技術(shù)的隱患:
這類能檢測性取向的新技術(shù),可能會對同性戀男女的隱私和安全造成嚴(yán)重的影響。
你怎么看?
這項(xiàng)研究在遭到LGBT團(tuán)體強(qiáng)烈抵制的同時,Kosinski教授還提出了更大膽的主張,足以讓每個人感到害怕。
他相信AI算法很快就能夠僅通過面部圖像來判斷人的智力、政治傾向和犯罪傾向。
千萬不要以為這只是臆想,以色列一家創(chuàng)業(yè)公司Faception已經(jīng)開始出售這樣一種AI軟件,通過面相來識別恐怖分子,他們聲稱將這項(xiàng)技術(shù)用在11個恐怖分子身上,準(zhǔn)確識別出了其中9人。
用AI給人看相真的靠譜嗎?
原文標(biāo)題:火爆 ins 的最美櫻花表,今日現(xiàn)貨開售
文章出處:【微信號:mobvoi_tic,微信公眾號:出門問問Mobvoi】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。