国产深夜男女无套内射,美女下部私密的图片无遮挡,日本少妇做爰全过程毛片,70歳の熟女セックス合集,国产精品美女久久久久久

  • 服務熱線:13728883399
  • wangyp@shangeai.com

全球首款“反AI變臉刑偵檢測工具”,專用于檢測AI變臉/換臉造假技術(shù)

時間:2018-08-10 08:51:10點擊:570次

美國防部研發(fā)出了全球首款“反AI變臉刑偵檢測工具”,專用于檢測AI變臉/換臉造假技術(shù)。如今,以GAN為代表的AI換臉術(shù)盛行,相應的人臉檢測識別技術(shù)也不得不提升,這僅僅是一場漫長而又精彩的AI軍備競賽的開始。

昨天,新智元介紹南加州大學“殺馬特教授”黎顥率領的Pinscreen團隊的實時3D變臉技術(shù)后,引發(fā)了不少讀者的擔憂。

黎顥團隊的實時變臉技術(shù):左邊是iPhone拍攝的圖像,右邊是實時生成的3D人臉。來源:fxguide.com

有人擔心,支付寶的人臉識別技術(shù)會因此失效,或者衍生出新的詐騙方法,犯罪者利用你的圖片冒充你跟另一個人聊天......

這些擔憂都是切實存在的,因為如今的“AI變臉術(shù)”,已經(jīng)達到出神入化的境界,任何人利用AI軟件,幾乎都能做到模仿政治人物的臉,要是有一定技術(shù)的人,還能做到真假難辨的程度:

這些AI變臉工具,實際上都源自于生成對抗網(wǎng)絡(GAN)強大的圖像生成能力。

不過,現(xiàn)在美國國防部研究機構(gòu) DAPRA 研發(fā)出了首款“反變臉”的AI刑偵檢測工具,而其原理,也是以AI攻AI。

這款AI反變臉刑偵工具是 DARPA Media Forensics 計劃的一部分。早在今年 5 月,DARPA 便提出了要研發(fā)針對AI變臉技術(shù)的需求,讓現(xiàn)有的刑偵檢測工具變得自動化,能夠檢測近來涌現(xiàn)的AI假臉。

DARPA Media Forensics 項目負責人 Matthew Turek 表示,他們在GAN生成的假臉中發(fā)現(xiàn)了一些細微的線索,由此檢測出圖像或視頻中的臉是真實的還是AI生成的。

還記得2016年,“3.15晚會”讓一張照片“騙過”人臉識別軟件,從而讓“人臉識別”一夜走紅大江南北。

如今,更加高級的AI變臉技術(shù)和偵測AI變臉技術(shù),也將展開一場長期艱苦,但也精彩卓絕的AI軍備競賽。

在2016年“3·15”晚會現(xiàn)場,主持人使用了一項 AI 技術(shù),把靜態(tài)的照片轉(zhuǎn)化成動態(tài)照片,從而騙過登錄系統(tǒng)。這一技術(shù)在手機上就能實現(xiàn)

就看誰能走得更好更快。

美國防部研發(fā)出首款“反AI變臉”刑偵工具:準確率高達99%

DARPA 的這款工具主要是基于紐約州立大學奧爾巴尼分校教授Siwei Lyu和他的學生 Yuezun Li 和 Ming-Ching Chang 的共同發(fā)現(xiàn),也即使用AI技術(shù)生成的假臉(一般通稱 DeepFake),極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的。

“由于大多數(shù)訓練數(shù)據(jù)集都不包含閉眼的人臉圖像,因此AI生成的人臉缺乏眨眼功能,”Lyu說:“因此,缺少眨眼是判斷一個視頻真假的好方法?!?

論文詳細介紹了他們?nèi)绾谓M合兩個神經(jīng)網(wǎng)絡,從而更有效地揭露哪些視頻是AI合成的。這些視頻往往忽略了“自發(fā)的、無意識的生理活動,例如呼吸、脈搏和眼球運動”。

通過有效地預測眼睛的狀態(tài),準確率達到99%。

“我們還需要探索其他深度神經(jīng)網(wǎng)絡架構(gòu),以便更有效地檢測閉眼,“Lyu補充說:“我們目前的方法僅使用缺乏眨眼作為檢測AI篡改的提示。然而,也應考慮動態(tài)的眨眼模式——太快或頻繁眨眼,這種在生理上不太可能出現(xiàn)的現(xiàn)象也應該被視為篡改的跡象?!?

UAlbany的一組研究人員使用原始視頻上的眨眼檢測(上圖)和DeepFake生成的假視頻(下圖)來確定視頻是否是AI偽造的。在原始視頻中,在6秒內(nèi)檢測到眨眼動作。來源:UAlbany.edu

參與DARPA挑戰(zhàn)賽的其他人也在探索類似的技巧,比如自動檢測奇怪的頭部動作、奇怪的眼睛顏色等等。

達特茅斯大學的數(shù)字取證專家Hany Farid 表示,目前的AI反變臉工具主要利用利用這類生理信號,至少目前為止這些信號是很難被模仿的。

這些AI刑偵取證工具的帶來僅僅標志著AI視頻偽造者和數(shù)字刑偵人員之間AI軍備競賽的開始。

Hany Farid 表示,目前的一個關鍵問題是,機器學習系統(tǒng)可以接受更先進的訓練,然后超越當前的反變臉工具。

DARPA“反AI變臉計劃”:確保偵測到最先進的AI造假技術(shù)

DARPA 資助的 Media Forensics 計劃,旨在成功辨別由機器學習算法生成的虛假圖片和視頻。研究人員試圖開發(fā)出一種可擴展的平臺化工具,對尤其是基于GAN 模型的“Deepfake”生成的假視頻和圖像進行識別。

Deepfake很多時候會被用于生成一些明星或政客的惡搞視頻或剪輯,但也可能被用來惡意傳播虛假消息,以達到煽動和制造混亂等危險目的。

檢測數(shù)字化內(nèi)容的真假通常涉及三個步驟:

首先是檢查數(shù)字文件中是否有兩個圖像或視頻拼接在一起的跡象;

第二是檢查圖像的光照度等物理屬性,查找可能存在問題的跡象;

第三步最難自動完成的,也可能是最棘手的,就是檢查圖像或視頻內(nèi)容在邏輯上是否存在矛盾,比如圖像顯示拍攝日期的天氣與實際天氣不符,或者拍攝位置的背景有問題等。

目前,對大量真假難辨的數(shù)字化內(nèi)容進行辨別的工具或應用仍缺乏廣泛的適用性,在涉及到取證、證據(jù)分析和鑒別等關系重大的應用方向上,這類工具的可擴展性和穩(wěn)健性都無法完全滿足實務中的需求。

DARPA的MediFor項目匯集了世界級的研究人員,試圖開發(fā)出能夠自動評估圖像或視頻完整性的技術(shù),并將這些技術(shù)集成到端到端平臺上。如果該項目獲得成功,MediFor平臺將能夠自動檢測對圖像或視頻的改動,并給出詳細信息,說明具體是如何改動的,以及判斷視頻是否完整的理由,以便于決定是否能夠?qū)⒖梢蓤D像或視頻作為證據(jù)使用。

DARPA該項目負責人David Gunning表示:“從理論上講,如果你用現(xiàn)階段的全部技術(shù)來探測GAN生成的虛假結(jié)果,它就能學會繞開這些檢測技術(shù)?!辈贿^,研究人員在對抗Deepfake時發(fā)現(xiàn)了一個重要弱點,它生成的假視頻中的人從來都不眨眼,這是一個重要特征。這是因為Deepfake用于生成的假視頻的訓練模型都是靜止的圖片,而人在拍照時,絕大多數(shù)情況下眼睛總是睜開的。

DARPA的研究人員表示,該機構(gòu)將繼續(xù)進行更多測試來“確保開發(fā)中的識別技術(shù)能夠檢測到最新的造假技術(shù)?!?

從Deepfake到HeadOn:換臉技術(shù)發(fā)展簡史

DAPAR的擔憂并非空穴來風,如今的變臉技術(shù)已經(jīng)達到威脅安全的地步。最先,可能是把特朗普和普京弄來表達政治觀點;但后來,出現(xiàn)了比如DeepFake,令普通人也可以利用這樣的技術(shù)制造虛假色情視頻和假新聞。技術(shù)越來越先進,讓AI安全也產(chǎn)生隱患。

1、Deepfake

我們先看看最大名鼎鼎的Deepfake是何方神圣。

Deepfake即“deep learning”和“fake”的組合詞,是一種基于深度學習的人物圖像合成技術(shù)。它可以將任意的現(xiàn)有圖像和視頻組合并疊加到源圖像和視頻上。

Deepfake允許人們用簡單的視頻和開源代碼制作虛假的色情視頻、假新聞、惡意內(nèi)容等。后來,deepfakes還推出一款名為Fake APP的桌面應用程序,允許用戶輕松創(chuàng)建和分享換臉的視頻,進一步把技術(shù)門檻降低到C端。

特朗普的臉被換到希拉里身上

由于其惡意使用引起大量批評,Deepfake已經(jīng)被Reddit、Twitter等網(wǎng)站封殺。

2、Face2Face

Face2Face同樣是一項引起巨大爭議的“換臉”技術(shù)。它比Deepfake更早出現(xiàn),由德國紐倫堡大學科學家Justus Thies的團隊在CVPR 2016發(fā)布。這項技術(shù)可以非常逼真的將一個人的面部表情、說話時面部肌肉的變化、嘴型等完美地實時復制到另一個人臉上。它的效果如下:

Face2Face被認為是第一個能實時進行面部轉(zhuǎn)換的模型,而且其準確率和真實度比以前的模型高得多。

3、HeadOn

HeadOn可以說是Face2Face的升級版,由原來Face2Face的團隊創(chuàng)造。研究團隊在Face2Face上所做的工作為HeadOn的大部分能力提供了框架,但Face2Face只能實現(xiàn)面部表情的轉(zhuǎn)換,HeadOn增加了身體運動和頭部運動的遷移。

也就是說,HeadOn不僅可以“變臉”,它還可以“變?nèi)恕薄鶕?jù)輸入人物的動作,實時地改變視頻中人物的面部表情、眼球運動和身體動作,使得圖像中的人看起來像是真的在說話和移動一樣。

HeadOn技術(shù)的圖示

研究人員在論文里將這個系統(tǒng)稱為“首個人體肖像視頻的實時的源到目標(source-to-target)重演方法,實現(xiàn)了軀干運動、頭部運動、面部表情和視線注視的遷移”。

4、Deep Video Portraits

Deep Video Portraits 是斯坦福大學、慕尼黑技術(shù)大學等的研究人員提交給今年 8 月SIGGRAPH 大會的一篇論文,描述了一種經(jīng)過改進的 “換臉” 技術(shù),可以在視頻中用一個人的臉再現(xiàn)另一人臉部的動作、面部表情和說話口型。

例如,將普通人的臉換成奧巴馬的臉。Deep Video Portraits 可以通過一段目標人物的視頻(在這里就是奧巴馬),來學習構(gòu)成臉部、眉毛、嘴角和背景等的要素以及它們的運動形式。

5、paGAN:用單幅照片實時生成超逼真動畫人物頭像

最新引起很大反響的“換臉”技術(shù)來自華裔教授黎顥的團隊,他們開發(fā)了一種新的機器學習技術(shù)paGAN,能夠以每秒1000幀的速度對對人臉進行跟蹤,用單幅照片實時生成超逼真動畫人像,論文已被SIGGRAPH 2018接收。

Pinscreen拍攝了《洛杉磯時報》記者David Pierson的一張照片作為輸入(左),并制作了他的3D頭像(右)。 這個生成的3D人臉通過黎顥的動作(中)生成表情。這個視頻是6個月前制作的,Pinscreen團隊稱其內(nèi)部早就超越了上述結(jié)果。

原文標題:AI換臉終結(jié)者問世!美國防部推首款AI偵測工具,“反換臉”精度99%!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

  • 標簽: