国产深夜男女无套内射,美女下部私密的图片无遮挡,日本少妇做爰全过程毛片,70歳の熟女セックス合集,国产精品美女久久久久久

  • 服務熱線:13728883399
  • wangyp@shangeai.com

使用Net2Vis為CNN創(chuàng)造可直接發(fā)布的可視化方案

時間:2019-02-19 13:32:27點擊:460次

嗚啦啦啦啦啦啦啦大家好,還記得那位在中國向工程師們教授AI的美國老師Christopher Dossman嗎?大數據文摘與他取得了聯系,并且有幸邀請他開設了專欄。從本周起,由Chris精心打造的AI Scholar Weekly欄目終于要和大家見面了。

AI Scholar Weekly是AI領域的學術專欄,致力于為你帶來最新潮、最全面、最深度的AI學術概覽,一網打盡每周AI學術的前沿資訊,文末還會不定期更新AI黑鏡系列小故事。

周一更新,做AI科研,每周從這一篇開始就夠啦!

使用Net2Vis為CNN創(chuàng)造可直接發(fā)布的可視化方案

Net2Vis的主要目標是通過使用巧妙的可視化編碼來遵循視覺語法規(guī)則,從而提高CNN的可讀性。它還通過層積累結合了層抽象,大大降低了網絡體系結構的復雜性。通過這種方法,我們可以實現連貫、清晰的可視化方案設計。此外,Net2Vis可以更及時地完成工作,在時間層面上大大優(yōu)于之前的同類方法。

潛在應用與效果

像Net2Vis這樣的方法可以讓研究人員很容易地建立CNN的可視化效果圖,并且減少CNN可視化的模糊性。另一方面,如果這個方法能夠廣泛應用于所有網絡結構的可視化之中,讀者們就能夠在不學習特定論文使用的可視化語言的情況下理解CNN的可視化結果,從而減少理解錯誤的可能。

原文:

https://arxiv.org/abs/1902.04394v1

代碼:

https://github.com/viscom-ulm/Net2Vis

使用TensorsCone框架開發(fā)安全的ML Web應用程序

如果你想開發(fā)魯棒性強且十分安全的機器學習(ML)應用程序,Tensorscone會是一個不錯的選擇,它是一個基于IntelSGX的面向硬件的安全機器學習框架。TensorsCone在不影響準確性的前提下提供了透明性和高水平的性能。與以前實現數據隱私和完整性的模型不同,TensorsCone的設計和體系結構是基于TensorFlow的,并且同時支持培訓和分類。

該框架使用了IntelSGX的先進技術,能夠為部署在不受信任的Web基礎設施上的任何ML應用程序提供強大的保密性和完整性。目前,TensorsCone已經通過幾個基準以及實際應用程序進行了評估,并表現出了強大的效率和安全性。

潛在應用與效果

TensorsCone是ML工程師的福音,因為它可以幫助他們在不犧牲準確性和性能的情況下開發(fā)和執(zhí)行針對私有和敏感數據的ML應用程序。此外,TensorsCone基于TensorFlow這一最流行的ML框架,所以它可以支持各種未修改的現有ML應用程序。

原文:

https://arxiv.org/abs/1902.04413v1

改善極端激烈運動的深姿態(tài)估計

這一方法使用運動后數據來改善對極端激烈運動的深度人體姿態(tài)估計。它采用旋轉增強技術對輸入數據進行增強,并對每幀進行多次姿態(tài)估計。此后,最一致的姿態(tài)和動作被重建為平滑姿態(tài)。對該模型的系統(tǒng)測試表明,對于極端激烈的動作和不規(guī)律的姿態(tài)來說,該模型能夠有效提高估計的綜合質量。

潛在應用與效果

這種深度姿態(tài)估計算法可以在各種激烈的人體運動捕捉和虛擬動作的修改中得到應用,這在過去是非常困難的。后數據增強方法也可以有效地用于許多HCI、UI和體育科學軟件。此外,該方法還啟發(fā)了DNN技術在ML領域之外的應用。

原文:

https://arxiv.org/abs/1902.04250v1

基于CMH-ECC技術的高效人臉圖像檢索

研究人員提出了一種新的深度糾錯交叉模式散列(Error-Corrected Deep Cross-Modal Hashing : CMH-ECC)模型,該模型使用位圖來描述某些面部屬性,在給定需要查詢的屬性后,數據庫系統(tǒng)就會完成相關的面部圖像檢索?;趦蓚€標準開源數據集的測試結果表明,該模型優(yōu)于傳統(tǒng)的圖像檢索算法。

雖然目前的人臉圖像檢索方法取得了令人印象深刻的效果,但事實上,它們仍然缺乏有效的程序來細化圖像搜索中的人臉屬性。該模型中采用糾錯碼,通過深度跨模式散列法減少了漢明距離,從而提高了檢索效率。

此外,CMH-ECC使用點向數據執(zhí)行面部圖像檢索,而無需使用成對或三倍的訓練數據,這使得它可以擴展到非常巨大的數據集。

潛在應用與效果

通過新的CMH-ECC模型,研究人員、設計人員和開發(fā)人員現在可以檢索精確匹配和經過改進的面部圖像。該模型也可能是向下一代基于面部圖像的ML應用程序進化的開始。這有可能改善基于攝像頭的安全系統(tǒng)。

原文:

https://arxiv.org/abs/1902.04139v1

對目標檢測模型的訓練進行簡單、通用的調整以提高精度

研究人員最近研究了對模型訓練進行通用調整這一課題,這可以在不增加計算開銷的情況下提高對象檢測模型的性能。測試結果表明,在每個人工智能工程師都做過的目標檢測訓練中,這些調整可以提高大約5%的絕對精度。

首先,研究人員探索了一種對象檢測的混合技術,并識別出了在多個對象檢測任務中有助于保持空間變換的特殊性質。由此,他們提出了一個可以應用于任何對象檢測任務的視覺連貫的混合方法。第二,他們全面探索了如學習率調度、權重下降和批處理規(guī)范等細節(jié)。最后,通過逐步將該訓練提升方法集成到訓練單級和多級目標的檢測模型中,他們研究了該方法的有效性。

潛在應用與效果

疊加和實現這些調整意味著研究人員可以輕松地訓練目標探測器模型,同時不產生額外的計算成本。這樣的研究也有助于科學家和工程師們開發(fā)出更有效的目標檢測算法。

原文:

https://arxiv.org/abs/1902.04103v1

用于物聯網系統(tǒng)強對抗性樣本的測試框架

人工智能安全領域的學者和研究人員說,物聯網惡意軟件檢測系統(tǒng)的魯棒性是非常重要的,因此我們需要一個框架來測試它。鑒于目前生成對抗性樣本的方法大多需要訓練模型參數,而且大多數都局限于圖像數據,研究人員提出了一個基于學習的物聯網設備Android惡意軟件檢測系統(tǒng)(Testing Framework for Learning-based Android Malware Detection: TLAMD)的測試框架,以幫助抵御物聯網設備的對抗性樣本。

如果框架測試結果顯示惡意軟件檢測系統(tǒng)無法抵御對抗性樣本,那么這就說明系統(tǒng)需要加強。TLAMD致力于生成有效的對抗性樣本,這是一個沒有模型參數知識的測試框架的核心內容。

潛在應用與效果

通過整合遺傳算法和特定的技術改進,TLAMD可以為物聯網Android應用程序創(chuàng)建具有近100%成功率的對抗性樣本,并且支持黑盒系統(tǒng)測試。這對ML安全分析師和開發(fā)人員來說是一個好消息,因為該方法顯示出了開發(fā)用于物聯網設備的基于學習的Android惡意軟件檢測算法的希望和巨大潛力。

原文:

https://arxiv.org/abs/1902.04238v1

在不“丟臉”的情況下實現人臉識別

這一研究提出了一種新的面部識別方法,在保持必要面部特征的高視覺質量的基礎上,這一算法可以隱藏其他的面部特征量。該算法基于深度神經網絡,不改變原有的人臉也不會合成新的人臉,而是采用預先訓練的人臉屬性轉移模型,將人臉屬性映射到多個志愿的人臉供體上,實現了自然的人臉外觀,同時保證了合成數據中的身份變化。測試結果中該算法對各種圖像和視頻數據集均表現優(yōu)異,證明了模型的有效性。

潛在應用與效果

通過這種新的方法,人工智能研究人員可以放心地在不損失原始數據質量的情況下實現人臉識別,并且仍然可以避免可能的人臉識別訴訟。這也有助于提高計算機視覺應用的水平,因為它可以通過在圖像/視頻生成過程中引入隨機性來提高原始數據集的多樣性。此外,該方法還可以擴展到頭部姿勢變化等領域。

原文:

https://arxiv.org/abs/1902.04202v1

采用時頻特性的TiFGAN可有效合成音頻

生成對抗網絡(GANs)在生成建模方面取得了巨大進展,特別是在圖像處理和藥物發(fā)現領域。然而,它們的用途遠遠超出這些應用的范圍。根據這項研究的結果,我們發(fā)現GANs還可用于促進有效的自然發(fā)聲。

通過對一個GAN進行短時傅立葉特征的訓練,研究人員已經證明了其在生成TF建模中的潛力。他們提出了一個基于TF的模型——TiFGAN,它利用GANs學習評估TF表示的質量,從而實現了高質量音頻的合成。

TiFGAN已經通過了傳統(tǒng)模型的測試。它優(yōu)于當前最先進的GAN生成波形算法,盡管事實上兩者和傳統(tǒng)模型都實現了類似的網絡結構。TiFGAN的計算成本也很低,在模型訓練過程中很有可能簡化收斂性評估。

潛在應用與效果

這種新的建模方法消除了音頻合成中質量下降和失真的問題,真正展示了GANs中休眠的潛力,可以探索和利用這些潛力生成一次性的完整信號,從而實現更有效的音頻合成。而且,如果對抗性時頻特性的產生可以應用于音頻合成,那么這也意味著人工智能研究界開始了一段新的旅程——試圖利用GANs更深入、更有效地與人工智能進行音頻合成。

原文:

https://arxiv.org/abs/1902.04072v1

AI黑鏡——基于AI技術的人倫小故事

家庭相冊

我拿著一張舊的家庭照片。它褪了色,有些地方邊緣參差不齊,還有一個角被撕破了,但正因為如此,我更喜歡它了。

這張照片中的我還是一個孩子,在海灘上,那時的我和很多其他孩子正在與一只非常友好的金毛獵犬玩耍,我們只相識了一天,但這一天我卻記了很多年。

唯一有問題的是照片中的狗和我的記憶出現了偏差,我記得當時和我一起玩耍的是我們自己家養(yǎng)的棕色拉布拉多。當我拿著照片找到媽媽提問時,她回答道:“當時和你玩的確實是這條狗,其實正是那天看你玩得那么開心,我們后來才開始自己養(yǎng)狗的?!?

我想說的是,記憶并不是人們想象的那樣。如果你和你的朋友或是家人談論過去,你會發(fā)現不同的人對于同一事件的記憶是不同的,在你有機會將記憶與當年的筆記進行比對從而確定其真實性之前,記憶充其量只是一種指引。

很久以前,人們沒有照片(也許有些富有的家庭會有肖像畫),那時的人們無從回憶。但是后來,每個人都有了一本家庭相冊,也就是從那個時候開始,人們漸漸明白對于過去的記憶只是意見的一種,而這種意見是不同的。

然后,我們有了數碼攝影、存儲和備份,突然間,過去的一切都變成了真實的過去。我們進入了一個手機攝像頭,監(jiān)視器,甚至人體攝像頭的時代。在這個信息爆炸的時代,無論這些信息有多重要,想讓足夠多的人花足夠多的時間來研究這些信息都是不可能的。不過,這種圖像信息的爆炸只是短暫的繁榮。

現在我們已經能夠自動識別圖像中的一個物體或一個人了,這事實上距離推測一個物體或人在圖像中的樣子已經不遠了。如果我們能夠在圖像中插入它,同時又無法識別一個圖像中的物體是不是被插入的,那么在未來,當我們面對圖像的時候,這副圖像中的任何東西,不管是靜止的還是移動的,存儲的還是實時的,都不能再被認為是可靠的。

當然,一定會有人聲稱他們能夠分辨出不同之處——也許可以從一些像素上分辨出來——但對于一般人來說,對于圖像的看法又變回了一個意見問題。

圖像證明一切的時代已經過去了。

我們的孩子會成長于一個圖像不可靠、不客觀、不永恒的世界。我相信以前一切都很好,以后也會很好。但是對于我們這幾代人來說,我們已經習慣了相信我們所看到的,相信事情將永遠不會改變。我們把記憶儲存在這些東西里,直到這些東西使我們失望。

所以我坐在這里,拿著這些家庭照片,它們太老了,太真實了,任何人都不能操縱或偽造,我正試著通過他們喚醒記憶。我相信它們會一直持續(xù)下去......

專欄作者介紹

Christopher Dossman是Wonder Technologies的首席數據科學家,在北京生活5年。他是深度學習系統(tǒng)部署方面的專家,在開發(fā)新的AI產品方面擁有豐富的經驗。除了卓越的工程經驗,他還教授了1000名學生了解深度學習基礎。

原文標題:不“丟臉”實現人臉識別,使用TiFGAN合成音頻 | AI Scholar Weekly

文章出處:【微信號:BigDataDigest,微信公眾號:大數據文摘】歡迎添加關注!文章轉載請注明出處。

  • 標簽: