世界模型 World Models部分翻譯

本文對論文《world Models》的前半部分進行了翻譯,看過前半部分基本就了解結構了,我個人認為Schmidhuber還是一如既往地喜歡把小東西往宏大了說,當然也多虧了他起的題目,很多人對世界模型產生了濃厚的興趣。但本文的確不能說在世界模型方面有了飛躍的進步,只是將隱變量配合LSTM當作了世界模型,所以我不打算翻譯后半部分了。雖然現在大家對于時序問題還沒有太好的辦法,很多時候不得不靠LSTM,但LSTM絕對不是未來。

世界模型 World Models
David Ha, Jurgen Schmidhuber

摘要

我們研究在流行的強化學習環境中構建生成神經網絡。以監督的方式可以快速訓練我們的世界模型學會環境的壓縮空間和時間表征。將從世界模型中抽取的特征作為智能體的輸入,我們能訓練出一個非常緊湊簡單的指定任務解決策略。我們也能訓練智能體完全沉浸在自己的幻覺中基于它的世界模型做夢,并將策略遷移回實際環境中。

Read more

Faster R-CNN論文翻譯

Faster?R-CNN是互懟完了的好基友一起合作出來的巔峰之作,本文翻譯的比例比較小,主要因為本paper是前述paper的一個簡單改進,方法清晰,想法自然。什么想法?就是把那個一直明明應該換掉卻一直被幾位大神擠牙膏般地拖著不換的選擇性搜索算法,即區域推薦算法。在Fast?R-CNN的基礎上將區域推薦換成了神經網絡,而且這個神經網絡和Fast?R-CNN的卷積網絡一起復用,大大縮短了計算時間。同時mAP又上了一個臺階,我早就說過了,他們一定是在擠牙膏。

Faster R-CNN: Towards Real-Time Object

Detection with Region Proposal Networks

Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun

摘要

最新的檢測網絡都依賴區域推薦算法來推測物體位置。像SPPnet[1]和Fast R-CNN[2]已經大幅削減了檢測網絡的時間開銷,但區域推薦的計算卻變成了瓶頸。本作將引入一個區域推薦網絡(RPN)和檢測網絡共享全圖像卷積特征,使得區域推薦的開銷幾近為0。一個RPN是一個全卷積網絡技能預測物體的邊框,同時也能對該位置進行物體打分。RPN通過端到端的訓練可以產生高質量的推薦區域,然后再用Fast R-CNN進行檢測。通過共享卷積特征,我們進一步整合RPN和Fast R-CNN到一個網絡,用近期流行的“術語”說,就是一種“注意力”機制。RPN組件會告訴整合網絡去看哪個部分。對于非常深的VGG-16模型[3]。我們的檢測系統在GPU上達到了5fps的檢測幀率(包括所有步驟),同時也在PASCAL VOC2007,2012和MS COCO數據集上達到了最好的物體檢測精度,而對每張圖片只推薦了300個區域。在ILSVRC和COCO 2015競賽中,Faster R-CNN和RPN是多個賽道都贏得冠軍的基礎。代碼已經公開。

Read more

Fast-RCNN論文翻譯

本文實現了Fast-RCNN主要部分的翻譯工作,在SPPnet出來之后,同在微軟的R-CNN的作者Ross迅速懟了回去,拋出了更快更好的Fast-RCNN,思路為之一新的是,將之前的多階段訓練合并成了單階段訓練,這次的工作簡潔漂亮,相比之前的RCNN,懷疑作者是在擠牙膏。另外,面對靈活尺寸問題,Ross借鑒了空間金字塔的思路,使用了一層空間金字塔。

Fast R-CNN

Ross Girshick

Microsoft Research

摘要

本文提出了一個快速的基于區域推薦的卷積網絡方法(Fast R-CNN)用于對象檢測。Fast R-CNN在前人工作的基礎上使用深度卷積網絡,可以更有效地分類物體推薦。相比之前的工作,Fast R-CNN進行了多項創新,在提高了檢測精度的同時,也提高了訓練和測試速度。Fast R-CNN訓練了一個超深VGG16網絡,訓練時間比R-CNN快9倍,測試時間快213倍,在PASCAL VOC2012上達到了更高的mAP。相比SPPnet,Fast R-CNN訓練快3倍,測試快10倍,并且更加準確。Fast R-CNN用Python和C++(使用Caffe)實現,以MIT協議開放在:https://github.com/rbgirshick/fast-rcnn

Read more

SPPNet論文翻譯-空間金字塔池化Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition

我對物體檢測的一篇重要著作SPPNet的論文的主要部分進行了翻譯工作。SPPNet的初衷非常明晰,就是希望網絡對輸入的尺寸更加靈活,分析到卷積網絡對尺寸并沒有要求,固定尺寸的要求完全來源于全連接層部分,因而借助空間金字塔池化的方法來銜接兩者,SPPNet在檢測領域的重要貢獻是避免了R-CNN的變形、重復計算等問題,在效果不衰減的情況下,大幅提高了識別速度。

用于視覺識別的深度卷積網絡空間金字塔池化方法

Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition

Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun

摘要

當前深度卷積神經網絡(CNNs)都需要輸入的圖像尺寸固定(比如224×224)。這種人為的需要導致面對任意尺寸和比例的圖像或子圖像時降低識別的精度。本文中,我們給網絡配上一個叫做“空間金字塔池化”(spatial pyramid pooling,)的池化策略以消除上述限制。這個我們稱之為SPP-net的網絡結構能夠產生固定大小的表示(representation)而不關心輸入圖像的尺寸或比例。金字塔池化對物體的形變十分魯棒。由于諸多優點,SPP-net可以普遍幫助改進各類基于CNN的圖像分類方法。在ImageNet2012數據集上,SPP-net將各種CNN架構的精度都大幅提升,盡管這些架構有著各自不同的設計。在PASCAL VOC 2007和Caltech101數據集上,SPP-net使用單一全圖像表示在沒有調優的情況下都達到了最好成績。SPP-net在物體檢測上也表現突出。使用SPP-net,只需要從整張圖片計算一次特征圖(feature map),然后對任意尺寸的區域(子圖像)進行特征池化以產生一個固定尺寸的表示用于訓練檢測器。這個方法避免了反復計算卷積特征。在處理測試圖像時,我們的方法在VOC2007數據集上,達到相同或更好的性能情況下,比R-CNN方法快24-102倍。在ImageNet大規模視覺識別任務挑戰(ILSVRC)2014上,我們的方法在物體檢測上排名第2,在物體分類上排名第3,參賽的總共有38個組。本文也介紹了為了這個比賽所作的一些改進。

Read more

R-CNN論文翻譯——用于精確物體定位和語義分割的豐富特征層次結構

我對深度學習應用于物體檢測的開山之作R-CNN的論文進行了主要部分的翻譯工作,R-CNN通過引入CNN讓物體檢測的性能水平上升了一個檔次,但該文的想法比較自然原始,估計作者在寫作的過程中已經意識到這個問題,所以文中也對未來的改進提出了些許的想法,未來我將繼續翻譯SPPNet、fast-RCNN、faster-RCNN、mask-RCNN等一系列物體定位和語義分割領域的重要論文,主要作者都是Ross Girshick和Kaiming He。

用于精確物體定位和語義分割的豐富特征層次結構

Rich feature hierarchies for accurate object detection and semantic segmentation

Ross Girshick? ? ? Jeff Donahue? ? ? Trevor Darrell? ? ?Jitendra Malik
UC Berkeley

摘要

過去幾年,在權威的PASCAL VOC數據集上,物體定位的性能已經達到一個穩定水平。表現最好的方法都是融合了多個低層次圖像特征和高層次的上下文環境的復雜系統。本文提出一種簡單的可擴展的檢測算法,可以將VOC2012上期望平均精度的最好結果明顯提升30%以上——達到了53.3%。我們的方法結合了兩個關鍵因素:(1) 將大型卷積神經網絡(CNNs)應用于自底向上區域推薦以定位和分割物體;(2)當標簽訓練數據不足時,先針對輔助任務進行有監督預訓練,再進行特定任務的調優,就可以產生明顯的性能提升。由于我們結合了區域推薦和CNNs,該方法被稱為R-CNN:Regions with CNN features。我們對比了R-CNN和OverFeat,Overfeat是最近被提出的一個機遇類CNN架構的滑動窗口檢測器,發現R-CNN在ILSVRC2013檢測數據集上面的表現明顯優于OverFeat。整個系統的源碼在:https://people.eecs.berkeley.edu/~rbg/rcnn(譯者注:已失效,新地址:https://github.com/rbgirshick/rcnn)

Read more

[DeepMind論文部分翻譯]克服神經網絡中的災難性遺忘 Overcoming catastrophic forgetting in neural networks

本文翻譯了DeepMind的最新研究成果的第一部分,可以當做是introduction部分,借鑒神經科學成果,解決了一個通用人工智能領域持續學習所面臨的關鍵性難題。
實現通用智能需要智能代理能夠學習和記住許多不同的任務[1]。在現實世界中這很困難:任務的順序并不會顯式地標注出來,任務之間可能會不可預期地切換,單一任務可能在很長的一段時間內都不會復現。因而,智能代理必須具備持續學習的能力:也就是學習連貫的任務而不會忘記如何執行之前訓練過的任務的能力。
持續學習對人工神經網絡是一個特別大的挑戰,因為與當前任務(比如任務B)相關的知識被合并掉,關于先前任務(比如任務A)的知識會突然地丟失。這個現象術語叫災難性遺忘(catastrophic forgetting)[2-6],一般會發生在神經網絡在多個任務上進行按序訓練的時候,比如對任務A很重要的神經網絡的權重正好滿足任務B的目標時。然而近來機器學習的進步,尤其是深度神經網絡的進步對各個領域已經產生了廣泛的有利影響(如文獻7和8),但連續學習領域的研究卻停滯不前。當前的方法主要是通過確保來自各個任務的數據在訓練中都可以同時獲得。通過在學習過程中對來自多任務的數據進行交叉操作,其實遺忘并不會發生,因為神經網絡的權重能夠對所有任務上的表現進行聯合優化,但這個方法通常指的是多任務學習范式-深度學習技術,已經被成功地應用在訓練單一智能體玩多種Atari游戲[9,10]。如果任務按序呈現的話,只能在數據存儲在事件記憶系統并在訓練的過程中對網絡進行回放時,才能采用這種多任務學習技術。這種方法(通常也叫系統級鞏固[4, 5])面對學習大量任務時并不實用的,因為按照我們的設定,它應該需要與任務數量成比例的存儲數量。相關算法的確實成為通用智能開發的關鍵障礙。
與人工神經網絡形式鮮明對比的是人類和其他動物似乎能夠以連續的方式學習[11]。最近的證據提示哺乳動物的大腦可能會通過大腦皮層回路來保護先前獲得的知識,從而避免災難性遺忘[11-14]。當小鼠需要一個新技能的時候,一定比例的突觸就會增強,表現為單一神經元的樹突棘數量的增加[13]。至關重要的是,即使進行了后續的其他任務的學習,這些增加了的樹突棘能夠得到保持,以便幾個月后相關能力仍然得到保留。當這些樹突棘被選擇性“擦除”后,相關的技能就會被遺忘[11,12]。這表明對這些增強的突觸的保護對于任務能力的保留至關重要。這些實驗發現與諸如瀑布模型[15, 16]這樣的神經生物學模型提示我們大腦皮層中的持續學習依賴于任務相關突觸的鞏固,知識能夠長久地編碼得益于讓一部分突觸降低可塑性從而在相當長的時間范圍內變得穩定。
本次工作將展示任務相關突觸鞏固為人工智能的持續學習問題提供了獨特的解決方案。我們為人工智能神經網絡開發了一種類似于突觸鞏固的算法,稱之為可塑權重鞏固(elastic weight consolidation,EWC)。這個算法會針對那些對特定任務特別重要的特定權重降低學習率。也會展示EWC如何應用在監督學習和強化學習問題中,在不會遺忘舊任務的情況下,按次序地訓練多個任務,并與之前的深度學習技術進行對比。

大腦、小腦與運動控制原理

發現一個寫得還不錯的關于運動控制的教學文章,翻譯給大家。

原文地址: http://thebrain.mcgill.ca/flash/d/d_06/d_06_cr/d_06_cr_mou/d_06_cr_mou.html#4

運動皮層

人體的自主運動都是由大腦控制的。控制自主運動的大腦區域稱作運動皮層。運動皮層位于額葉后部,中央溝回(額葉和頂葉的分界線)之前。運動皮層主要分為兩個區域,4區和6區,也成為初級運動皮層,沿著中央溝回形成一條窄帶。6區位于4區的正前方。6區更寬,進一步細分為兩個亞區。為了能夠執行目標導向的運動,運動皮層需要接收來自各葉的各種信息,包括:來自頂葉的身體空間位置信息;來自額葉前部的關于達成目標而采用的恰當策略信息;來自顳葉關于歷史策略的記憶信息;

d_06_cr_mou_1a

圖1. 區域劃分

d_06_cr_mou_1b

圖2. 身體映像

Read more

Deep Learning Tutorial 深度學習教程翻譯

國內互聯網上關于deeplearning.net上的Deep Learning Tutorial的翻譯有很多,但很零散,并且沒有人有效地把這些組織起來,本文對這些進行了整理,帶有>前往的都是已經找到的對應的翻譯文章,有些是我自己寫的,其他一些還沒有的,我會自己補充上。

前置閱讀

Machine Learning for AI an introduction to Deep Learning algorithms

Learning Deep Architectures for AI (Foundations & Trends in Machine Learning, 2009).

Theano basic tutorial

正式教程

準備工作 –?它介紹了符號,本教程中使用的數據集(可下載),以及對隨機梯度下降法所做的優化。?> 前往

純監督學習算法,按順序閱讀:

  1. Logistic Regression – 簡單使用Theano?> 前往
  2. Multilayer perceptron – 介紹layer?>前往
  3. Deep Convolutional Network – LeNet5的簡化版本?>前往

無監督和半監督學習算法,閱讀順序無要求:(自編碼器與RBM/DBN議題相互獨立):

  • Auto Encoders, Denoising Autoencoders, 自編碼器,去噪自編碼器 – 自編碼器描述 >前往
  • Stacked Denoising Auto-Encoders,堆棧式自編碼器 – 進行深度網絡無監督預訓練的簡單步驟 >前往
  • Restricted Boltzmann Machines,受限玻爾茲曼機 -單層生成式RBM模型
  • Deep Belief Networks – 深度信念網絡 -先進行棧式RBMs的無監督生成式預訓練再進行有監督微調

面向mcRBM模型構建, 關于從能量模型采樣的新教程:

  • HMC Sampling,混合蒙特卡羅采樣 -混合(又名漢密爾頓)蒙特卡洛采樣 scan()

面向收縮自編碼器的構建教程, 目前已經有了代碼:

  • Contractive auto-encoders code,收縮自編碼器代碼 – 代碼中有基礎文檔

帶有詞語嵌入和上下文窗口的Recurrent neural networks

  • Semantic Parsing of Speech using Recurrent Net

用于語義分析的LSTM:

  • LSTM network

基于能量的recurrent neural network (RNN-RBM)

  • Modeling and generating sequences of polyphonic music,和弦音樂序列的建模與生成

靈長類動物視覺皮層V2區的復雜形狀選擇性|Selectivity for Complex Shapes in Primate Visual Area V2

譯者注:本文翻譯了Jay Hegde和David C. Van Essen的論文《Selectivity for Complex Shapes in Primate Visual Area V2》,V1區的研究已經相當透徹,IT區的很多研究也表明了物體的選擇性,大家都很好奇從V1到IT區的整個object recognition過程中發生了什么,這些intermedia area中的神經元有哪些特性呢?本文是一個較好的嘗試。原文地址:http://www.jneurosci.org/content/20/5/RC61.full.pdf

靈長類動物視覺皮層V2區的復雜形狀選擇性

結果

復雜輪廓和光柵的V2區細胞選擇性

圖1

Read more

流形學習和維度災難|Manifold Learning and the Curse of Dimensionality

本文是對Bengio大神的新作《Deep learning》一書中[5.12.3 Manifold Learning and?the Curse of Dimensionality]一節的拙劣翻譯,希望能對英文不好的同學理解原著起到一點點作用。

5.12.3 流形學習和維度災難
讓我們來看看一種特殊的機器學習任務類型——流形學習。雖然它是用來消減維度災難的,我們仍要討論一下它可以幫助可視化和突顯平滑先驗法對于高維空間的泛化能力是不足的。第17章將重點關注表示方式學習的流形視角并深入這一課題的更多細節,研究基于神經網絡的實踐中的流形學習算法。
一個流形是一個連接區域,一個點的集合,每個點相互臨近,使得其看起來想一個歐幾里得空間。相鄰的概念意味著存在一些轉換能夠使這個流形從一個位置移動到一個相鄰的位置。雖然有形式化的數學手段表述相鄰概念,但機器學習更傾向于松散地用這個概念去討論一組連接的點,這組點可以通過只考慮高維空間中很小一部分自由度和維度就能被很好的近似。每個維度對應一個局部變化方向,比如,向某個方向移動流形。我們所說的機器學習中的流形是點的子集,稱作嵌入空間(也是一個流形)的子流形。 Read more

打麻将有什么技巧 江南高纤股票分析 股票交易软件 新疆25选7开奖结果查询 武汉麻将技巧 百度金融理财平台 兰州股票配资 现在能做基金配资业务的银行 股票融资利率多少可以谈吗 广东11元选5走势 7星彩走势图表 四场比分开奖结果 江苏快三遗漏一定牛 内蒙古快三组合走势图 新快乐3最新开奖 吉林快三基本走势 吉林快三和值