ICPS 2015上認知語言學之父George Lakoff的演講全文

如果全部讀完,基本算是一門腦科學、心理學、神經科學入門指引課。視頻地址:https://www.youtube.com/watch?v=WuUnMCq-ARQ

 

Most thought is unconscious, and the usual estimate is around 98 percent. But if you believe the work that Stan Dehaene talked about the other night, it is more than 98 percent. Consciousness is the tip of the iceberg of thought. It is there that things are put together in an interesting way and the interesting way is the following, that before consciousness, what happens is that your brain unconsciously changes what you perceive or what you think. This is something remarkable. I think one of the best papers I heard on this was by Shin Shimojo who is a vision scientist at the Caltech. He came to Berkeley a couple of months ago and gave a truly remarkable overview of experiments that showed this, many of them which were his. Let me give you a sense of this. Suppose you know that if there are flashing lights and they are going along and they are going fast enough, they look like a single stream. Read more

變分自編碼器(Variational Autoencoder, VAE)通俗教程

1. 神秘變量與數據集

現在有一個數據集DX(dataset, 也可以叫datapoints),每個數據也稱為數據點。
我們假定這個樣本受某種神秘力量操控,但是我們也無從知道這些神秘力量是什么?那么我們假定這股神秘力量有n個,起名字叫\(power_1, power_2,…, power_n\)吧,他們的大小分別是\(z_1, z_2, …, z_n\),稱之為神秘變量表示成一個向量就是

\(
z =
\left(
\begin{array}{c}
z_1\\
z_2\\
\vdots\\
z_n
\end{array}
\right)
\)

z也起個名字叫神秘組合

一言以蔽之:神秘變量代表了神秘力量神秘組合關系。
用正經的話說就是:隱變量(latent variable)代表了隱因子(latent factor)的組合關系。 Read more

Deep Learning Tutorial 深度學習教程翻譯

國內互聯網上關于deeplearning.net上的Deep Learning Tutorial的翻譯有很多,但很零散,并且沒有人有效地把這些組織起來,本文對這些進行了整理,帶有>前往的都是已經找到的對應的翻譯文章,有些是我自己寫的,其他一些還沒有的,我會自己補充上。

前置閱讀

Machine Learning for AI an introduction to Deep Learning algorithms

Learning Deep Architectures for AI (Foundations & Trends in Machine Learning, 2009).

Theano basic tutorial

正式教程

準備工作 –?它介紹了符號,本教程中使用的數據集(可下載),以及對隨機梯度下降法所做的優化。?> 前往

純監督學習算法,按順序閱讀:

  1. Logistic Regression – 簡單使用Theano?> 前往
  2. Multilayer perceptron – 介紹layer?>前往
  3. Deep Convolutional Network – LeNet5的簡化版本?>前往

無監督和半監督學習算法,閱讀順序無要求:(自編碼器與RBM/DBN議題相互獨立):

  • Auto Encoders, Denoising Autoencoders, 自編碼器,去噪自編碼器 – 自編碼器描述 >前往
  • Stacked Denoising Auto-Encoders,堆棧式自編碼器 – 進行深度網絡無監督預訓練的簡單步驟 >前往
  • Restricted Boltzmann Machines,受限玻爾茲曼機 -單層生成式RBM模型
  • Deep Belief Networks – 深度信念網絡 -先進行棧式RBMs的無監督生成式預訓練再進行有監督微調

面向mcRBM模型構建, 關于從能量模型采樣的新教程:

  • HMC Sampling,混合蒙特卡羅采樣 -混合(又名漢密爾頓)蒙特卡洛采樣 scan()

面向收縮自編碼器的構建教程, 目前已經有了代碼:

  • Contractive auto-encoders code,收縮自編碼器代碼 – 代碼中有基礎文檔

帶有詞語嵌入和上下文窗口的Recurrent neural networks

  • Semantic Parsing of Speech using Recurrent Net

用于語義分析的LSTM:

  • LSTM network

基于能量的recurrent neural network (RNN-RBM)

  • Modeling and generating sequences of polyphonic music,和弦音樂序列的建模與生成
打麻将有什么技巧 山西体彩十一选五走势图 幸运快3大小单双下载 期货公司上班感受 江苏七位数最新开奖 3.10股票推荐 吉林十一选五开奖走 重庆幸运农场走势图 百度 上海4d选四开奖结果 幸运飞艇走势图图解如何看 澳洲赛车pk10系列 75秒时时彩app官网下载 体彩36选7公式技巧 配资网站公司问推荐卓信宝配资23 吉林快三开奖结果果 海南飞鱼在线开奖结果 山东11选5杀号技巧