红色石头的个人网站:redstonewill.com

《Recurrent Neural Networks》是Andrw Ng深度学习专项课程中的第五门课,也是最后一门课。这门课主要介绍循环神经网络(RNN)的基本概念、模型和具体应用。该门课共有3周课时,所以我将分成3次笔记来总结,这是第一节笔记。

1. Why sequence models

序列模型能够应用在许多领域,例如:

  • 语音识别

  • 音乐发生器

  • 情感分类

  • DNA序列分析

  • 机器翻译

  • 视频动作识别

  • 命名实体识别

这些序列模型基本都属于监督式学习,输入x和输出y不一定都是序列模型。如果都是序列模型的话,模型长度不一定完全一致。

2. Notation

下面以命名实体识别为例,介绍序列模型的命名规则。示例语句为:

Harry Potter and Hermione Granger invented a new spell.

该句话包含9个单词,输出y即为1 x 9向量,每位表征对应单词是否为人名的一部分,1表示是,0表示否。很明显,该句话中“Harry”,“Potter”,“Hermione”,“Granger”均是人名成分,所以,对应的输出y可表示为:

y=[1  1  0  1  1  0  0  0  0]y=[110110000]

y=[1\ \ 1\ \ 0\ \ 1\ \ 1\ \ 0\ \ 0\ \ 0\ \ 0]

一般约定使用y<t>y<t>y^{}表示序列对应位置的输出,使用TyTyT_y表示输出序列长度,则1≤t≤Ty1≤t≤Ty1\leq t\leq T_y。

对于输入x,表示为:

[x<1>  x<2>  x<3>  x<4>  x<5>  x<6>  x<7>  x<8>  x<9>][x<1>x<2>x<3>x<4>x<5>x<6>x<7>x<8>x<9>]

[x^{}\ \ x^{}\ \ x^{}\ \ x^{}\ \ x^{}\ \ x^{}\ \ x^{}\ \ x^{}\ \ x^{}]

同样,x<t>x<t>x^{}表示序列对应位置的输入,TxTxT_x表示输入序列长度。注意,此例中,Tx=TyTx=TyT_x=T_y,但是也存在Tx≠TyTx≠TyT_x\neq T_y的情况。

如何来表示每个x<t>x<t>x^{}呢?方法是首先建立一个词汇库vocabulary,尽可能包含更多的词汇。例如一个包含10000个词汇的词汇库为:

⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢aand⋅⋅⋅harry⋅⋅⋅potter⋅⋅⋅zulu⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥[aand⋅⋅⋅harry⋅⋅⋅potter⋅⋅⋅zulu]

\left[ \begin{matrix} a \\ and \\ \cdot \\ \cdot \\ \cdot \\ harry \\ \cdot \\ \cdot \\ \cdot \\ potter \\ \cdot \\ \cdot \\ \cdot \\ zulu \end{matrix} \right]

该词汇库可看成是10000 x 1的向量。值得注意的是自然语言处理NLP实际应用中的词汇库可达百万级别的词汇量。

然后,使用one-hot编码,例句中的每个单词x<t>x<t>x^{}都可以表示成10000 x 1的向量,词汇表中与x<t>x<t>x^{}对应的位置为1,其它位置为0。该x<t>x<t>x^{}为one-hot向量。值得一提的是如果出现词汇表之外的单词,可以使用UNK或其他字符串来表示。

对于多样本,以上序列模型对应的命名规则可表示为:X(i)<t>X(i)<t>X^{(i)},y(i)<t>y(i)<t>y^{(i)},T(i)xTx(i)T_x^{(i)},T(i)yTy(i)T_y^{(i)}。其中,iii表示第i个样本。不同样本的Tx(i)" role="presentation" style="position: relative;">T(i)xTx(i)T_x^{(i)}或T(i)yTy(i)T_y^{(i)}都有可能不同。

3. Recurrent Neural Network Model

对于序列模型,如果使用标准的神经网络,其模型结构如下:

使用标准的神经网络模型存在两个问题:

第一个问题,不同样本的输入序列长度或输出序列长度不同,即T(i)x≠T(j)xTx(i)≠Tx(j)T_x^{(i)}\neq T_x^{(j)},T(i)y≠T(j)yTy(i)≠Ty(j)T_y^{(i)}\neq T_y^{(j)},造成模型难以统一。解决办法之一是设定一个最大序列长度,对每个输入和输出序列补零并统一到最大长度。但是这种做法实际效果并不理想。

第二个问题,也是主要问题,这种标准神经网络结构无法共享序列不同x<t>x<t>x^{}之间的特征。例如,如果某个x<t>x<t>x^{}即“Harry”是人名成分,那么句子其它位置出现了“Harry”,也很可能也是人名。这是共享特征的结果,如同CNN网络特点一样。但是,上图所示的网络不具备共享特征的能力。值得一提的是,共享特征还有助于减少神经网络中的参数数量,一定程度上减小了模型的计算复杂度。例如上图所示的标准神经网络,假设每个x<t>x<t>x^{}扩展到最大序列长度为100,且词汇表长度为10000,则输入层就已经包含了100 x 10000个神经元了,权重参数很多,运算量将是庞大的。

标准的神经网络不适合解决序列模型问题,而循环神经网络(RNN)是专门用来解决序列模型问题的。RNN模型结构如下:

序列模型从左到右,依次传递,此例中,Tx=TyTx=TyT_x=T_y。x<t>x<t>x^{}到y^<t>y^<t>\hat y^{}之间是隐藏神经元。a<t>a<t>a^{}会传入到第t+1t+1t+1个元素中,作为输入。其中,a<0>a<0>a^{}一般为零向量。

RNN模型包含三类权重系数,分别是WaxWaxW_{ax},WaaWaaW_{aa},WyaWyaW_{ya}。且不同元素之间同一位置共享同一权重系数。

RNN的正向传播(Forward Propagation)过程为:

a<t>=g(Waa⋅a<t−1>+Wax⋅x<t>+ba)a<t>=g(Waa⋅a<t−1>+Wax⋅x<t>+ba)

a^{}=g(W_{aa}\cdot a^{}+W_{ax}\cdot x^{}+ba)

y^<t>=g(Wya⋅a<t>+by)y^<t>=g(Wya⋅a<t>+by)

\hat y^{}=g(W_{ya}\cdot a^{}+b_y)

其中,g(⋅)g(⋅)g(\cdot)表示激活函数,不同的问题需要使用不同的激活函数。

为了简化表达式,可以对a<t>a<t>a^{}项进行整合:

Waa⋅a<t−1>+Wax⋅x<t>=[Waa  Wax][a<t−1>x<t>]→Wa[a<t−1>,x<t>]Waa⋅a<t−1>+Wax⋅x<t>=[WaaWax][a<t−1>x<t>]→Wa[a<t−1>,x<t>]

W_{aa}\cdot a^{}+W_{ax}\cdot x^{}=[W_{aa}\ \ W_{ax}]\left[ \begin{matrix} a^{} \\ x^{} \end{matrix} \right]\rightarrow W_a[a^{},x^{}]

则正向传播可表示为:

a<t>=g(Wa[a<t−1>,x<t>]+ba)a<t>=g(Wa[a<t−1>,x<t>]+ba)

a^{}=g(W_a[a^{},x^{}]+b_a)

y^<t>=g(Wy⋅a<t>+by)y^<t>=g(Wy⋅a<t>+by)

\hat y^{}=g(W_{y}\cdot a^{}+b_y)

值得一提的是,以上所述的RNN为单向RNN,即按照从左到右顺序,单向进行,y^<t>y^<t>\hat y^{}只与左边的元素有关。但是,有时候y^<t>y^<t>\hat y^{}也可能与右边元素有关。例如下面两个句子中,单凭前三个单词,无法确定“Teddy”是否为人名,必须根据右边单词进行判断。

He said, “Teddy Roosevelt was a great President.”

He said, “Teddy bears are on sale!”

因此,有另外一种RNN结构是双向RNN,简称为BRNN。y^<t>y^<t>\hat y^{}与左右元素均有关系,我们之后再详细介绍。

4. Backpropagation through time

针对上面识别人名的例子,经过RNN正向传播,单个元素的Loss function为:

L<t>(y^<t>,y<t>)=−y<t>log y^<t>−(1−y<t>)log (1−y^<t>)L<t>(y^<t>,y<t>)=−y<t>logy^<t>−(1−y<t>)log(1−y^<t>)

L^{}(\hat y^{},y^{})=-y^{}log\ \hat y^{}-(1-y^{})log\ (1-\hat y^{})

该样本所有元素的Loss function为:

L(y^,y)=∑t=1TyL<t>(y^<t>,y<t>)L(y^,y)=∑t=1TyL<t>(y^<t>,y<t>)

L(\hat y,y)=\sum_{t=1}^{T_y}L^{}(\hat y^{},y^{})

然后,反向传播(Backpropagation)过程就是从右到左分别计算L(y^,y)L(y^,y)L(\hat y,y)对参数WaWaW_{a},WyWyW_{y},babab_a,bybyb_y的偏导数。思路与做法与标准的神经网络是一样的。一般可以通过成熟的深度学习框架自动求导,例如PyTorch、Tensorflow等。这种从右到左的求导过程被称为Backpropagation through time。

5. Different types of RNNs

以上介绍的例子中,Tx=TyTx=TyT_x=T_y。但是在很多RNN模型中,TxTxT_x是不等于TyTyT_y的。例如第1节介绍的许多模型都是Tx≠TyTx≠TyT_x\neq T_y。根据TxTxT_x与TyTyT_y的关系,RNN模型包含以下几个类型:

  • Many to many: Tx=TyTx=TyT_x=T_y

  • Many to many: Tx≠TyTx≠TyT_x\neq T_y

  • Many to one: Tx>1,Ty=1Tx>1,Ty=1T_x>1,T_y=1

  • One to many: Tx=1,Ty>1Tx=1,Ty>1T_x=1,T_y>1

  • One to one: Tx=1,Ty=1Tx=1,Ty=1T_x=1,T_y=1

不同类型相应的示例结构如下:

6. Language model and sequence generation

语言模型是自然语言处理(NLP)中最基本和最重要的任务之一。使用RNN能够很好地建立需要的不同语言风格的语言模型。

什么是语言模型呢?举个例子,在语音识别中,某句语音有两种翻译:

  • The apple and pair salad.

  • The apple and pear salad.

很明显,第二句话更有可能是正确的翻译。语言模型实际上会计算出这两句话各自的出现概率。比如第一句话概率为10−1310−1310^{-13},第二句话概率为10−1010−1010^{-10}。也就是说,利用语言模型得到各自语句的概率,选择概率最大的语句作为正确的翻译。概率计算的表达式为:

P(y<1>,y<2>,⋯,y<Ty>)P(y<1>,y<2>,⋯,y<Ty>)

P(y^{},y^{},\cdots,y^{})

如何使用RNN构建语言模型?首先,我们需要一个足够大的训练集,训练集由大量的单词语句语料库(corpus)构成。然后,对corpus的每句话进行切分词(tokenize)。做法就跟第2节介绍的一样,建立vocabulary,对每个单词进行one-hot编码。例如下面这句话:

The Egyptian Mau is a bread of cat.

One-hot编码已经介绍过了,不再赘述。还需注意的是,每句话结束末尾,需要加上< EOS >作为语句结束符。另外,若语句中有词汇表中没有的单词,用< UNK >表示。假设单词“Mau”不在词汇表中,则上面这句话可表示为:

The Egyptian < UNK > is a bread of cat. < EOS >

准备好训练集并对语料库进行切分词等处理之后,接下来构建相应的RNN模型。

语言模型的RNN结构如上图所示,x<1>x<1>x^{}和a<0>a<0>a^{}均为零向量。Softmax输出层y^<1>y^<1>\hat y^{}表示出现该语句第一个单词的概率,softmax输出层y^<2>y^<2>\hat y^{}表示在第一个单词基础上出现第二个单词的概率,即条件概率,以此类推,最后是出现< EOS >的条件概率。

单个元素的softmax loss function为:

L<t>(y^<t>,y<t>)=−∑iy<t>ilog y^<t>iL<t>(y^<t>,y<t>)=−∑iyi<t>logy^i<t>

L^{}(\hat y^{},y^{})=-\sum_iy_i^{}log\ \hat y_i^{}

该样本所有元素的Loss function为:

L(y^,y)=∑tL<t>(y^<t>,y<t>)L(y^,y)=∑tL<t>(y^<t>,y<t>)

L(\hat y,y)=\sum_tL^{}(\hat y^{},y^{})

对语料库的每条语句进行RNN模型训练,最终得到的模型可以根据给出语句的前几个单词预测其余部分,将语句补充完整。例如给出“Cats average 15”,RNN模型可能预测完整的语句是“Cats average 15 hours of sleep a day.”

最后补充一点,整个语句出现的概率等于语句中所有元素出现的条件概率乘积。例如某个语句包含y<1>,y<2>,y<3>y<1>,y<2>,y<3>y^{},y^{},y^{},则整个语句出现的概率为:

P(y<1>,y<2>,y<3>)=P(y<1>)⋅P(y<2>|y<1>)⋅P(y<3>|y<1>,y<2>)P(y<1>,y<2>,y<3>)=P(y<1>)⋅P(y<2>|y<1>)⋅P(y<3>|y<1>,y<2>)

P(y^{},y^{},y^{})=P(y^{})\cdot P(y^{}|y^{})\cdot P(y^{}|y^{},y^{})

7 Sampling novel sequences

利用训练好的RNN语言模型,可以进行新的序列采样,从而随机产生新的语句。与上一节介绍的一样,相应的RNN模型如下所示:

首先,从第一个元素输出y^<1>y^<1>\hat y^{}的softmax分布中随机选取一个word作为新语句的首单词。然后,y<1>y<1>y^{}作为x<2>x<2>x^{},得到y^<1>y^<1>\hat y^{}的softmax分布。从中选取概率最大的word作为y<2>y<2>y^{},继续将y<2>y<2>y^{}作为x<3>x<3>x^{},以此类推。直到产生< EOS >结束符,则标志语句生成完毕。当然,也可以设定语句长度上限,达到长度上限即停止生成新的单词。最终,根据随机选择的首单词,RNN模型会生成一条新的语句。

值得一提的是,如果不希望新的语句中包含< UNK >标志符,可以在每次产生< UNK >时重新采样,直到生成非< UNK >标志符为止。

以上介绍的是word level RNN,即每次生成单个word,语句由多个words构成。另外一种情况是character level RNN,即词汇表由单个英文字母或字符组成,如下所示:

Vocabulay=[a,b,c,⋯,z,.,;, ,0,1,⋯,9,A,B,⋯,Z]Vocabulay=[a,b,c,⋯,z,.,;,,0,1,⋯,9,A,B,⋯,Z]

Vocabulay=[a,b,c,\cdots,z,.,;,\ ,0,1,\cdots,9,A,B,\cdots,Z]

Character level RNN与word level RNN不同的是,y^<t>y^<t>\hat y^{}由单个字符组成而不是word。训练集中的每句话都当成是由许多字符组成的。character level RNN的优点是能有效避免遇到词汇表中不存在的单词< UNK >。但是,character level RNN的缺点也很突出。由于是字符表征,每句话的字符数量很大,这种大的跨度不利于寻找语句前部分和后部分之间的依赖性。另外,character level RNN的在训练时的计算量也是庞大的。基于这些缺点,目前character level RNN的应用并不广泛,但是在特定应用下仍然有发展的趋势。

8. Vanisging gradients with RNNs

语句中可能存在跨度很大的依赖关系,即某个word可能与它距离较远的某个word具有强依赖关系。例如下面这两条语句:

The cat, which already ate fish, was full.

The cats, which already ate fish, were full.

第一句话中,was受cat影响;第二句话中,were受cats影响。它们之间都跨越了很多单词。而一般的RNN模型每个元素受其周围附近的影响较大,难以建立跨度较大的依赖性。上面两句话的这种依赖关系,由于跨度很大,普通的RNN网络容易出现梯度消失,捕捉不到它们之间的依赖,造成语法错误。关于梯度消失的原理,我们在之前的 Coursera吴恩达《优化深度神经网络》课程笔记(1)– 深度学习的实用层面已经有过介绍,可参考。

另一方面,RNN也可能出现梯度爆炸的问题,即gradient过大。常用的解决办法是设定一个阈值,一旦梯度最大值达到这个阈值,就对整个梯度向量进行尺度缩小。这种做法被称为gradient clipping。

9. Gated Recurrent Unit(GRU)

RNN的隐藏层单元结构如下图所示:

a<t>a<t>a^{}的表达式为:

a<t>=tanh(Wa[a<t−1>,x<t>]+ba)a<t>=tanh(Wa[a<t−1>,x<t>]+ba)

a^{}=tanh(W_a[a^{},x^{}]+b_a)

为了解决梯度消失问题,对上述单元进行修改,添加了记忆单元,构建GRU,如下图所示:

相应的表达式为:

c~<t>=tanh(Wc[c<t−1>,x<t>]+bc)c~<t>=tanh(Wc[c<t−1>,x<t>]+bc)

\tilde c^{}=tanh(W_c[c^{},x^{}]+b_c)

Γu=σ(Wu[c<t−1>,x<t>]+bu)Γu=σ(Wu[c<t−1>,x<t>]+bu)

\Gamma_u=\sigma(W_u[c^{},x^{}]+b_u)

c<t>=Γ∗c~<t>+(1−Γu)∗c<t−1>c<t>=Γ∗c~<t>+(1−Γu)∗c<t−1>

c^{}=\Gamma*\tilde c^{}+(1-\Gamma_u)*c^{}

其中,c<t−1>=a<t−1>c<t−1>=a<t−1>c^{}=a^{},c<t>=a<t>c<t>=a<t>c^{}=a^{}。ΓuΓu\Gamma_u意为gate,记忆单元。当Γu=1Γu=1\Gamma_u=1时,代表更新;当Γu=0Γu=0\Gamma_u=0时,代表记忆,保留之前的模块输出。这一点跟CNN中的ResNets的作用有点类似。因此,ΓuΓu\Gamma_u能够保证RNN模型中跨度很大的依赖关系不受影响,消除梯度消失问题。

上面介绍的是简化的GRU模型,完整的GRU添加了另外一个gate,即ΓrΓr\Gamma_r,表达式如下:

c~<t>=tanh(Wc[Γr∗c<t−1>,x<t>]+bc)c~<t>=tanh(Wc[Γr∗c<t−1>,x<t>]+bc)

\tilde c^{}=tanh(W_c[\Gamma_r*c^{},x^{}]+b_c)

Γu=σ(Wu[c<t−1>,x<t>]+bu)Γu=σ(Wu[c<t−1>,x<t>]+bu)

\Gamma_u=\sigma(W_u[c^{},x^{}]+b_u)

Γr=σ(Wr[c<t−1>,x<t>]+br)Γr=σ(Wr[c<t−1>,x<t>]+br)

\Gamma_r=\sigma(W_r[c^{},x^{}]+b_r)

c<t>=Γ∗c~<t>+(1−Γu)∗c<t−1>c<t>=Γ∗c~<t>+(1−Γu)∗c<t−1>

c^{}=\Gamma*\tilde c^{}+(1-\Gamma_u)*c^{}

a<t>=c<t>a<t>=c<t>

a^{}=c^{}

注意,以上表达式中的∗∗*表示元素相乘,而非矩阵相乘。

10. Long Short Term Memory(LSTM)

LSTM是另一种更强大的解决梯度消失问题的方法。它对应的RNN隐藏层单元结构如下图所示:

相应的表达式为:

c~&lt;t&gt;=tanh(Wc[a&lt;t−1&gt;,x&lt;t&gt;]+bc)" role="presentation">c~<t>=tanh(Wc[a<t−1>,x<t>]+bc)c~<t>=tanh(Wc[a<t−1>,x<t>]+bc)

\tilde c^{}=tanh(W_c[a^{},x^{}]+b_c)

Γu=σ(Wu[a<t−1>,x<t>]+bu)Γu=σ(Wu[a<t−1>,x<t>]+bu)

\Gamma_u=\sigma(W_u[a^{},x^{}]+b_u)

Γf=σ(Wf[a<t−1>,x<t>]+bf)Γf=σ(Wf[a<t−1>,x<t>]+bf)

\Gamma_f=\sigma(W_f[a^{},x^{}]+b_f)

Γo=σ(Wo[a<t−1>,x<t>]+bo)Γo=σ(Wo[a<t−1>,x<t>]+bo)

\Gamma_o=\sigma(W_o[a^{},x^{}]+b_o)

c<t>=Γu∗c~<t>+Γf∗c<t−1>c<t>=Γu∗c~<t>+Γf∗c<t−1>

c^{}=\Gamma_u*\tilde c^{}+\Gamma_f*c^{}

a<t>=Γo∗c<t>a<t>=Γo∗c<t>

a^{}=\Gamma_o*c^{}

LSTM包含三个gates:ΓuΓu\Gamma_u,ΓfΓf\Gamma_f,ΓoΓo\Gamma_o,分别对应update gate,forget gate和output gate。

如果考虑c<t−1>c<t−1>c^{}对ΓuΓu\Gamma_u,ΓfΓf\Gamma_f,ΓoΓo\Gamma_o的影响,可加入peephole connection,对LSTM的表达式进行修改:

c~<t>=tanh(Wc[a<t−1>,x<t>]+bc)c~<t>=tanh(Wc[a<t−1>,x<t>]+bc)

\tilde c^{}=tanh(W_c[a^{},x^{}]+b_c)

Γu=σ(Wu[a<t−1>,x<t>,c<t−1>]+bu)Γu=σ(Wu[a<t−1>,x<t>,c<t−1>]+bu)

\Gamma_u=\sigma(W_u[a^{},x^{},c^{}]+b_u)

Γf=σ(Wf[a<t−1>,x<t>,c<t−1>]+bf)Γf=σ(Wf[a<t−1>,x<t>,c<t−1>]+bf)

\Gamma_f=\sigma(W_f[a^{},x^{},c^{}]+b_f)

Γo=σ(Wo[a<t−1>,x<t>,c<t−1>]+bo)Γo=σ(Wo[a<t−1>,x<t>,c<t−1>]+bo)

\Gamma_o=\sigma(W_o[a^{},x^{},c^{}]+b_o)

c<t>=Γu∗c~<t>+Γf∗c<t−1>c<t>=Γu∗c~<t>+Γf∗c<t−1>

c^{}=\Gamma_u*\tilde c^{}+\Gamma_f*c^{}

a<t>=Γo∗c<t>a<t>=Γo∗c<t>

a^{}=\Gamma_o*c^{}

GRU可以看成是简化的LSTM,两种方法都具有各自的优势。

11. Bidirectional RNN

我们在第3节中简单提过Bidirectional RNN,它的结构如下图所示:

BRNN对应的输出y<t>y<t>y^{}表达式为:

y^<t>=g(Wy[a→<t>,a←<t>]+by)y^<t>=g(Wy[a→<t>,a←<t>]+by)

\hat y^{}=g(W_{y}[a^{\rightarrow },a^{\leftarrow }]+b_y)

BRNN能够同时对序列进行双向处理,性能大大提高。但是计算量较大,且在处理实时语音时,需要等到完整的一句话结束时才能进行分析。

12. Deep RNNs

Deep RNNs由多层RNN组成,其结构如下图所示:

与DNN一样,用上标[l][l][l]表示层数。Deep RNNs中a[l]<t>a[l]<t>a^{[l]}的表达式为:

a[l]<t>=g(W[l]a[a[l]<t−1>,a[l−1]<t>]+b[l]a)a[l]<t>=g(Wa[l][a[l]<t−1>,a[l−1]<t>]+ba[l])

a^{[l]}=g(W_a^{[l]}[a^{[l]},a^{[l-1]}]+b_a^{[l]})

我们知道DNN层数可达100多,而Deep RNNs一般没有那么多层,3层RNNs已经较复杂了。

另外一种Deep RNNs结构是每个输出层上还有一些垂直单元,如下图所示:

至此,第一节笔记介绍完毕!

更多AI资源请关注公众号:红色石头的机器学习之路(ID:redstonewill)

Coursera吴恩达《序列模型》课程笔记(1)-- 循环神经网络(RNN)相关推荐

  1. 吴恩达深度学习课程笔记之卷积神经网络(2nd week)

    0 参考资料 [1]  大大鹏/Bilibili资料 - Gitee.com [2] [中英字幕]吴恩达深度学习课程第四课 - 卷积神经网络_哔哩哔哩_bilibili [3]  深度学习笔记-目录 ...

  2. 吴恩达深度学习课程笔记(初步认识神经网络)

    吴恩达深度学习课程笔记1 课程主要内容 1.神经网络与深度学习介绍 2.Improving Deep Neural Networks:超参数调整,正则化,优化方法 3.结构化机器学习工程:比如如何分割 ...

  3. 吴恩达深度学习课程笔记(四):卷积神经网络2 实例探究

    吴恩达深度学习课程笔记(四):卷积神经网络2 实例探究 吴恩达深度学习课程笔记(四):卷积神经网络2 实例探究 2.1 为什么要进行实例探究 2.2 经典网络 LeNet-5 AlexNet VGG- ...

  4. 吴恩达深度学习课程笔记-3

    吴恩达深度学习课程笔记-3 src="http://nbviewer.jupyter.org/github/HuaGuo1992/Blog/blob/master/%E5%90%B4%E6% ...

  5. 免费分享全套吴恩达深度学习课程笔记以及编程作业集合

    分享吴恩达深度学习全套 笔记 笔记来源于吴恩达老师课程中口述翻译,并包含板书.可以取代看视频,做到更快速学习. (部分目录) (部分目录) (板书) 编程作业 扫描二维码后台回复"0&quo ...

  6. 【机器学习 吴恩达】CS229课程笔记notes3翻译-Part V支持向量机

    CS229 课程笔记 吴恩达 Part V 支持向量机 这部分展现了支持向量机(SVM)学习算法.SVM是最好的监督学习算法之一.为了讲述SVM,我们需要首先谈论边界和用大的间隔分离数据.接下来,我们 ...

  7. 吴恩达机器学习系列课程笔记——第十一章:机器学习系统的设计(Machine Learning System Design)

    11.1 首先要做什么 https://www.bilibili.com/video/BV164411b7dx?p=65 在接下来的视频中,我将谈到机器学习系统的设计.这些视频将谈及在设计复杂的机器学 ...

  8. 【DeepLearning】吴恩达深度学习课程笔记思维导图

    查看全文 http://www.taodudu.cc/news/show-4249537.html 相关文章: 吴恩达机器学习--反向传播算法 2018滴水LUA手游脚本制作实战视频教程 Unity3 ...

  9. 吴恩达机器学习系列课程笔记——第十六章:推荐系统(Recommender Systems)

    16.1 问题规划 https://www.bilibili.com/video/BV164411b7dx?p=96 在接下来的视频中,我想讲一下推荐系统.我想讲推荐系统有两个原因: 第一.仅仅因为它 ...

  10. 吴恩达机器学习系列课程笔记——第五章:Octave教程(Octave Tutorial)

    提示:这章选学,可以去学python,第六节可以看看. 5.1 基本操作 https://www.bilibili.com/video/BV164411b7dx?p=26 本章学习以种编程语言:Oct ...

最新文章

  1. Request.getInputStrema只能读取一次的分析过程
  2. mp4 android自动播放,Android 使用VideoView播放MP4的简单实现
  3. ImportError: Failed to import `pydot`. Please install `pydot`. For example with `pip install pydot`
  4. Linux内核链表实现剖析
  5. php微信分享时好时坏,手机端微信分享前几天都是正常的今天发现分享出去就不正常了设置,迅睿CMS,CodeIgniter技术文档,PHP开发文档,迅睿CMS框架官方教程...
  6. JavaScript知识点之JSON.parse
  7. 初涉网络流[EKdinic]
  8. VMware Server 2.0下载和序列号正版
  9. 浅谈压缩感知(二十九):压缩感知算法之迭代硬阈值(IHT)
  10. linux 自学系列:文件压缩
  11. 口腔行业的隐形冠军,现代牙科集团掘金步入新阶段
  12. 干了4年程序员年薪20万,高中同学当牙医,对比收入后懵了
  13. led的伏安特性曲线 matlab实现_Matlab在伏安特性实验中的应用
  14. android 微信照片,手机微信图片怎么恢复 答案让人难以置信
  15. html站点根目录怎么改,通过重定向把子目录设置为网站根目录
  16. c语言程序书写时,C语言程序书写规范
  17. JAVA入门第二季 第一章 类和对象
  18. word文档从第二页开始标注页码
  19. [28期] 精力有限,精神信念的力量是无限的.....
  20. Flink学习-DataStream-HDFSConnector(StreamingFileSink)

热门文章

  1. OneProxy实现MySQL读写分离与负载均衡
  2. Maven发布jar包到Nexus私库
  3. 空净厂商为何对“9颗星”认证趋之若鹜?
  4. win7中cookie的保存位置
  5. poj 2362(剪枝)
  6. Java 集合 之 房屋出租实例
  7. 【HTML5】 web上的音频
  8. 利用扩展事件进行调优和Troubleshooting PPT分享
  9. C# 发邮件类可发送附件
  10. [转载]详细解说STL排序(sort)------这篇博文在一道题上救了我o_0