目录

一、神经网络架构

1、结构与意义

2、过程

1、输入数据,得到输入层

2、得到隐藏层1

3、得到隐藏层2

4、得到输出层

二、激活函数

激活函数概念

激活函数的选择

1、阶跃函数

2、Sigmoid函数

3、ReLU函数

三、过拟合处理


一、神经网络架构

1、结构与意义

 神经网络一层一层地处理。

输入层(input layer)有多少个圈,代表输入数据多少。

隐层没有特定的含义,它只是一个数值,便于计算机更好地认识,隐层和每个输入层全连接。

2、过程

1、输入数据,得到输入层

2、得到隐藏层1

先输入数据,通过输入层[1*3],经过权重参数矩阵w1[3*4](3个参数变4个),把输入层的数据转转换一下。

3、得到隐藏层2

再经过w2[4*4],把隐藏层1的结果再进行一次转换,得到w3

4、得到输出层

再经过w3[4,1],把隐藏层2的结果再进行一次转换,得到最终的输出层(output layer)

 

 注:该过程为非线性计算,每一步需要单独进行操作,不能一步到位。(如果w4=w1*w2*w3,不能用w4直接代替w1、w2、w3的过程,需要一步一步组合:即分别把输入和w1组合,再把结果和w2组合、再把结果和w3组合,得到结果)

二、激活函数

激活函数概念

首先,前向传播和反向传播都需要激活函数。 

  作用:在于决定如何激活输入信号的总和

激活函数的选择

必须是非线性函数。

反例:(线性函数)

线性变换的话, 本质上没太大变化,还是一元一次函数

1、阶跃函数

2、Sigmoid函数

梯度消失:

当x<-10或x>10时,其导数很小,当层数很多的时候,容易产生梯度消失现象。

3、ReLU函数

该函数是当前最常用的激活函数既能解决梯度消失的情况,求导又比较简单

三、过拟合处理

有时候会出现过拟合现象,是我们不希望看到的情况。

比如\lambda=0.001就是过拟合的情况:

在那个红圈的范围内,是绿色的可能性会更大。

 要看的不是训练集,而是测试集的效果,我们希望它泛化能力越强越好。

过拟合解决方法:

1、正则化。

2、DROP-OUT:训练阶段损失一部分的神经元,防止过拟合

(训练阶段每层抽取一部分神经元,测试不用管)

DROP-OUT:

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐