一、卷积层

卷积层:提取特征

池化层:压缩特征

 这个只演示了一层

每个通道各自提取(R,G,B三个通道),整合(三层结果相加)

 padding是为了让边界点利用次数更多,padding = 1是边界填充一圈0(为什么添加0呢,因为0不会对原结果造成影响)

卷积核个数决定得多少个特征图,10个卷积核就是10个特征图

二、池化层

 maxpool最大池化是选择最大的权重,因为其是最好的特征,就没必要平均池化了(为什么要将最好的特征给平均了呢,没必要吧)

三、 

只有带参数的东西才能称为一层,例如conv和FC。Relu,pool不算,所以共七层

四、

1.Alexnet    2012年的

了解有这个东西就好,没什么用的网络 ,太老了,问题很大

2.vgg    2014年的  相比于Alexnet有很大改变

所有卷积核大小都是3*3

 池化层损失的特征,用下次更多数据填补,缺点是训练时间长,但精度比Alexnet高

 五、卷积核大小的影响

堆叠小的卷积核,参数少一些,而且训练过程还快一些,三次卷积可以增加三层relu,线性改变很多,权重不会改变

六、卷积神经网络简单代码实现

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐