经典卷积神经网络复现
基于pytorch
将经典的卷积神经网络架构复现一下
卷积神经网络基础知识
通道数:
感受野:
步幅:
填充:
滤波器:
汇聚:
池化:
LeNet-5
网络结构图
结构分析
复现代码
1 |
|
AlexNet
网络结构图
结构细节
卷积核大小如何确定?
虽然说目前有比较火的研究方向针对这种自动神经网络结构搜索(NAS),这些自动搜索出来的网络在常规数据集上的建模结果显示(当然是达到一定的准确度):自动搜索出来的网络中的卷积核的类别有包括各种常见的型号(3 * 3、5 * 5、7*7),且在网络中的前后排布没有规律。
nn.BatchNorm2d()的作用?
在深度神经网络中,梯度消失是一个常见的问题。BatchNorm2d通过对激活函数前添加归一化层,抑制了梯度消失的问题,从而加速了优化过程。
BatchNorm2d通过对数据的归一化处理,使得权重初始化的影响减小,无论权重的初始值如何,都可以通过归一化和仿射变换得到较好的效果。
nn.Dropout(0.5,inplace=True)的作用?
nn.Dropout模块的作用是在训练过程中随机关闭一部分神经元,以增加模型的泛化能力。通常,我们在全连接层之后应用dropout,以避免破坏卷积层中重要的空间信息。
一般建议在10%-50%之间设置dropout比例
复现代码
1 |
|
VGG
网络结构图
GoogleNet
网络结构图
ResNet
网络结构图
经典卷积神经网络复现
http://example.com/2024/11/15/经典卷积神经网络复现/