《TensorFlow深度学习算法原理与编程实战》
作者:蒋子阳
在所有笔记中搜索你感兴趣的关键词!
作者:蒋子阳
数据输入层:Input Layer
功能:对输入的数据进行预处理
预处理方式:去均值、归一化、PCA/白化
卷积计算层:CONV Layer
功能:进行滑动局部感知,按每个通道、每个过滤器进行卷积。
参数:窗口大小、滑动步长、过滤器(N*(W+B))、深度(通道)
ReLU激励层:ReLU Incentive Layer
功能:对卷积层的输出结果做一次非线性映射(激活)
常用非线性映射函数:Sigmoid、Tanh、ReLU、Leaky ReLU、ELU、Maxout
池化层:Pooling Layer
功能:通过逐步减小表特征的空间尺寸来减小参数量和网络中的计算。
策略:最大池化、平均池化
全连接层:FC Layer
功能:在尾部用于输出
备注:Batch Normalization Layer
功能:对神经元的输出进行一下修正
评论 (0)