cnn是什么意思中文翻译,怎么一边翻译一边看cnn

首页 > 教育 > 作者:YD1662024-06-20 21:44:00

输出高度

cnn是什么意思中文翻译,怎么一边翻译一边看cnn(9)

其中:

卷积层输出的通道数等于卷积操作期间使用的滤波器的个数。

为什么选择卷积?

有时候可能会问自己,为什么要首先使用卷积操作?为什么不从一开始就展开输入图像矩阵?在这里给出答案,如果这样做,我们最终会得到大量需要训练的参数,而且大多数人都没有能够以最快的方式解决计算成本高昂任务的能力。此外,由于卷积神经网络具有的参数会更少,因此就可以避免出现过拟合现象。

池化层|Pooling Layer:

目前,有两种广泛使用的池化操作——平均池化(average pooling)和最大池化(max pooling),其中最大池化是两者中使用最多的一个操作,其效果一般要优于平均池化。池化层用于在卷积神经网络上减小特征空间维度,但不会减小深度。当使用最大池化层时,采用输入区域的最大数量,而当使用平均池化时,采用输入区域的平均值。

cnn是什么意思中文翻译,怎么一边翻译一边看cnn(10)

最大池化

为什么要池化?

池化层的核心目标之一是提供空间方差,这意味着你或机器将能够将对象识别出来,即使它的外观以某种方式发生改变,更多关于池化层的内容可以查看Yann LeCunn的文章。

非线性层|Non-linearity Layer:

在非线性层中,一般使用ReLU激活函数,而不是使用传统的Sigmoid或Tan-H激活函数。对于输入图像中的每个负值,ReLU激活函数都返回0值,而对于输入图像中的每个正值,它返回相同的值(有关激活函数的更深入说明,请查看这篇文章)。

cnn是什么意思中文翻译,怎么一边翻译一边看cnn(11)

ReLU激活函数

全连接层}Fully Connected Layer:

在全连接层中,我们将最后一个卷积层的输出展平,并将当前层的每个节点与下一层的另一个节点连接起来。全连接层只是人工神经网络的另一种说法,如下图所示。全连接层中的操作与一般的人工神经网络中的操作完全相同:

cnn是什么意思中文翻译,怎么一边翻译一边看cnn(12)

上一页12345下一页

栏目热文

文档排行

本站推荐

Copyright © 2018 - 2021 www.yd166.com., All Rights Reserved.