池化将输入的宽度和高度除以池大小。
比如,对于我们的MNIST CNN,我们将在初始转换层之后立即放置一个池大小为2的最大池化层。池化层会将26x26x8输入转换为13x13x8输出。
softmax层实际上,最终完成CNN,还需要赋予其预测的能力。
那么,将通过使用多类分类问题的标准最终层:Softmax层,这是一个完全连接(密集)的层,它使用Softmax函数作为其激活的全连接(密集)层。
什么是Softmax函数?
给定一些数字,Softmax函数就能将任意数字转化为概率。
比如,我们选定数字 -1、0、3和5。
首先,我们需要计算e的指定数字次方,然后将其所有结果相加,当作分母。
最后,e的指定数字次方的值就作为分子,由此计算可能性。
而以MNIST CNN为例,将使用带有10个节点的softmax层作为CNN的最后一层,每个数字代表一个数字。层中的每个节点将连接到每个输入。
应用softmax变换后,由节点表示的概率最高的数字将是CNN的输出了。
好了,介绍了这么多。是不是能够很好的理解卷积神经网络了呢?
可以私戳下方链接了解更多哦~
传送门:
https://victorzhou.com/blog/intro-to-cnns-part-1/
https://victorzhou.com/blog/softmax/
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态