第三周作业:卷积神经网络(Part 1)卷积神经网络学习内容总结卷积神经网络实战——猫狗大战
卷积神经网络学习内容总结 卷积网络本质上也是一个MLP,不过我们在计算的时候,对原来的计算方式进行了修改。具体来说我们对每一层的神经元进行了特别的索引,每次只选取固定的几个神经元对输入进行计算,这样就实现了“参数共享”的效果,因为不管输入特征的尺度有多大,我们只采用固定的神经元进行计算。 从更形象的角度来讲,卷积是用一组神经元(通常我们为其赋予空间尺度的形象),采用滑动的形式对输入进行处理,每次滑动处理一个窗口的信息,窗口的大小即为卷积核的大小(一般而言是这样,空洞卷积例...