我是靠谱客的博主 魁梧石头,最近开发中收集的这篇文章主要介绍台大李宏毅老师——深度学习 课程笔记 五 (Deep Learning BackPropagation)IntroductionNeural NetworkBackpropagation,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
文章目录
- Introduction
- Neural Network
- Backpropagation
Introduction
Deep Learning的神经网络就是一个function
Neural Network
现在用的激活函数已经是tanh或者leakyRelu了。
ResNet用了特殊的结构,不是单纯的叠加层数
其实本质用的Matrix Operation。但是我现在想不起来batch是怎么做运算的。batch应该是增加一维。
这种线性代数的计算不断堆叠,GPU算起来更快。
可以看到中间的隐藏层作用就是特征的提取,代替了机器学习的特征工程。
输入256维,输出10维
hidden layer可以产生无数个function,我们要通过梯度下降来找到最佳的一个funciton。
Backpropagation
最后
以上就是魁梧石头为你收集整理的台大李宏毅老师——深度学习 课程笔记 五 (Deep Learning BackPropagation)IntroductionNeural NetworkBackpropagation的全部内容,希望文章能够帮你解决台大李宏毅老师——深度学习 课程笔记 五 (Deep Learning BackPropagation)IntroductionNeural NetworkBackpropagation所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复