我是靠谱客的博主 魁梧石头,这篇文章主要介绍台大李宏毅老师——深度学习 课程笔记 五 (Deep Learning BackPropagation)IntroductionNeural NetworkBackpropagation,现在分享给大家,希望可以做个参考。
文章目录
- Introduction
- Neural Network
- Backpropagation
Introduction



Deep Learning的神经网络就是一个function
Neural Network


现在用的激活函数已经是tanh或者leakyRelu了。





ResNet用了特殊的结构,不是单纯的叠加层数

其实本质用的Matrix Operation。但是我现在想不起来batch是怎么做运算的。batch应该是增加一维。


这种线性代数的计算不断堆叠,GPU算起来更快。

可以看到中间的隐藏层作用就是特征的提取,代替了机器学习的特征工程。


输入256维,输出10维

hidden layer可以产生无数个function,我们要通过梯度下降来找到最佳的一个funciton。










Backpropagation

















最后
以上就是魁梧石头最近收集整理的关于台大李宏毅老师——深度学习 课程笔记 五 (Deep Learning BackPropagation)IntroductionNeural NetworkBackpropagation的全部内容,更多相关台大李宏毅老师——深度学习内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复