我是靠谱客的博主 健壮魔镜,最近开发中收集的这篇文章主要介绍CS224D学习笔记,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

第二次看了,理解深了一些
2017.7.24
传统方法 通过统计一个单词周围的单词的频率,获得每个单词的wordvec,然后通过SVD降维,去除较大奇异值的矩阵,把vec长度在25-1000内。
缺点是1.单词很多的时候SVD复杂度很高
2.要添加新单词时很困难,扩展性差
深度学习可以部分解决。

wordvector和具体任务一起训练有可能有更好的训练效果,但是可能会把wordvector变得主要是为了训练任务了,如果训练量很少,可能有些单词变化了,有些还没有变化,不太好。
训练量大的时候带着wordvector一起训练比较好

2017.7.25
监督学习:
希望得到一个输入到输出的函数
函数的形式已经给定,若干参数未知,
需要定义loss function,用梯度不断改进参数,逼近想要得到的参数值。
loss function 加上一个参数平方和的均值防止过拟合(防止一个参数太大)
尽量少用FOR循环,多用矩阵乘法

普通的softmax(logistics regression)只能提供线性的边界(因为乘以一个矩阵之后看大于0还是小于0,就等于是一条线(或者一个平面)的方程,只有线性边界)

神经网络隐层有多个节点,每个节点的触发函数都是非线性的,结合起来可以提供非线性的边界。

不同任务一起训练底层网络和wordvector,只有上层的softmax层分开训练
BP算法的过程是先自下而上再自上而下,自上而下的时候,softmax层分开训练,其它层的loss用两个加在一起。
因为在BP的时候一个神经元连接到的weights都会有同样的loss,然后再乘以连接的下层神经元,构成一个weight的loss,所以可以叠加
特别是训练wordvector的时候,需要很多的数据,所以可以不同任务同时训练。

花式调参:
1.学习率:在平稳之后减少学习率
2.初始化:不能梯度消失

2017.7.27
昨天学的一课TensorFlow,还行
然后看了一课GRU和LSTM,GRU的用处,一个是像动量一样,当前状态要继承部分上一状态;第二个是计算当前状态的新值的时候,利用上一状态的多少也要学习。
LSTM类似,但是Cell存储的state和为下一个状态提供的h不是一个值,利用h来产生输出,利用c来传递前面的信息,每次依然要考虑取多少前面的信息。
Recursive NN,用来分词,递归地每次合并两个单词/句子/词组,问题在于每次要选择两个得分最高的。

最后

以上就是健壮魔镜为你收集整理的CS224D学习笔记的全部内容,希望文章能够帮你解决CS224D学习笔记所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(54)

评论列表共有 0 条评论

立即
投稿
返回
顶部