概述
tensorflow进行数据增强
我们在进行训练的时候,如果输入的样本有限,会导致网络陷入过拟合。
在tensorflow里有专门针对这个的解决方法,tf.ImageDataGenerator,它的作用是进行数据增强。在给定数据的基础上进行 旋转,剪切,缩放等操作,来获得更多的数据。
例:
train_datagen = keras.preprocession.image.ImageDataGenerator(
rescale=1./255, # 像素点255,范围(0,1)
rotation_range = 30, #随机旋转角度范围在(-30,30)
width_shift_range = 0.2, #水平位移(-0.2,0.2),提高数据鲁棒性,如大于1,表示像素值
height_shift_range = 0.2, #上下位移(-0.2,0.2),如大于1,表示像素值
shear_range = 0.2, #剪切强度
zoom_range = 0.2, #缩放程度
horizontal_flip = True, # 是不是随机做水平翻转
fill_mode = 'nearest' #填充像素,离他最近的真实像素点进行填充
)
数据增强处理,不会占用更多的存储空间,即在数据增强过程中,原始的数据不会被修改,所有的处理过程都是在内存中即时的。
注意:
虽然数据增强提高了数据的随机性,但是如果数据或者应用场景不具备这样的随机性,那么不仅不会起到作用,还会增加训练所需的时间。
还有一点,平时我们使用model.fit训练数据,但这是在数据集不是很大的时间比较好用,当我们处理非常大的数据集的时候,就不适合用fit。这个时候我们需要用到keras.fit_generator函数。
最后
以上就是俏皮纸飞机为你收集整理的tensorflow进行数据增强的全部内容,希望文章能够帮你解决tensorflow进行数据增强所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复