概述
记一次 pandas 大数据写入mysql内存溢出问题
pandas中dateframe的to_mysql方法可以将df数据存入Mysql,但是,数据量太大时,会报merroy error 错误,原因就是存入mysql时内存溢出了,这是不要忘记方法中:
DataFrame.to_sql(name, con, schema=None, if_exists='fail',
index=True, index_label=None, chunksize=None, dtype=None, method=None)[source]
chunksize参数,此方法就是设置一次写入Mysql的行数,我们可以分批次写入mysql中,比如一次100000数据。
最后
以上就是单纯大雁为你收集整理的记一次 pandas 大数据写入mysql内存溢出问题的全部内容,希望文章能够帮你解决记一次 pandas 大数据写入mysql内存溢出问题所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复