记一次 pandas 大数据写入mysql内存溢出问题
pandas中dateframe的to_mysql方法可以将df数据存入Mysql,但是,数据量太大时,会报merroy error 错误,原因就是存入mysql时内存溢出了,这是不要忘记方法中:
复制代码
1
2
3DataFrame.to_sql(name, con, schema=None, if_exists='fail', index=True, index_label=None, chunksize=None, dtype=None, method=None)[source]
chunksize参数,此方法就是设置一次写入Mysql的行数,我们可以分批次写入mysql中,比如一次100000数据。
最后
以上就是单纯大雁最近收集整理的关于记一次 pandas 大数据写入mysql内存溢出问题的全部内容,更多相关记一次内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复