我是靠谱客的博主 单纯大雁,这篇文章主要介绍记一次 pandas 大数据写入mysql内存溢出问题,现在分享给大家,希望可以做个参考。

记一次 pandas 大数据写入mysql内存溢出问题

pandas中dateframe的to_mysql方法可以将df数据存入Mysql,但是,数据量太大时,会报merroy error 错误,原因就是存入mysql时内存溢出了,这是不要忘记方法中:

复制代码
1
2
3
DataFrame.to_sql(name, con, schema=None, if_exists='fail', index=True, index_label=None, chunksize=None, dtype=None, method=None)[source]

chunksize参数,此方法就是设置一次写入Mysql的行数,我们可以分批次写入mysql中,比如一次100000数据。

最后

以上就是单纯大雁最近收集整理的关于记一次 pandas 大数据写入mysql内存溢出问题的全部内容,更多相关记一次内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(65)

评论列表共有 0 条评论

立即
投稿
返回
顶部