我是靠谱客的博主 单纯大雁,最近开发中收集的这篇文章主要介绍记一次 pandas 大数据写入mysql内存溢出问题,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

记一次 pandas 大数据写入mysql内存溢出问题

pandas中dateframe的to_mysql方法可以将df数据存入Mysql,但是,数据量太大时,会报merroy error 错误,原因就是存入mysql时内存溢出了,这是不要忘记方法中:

DataFrame.to_sql(name, con, schema=None, if_exists='fail',
index=True, index_label=None, chunksize=None, dtype=None, method=None)[source]

chunksize参数,此方法就是设置一次写入Mysql的行数,我们可以分批次写入mysql中,比如一次100000数据。

最后

以上就是单纯大雁为你收集整理的记一次 pandas 大数据写入mysql内存溢出问题的全部内容,希望文章能够帮你解决记一次 pandas 大数据写入mysql内存溢出问题所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(47)

评论列表共有 0 条评论

立即
投稿
返回
顶部