我是靠谱客的博主 想人陪蓝天,最近开发中收集的这篇文章主要介绍用python pandas按块读取超大csv/txt,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

如果一个csv文件过大,比如说达到好几G,直接读取的话内存估计hold不住,幸好pandas支持使用chunksize指定行数,每次按多少行多少行来读取,这样就避免了一次性读取过多数据导致内存崩溃。

用row["某个列的名称"] 即可读取该列的对应数据了,之后就可以进行数据处理了。

import pandas as pd

chunksize = 1000

count = 1
for df in pd.read_csv('1.txt',chunksize=chunksize):
	print(count)
	
	for index,row in df.iterrows():
		print(count,index)
		# break
		# x=row['djxh']
		# y=row[1]
		# print(index,x,y)
	count+=1

补充一段代码,有时候csv里面会有一些所谓的脏数据导致读取错误,这个时候只需要配置error_bad_lines=False 即可跳过这一行的处理,注意,是跳过,帮你自动处理是不可能的,还是要自己想办法去排除产生这个错误的原因。

通常来讲,超大csv/txt都是来自数据库的查询结果,这些超大文件里面如果有时候包含了英文的分号、逗号、单双引号、空格、换行符等符号就容易出现这种错误,处理方法通常就是在数据库查询脚本那里将这些符号提前替换掉。

import pandas as pd

chunksize = 500000

data = pd.read_csv("sample.csv",encoding='utf-8',error_bad_lines=False,chunksize=chunksize)

count = 1
for chunk in data:
	file_name = "out"+str(count)+".xlsx"
	count +=1
	chunk.to_excel(file_name,index=False)
	break

 

 

最后

以上就是想人陪蓝天为你收集整理的用python pandas按块读取超大csv/txt的全部内容,希望文章能够帮你解决用python pandas按块读取超大csv/txt所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(38)

评论列表共有 0 条评论

立即
投稿
返回
顶部