用python pandas按块读取超大csv/txt
如果一个csv文件过大,比如说达到好几G,直接读取的话内存估计hold不住,幸好pandas支持使用chunksize指定行数,每次按多少行多少行来读取,这样就避免了一次性读取过多数据导致内存崩溃。用row["某个列的名称"] 即可读取该列的对应数据了,之后就可以进行数据处理了。import pandas as pdchunksize = 1000count = 1for df in pd.read_csv('1.txt',chunksize=chunksize): prin