我是靠谱客的博主 暴躁衬衫,最近开发中收集的这篇文章主要介绍python去重txt文本_Python文本去重,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

用法:命令行python unique.py -f file.txt

输出:去除重复字符后的output.txt# -*- coding:utf-8 -*-

#auther_cclarence_2016_4_6

#open file and read out the characters

from optparse import OptionParser

import sys

reload(sys)

sys.setdefaultencoding("utf-8")

def readfile(filename):

try:

f = open(filename)

except Exception, e:

print "No such file"

exit(0)

text = f.readlines()

f.close()

for i in range(0,len(text)-1):

text[i] = text[i][:-1]

return text

#deduplication

def unique(arr):

arr1 = list(set(arr))

arr1.sort(key = arr.index)

return arr1

def main():

parser = OptionParser()

parser.add_option("-f", "--file", dest="filename",help="write report to FILE", metavar="FILE")

(options, args) = parser.parse_args()

filename = options.filename

text = readfile(filename)

text_dealed = unique(text)

for i in range(0,len(text_dealed)-1):

text_dealed[i] = text_dealed[i] +'n'

f = open("output.txt","w")

f.writelines(text_dealed)

f.close()

deduplication_num = len(text) - len(text_dealed)

print "success"

print "The num of data from the source file :" + str(len(text))

print "The num of data from the preprocessed file: :" + str(len(text_dealed))

print "The num of data removed :" + str(deduplication_num)

if __name__ == '__main__':

main()

最后

以上就是暴躁衬衫为你收集整理的python去重txt文本_Python文本去重的全部内容,希望文章能够帮你解决python去重txt文本_Python文本去重所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(43)

评论列表共有 0 条评论

立即
投稿
返回
顶部