问题遇到的现象和发生背景
用代码块功能插入代码,请勿粘贴截图
我想要达到的结果
在linux下,现在有一个拥有大量ip地址的txt文本文档,但是里面有很多重复的,如何快速去重?
在linux下,现在有一个拥有大量ip地址的txt文本文档,但是里面有很多重复的,如何快速去重?
with open('xxx.txt', 'r') as f:
data = f.readlines()
ret = []
for ip in data:
if ip not in ret:
ret.append(ip)
print('\n'.join(ret))