python3循环写入文件的问题 2C

首先说明背景:初学python,自己写了一个批量修改文件名的小程序,但是我怕损坏文件,所以拿自己创建的文件试了一下,因为想知道文件是否发生改变,所以想在每个文件中写入特定的东西确保这个文件没有被破坏。然后有了一下的情况:

这是我的文件列表图片说明这是我的文件列表

这是我第一次写入文件图片说明这是第一次写入时的代码

结果是第01-09文件都是写的‘9’,只有文件10是正确的‘10’
然后我又试了一下单独写入:

这是单独写入的代码图片说明

结果是01-09文件都是‘file 01’,只有文件10是上次写入的10
这就很尴尬了,我后来又尝试了用flush()函数,用os模块,用with,用try,用命令行,用原生的脚本都不行
所以实在没办法只有来问了
环境:
python:3.5.2
ide:pycharm
os:windows10

1个回答

不知道你哪里弄错了,我用了同样的方法,执行的结果没问题

 for n in range(1,4):
    a = open('temp{}.py'.format(str(n).rjust(2,'0')),'w')
    print(a)
    a.write('@@@@@@@@@@@{}'.format(n))
    a.close()

图片说明
图片说明
图片说明

foryouslgme
foryouslgme 回复TonyWardStarke: 是的,我能写一遍就是因为看代码是没问题的,所以才写代码验证了一下
3 年多之前 回复
TonyWardStarke
TonyWardStarke 你的意思是,我的代码没错对吧?如果其他地方没问题,这种方法是可行的吧?
3 年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python 利用openpyxl 循环写入EXCEL 为什么只保留最后一条

1、python openpyxl 循环写入EXCEL 为什么只保留最后一条。在循环过程中每一行都其实都成功写入EXCEL文件,但循环到下一条都将上一条记录删除。最后只保留最后写入一条数据。 2、代码 ``` for href_url,roos in zip(href_url,href_name): addurl = href_url name = roos.xpath('./td[4]/text()')[0] i=i+1 #添加数据 #tree.insert("",i,text="",values=(i,name,addurl)) #得到企业详细信息 #url_id = "getxxgkContent&dataid=9339c790f8694f878b81e6fdc864be69" addurl=addurl[39:93] datas = {"xkgk": "getxxgkContent", "dataid": addurl} url = "http://permit.mee.gov.cn/permitExt/xkgkAction!xkgk.action?xkgk=" + addurl html = requests.get(url, headers=datas) soup = BeautifulSoup(html.text, 'lxml') name_id = soup.find_all('p', style="font-size:36px;")[0].text # 得到企业名称 name_add = soup.find_all('p', style="font-weight: bold;color: green;font-size: 14px;")[0].text # 得到企业地址等信息 ..strip() 属性删除空格 content=name_add content = content.strip() # 删除字符串左边空格 content = content.split() # 拆分字符串,通过指定分隔符对字符串进行分割,默认是空格。rstrip("\xa0\xa0\xa0\xa0\r\n\t\t\t") # content=content.partition(":") str2 = ''.join(content) u1, u2, u3, u4, u5 = str2.split(':', 4) f1 = u2.find('行业类别') f2 = u2[0:f1] g1 = u3.find('所在地区') g2 = u3[0:g1] h1 = u4.find('发证机关') h2 = u4[0:h1] ii=str(i) wb = Workbook() # 创建文件对象 # grab the active worksheet ws = wb.active # 获取第一个sheet cell = ws["A1"] cell.value = '序号' cell = ws['A'+ii] cell.value = i cell = ws["B1"] cell.value = '企业名称' cell = ws["B"+ii] cell.value = name cell = ws["C1"] cell.value = '生产经营场所地址' cell = ws["C"+ii] cell.value = f2 cell = ws["D1"] cell.value = '行业类别' cell = ws['D'+ii] cell.value = g2 cell = ws["E1"] cell.value = '所在地区' cell = ws['E'+ii] cell.value = h2 cell = ws["f1"] cell.value = '发证机关' cell = ws['f'+ii] cell.value = u5 wb.save("d:\\sample.xlsx") messagebox.showinfo("提示",ii) pass ``` #excel写入方式修改为,但最后只保留最后写入一条数据。 ``` wb = Workbook() # 创建文件对象 # grab the active worksheet ws = wb.active # 获取第一个sheet tableTitle = [a, b,c,] for col in range(len(tableTitle)): c = col + 1 ws.cell(row=1, column=c).value = tableTitle[col] # 数据表基本信息 tableValues = [[f2,g2, h2,]] for row in range(len(tableValues)): ws.append(tableValues[row]) # wb.save(ExcelFullName) wb.save("d:\\1.xlsx") pass ```

求助一个Python 循环读取文件,并对读到的字符串进行赋值,然后进一步生成json file 的方法。

求助一个Python 循环读取文件,并对读到的字符串进行赋值,然后进一步生成json file 的方法。 本来想用shell写,利用while read line do ......done <table.list这样的。 但是这样json file 不知道怎么写了,所以只能试着用Python写个循环。 目前的问题是TABLE.csv文件中TABLE是个变量,是从table.list里面取到的表名,不知道Python 里面变量怎么用。求助大神!! import base64 import os with open('table.list','r') as f4: for line in f4: TABLE = line f = open('TABLE.csv', 'r') content = f.read() content1 = content.encode(encoding='utf-8') content2 = base64.b64encode(content1) f.close() if os.path.getsize('TABLE.step1'): print('file exists and not empty') f1= open('TABLE.step2','r') V_Sha=f1.read() f1.close() with open('TABLE.csv.json', 'w') as j1: j1.write('{ "message": "[ci skip][Auto Commit]data into file", "content": "' + content2 + '", "sha": "' + V_Sha + '", "branch": "xxx" }') else: with open('TABLE.csv.json', 'w') as j1: j1.write('{ "message": "[ci skip][Auto Commit]data into file", "content": "' + content2 + '", "branch": "xxx" }') f4.close()

使用python向yaml中写入数据,写入的数据中包含!include,但是!include有个引号?

问题是这样的,我需要更改yaml文件中的某个值,但是这个yaml文件中使用!include包含其他yaml文件,更改完数据,写入的引入文件老有引号,带引号使用就无法识别![![图片说明](https://img-ask.csdn.net/upload/201810/29/1540800051_382972.png)图片说明](https://img-ask.csdn.net/upload/201810/29/1540800007_731201.png)

python3 写文件最后一行不能换行?

写文件的代码在这里,发现写文件的时候,最后一行没有写入换行符号? ``` def consumer2(q,filename): with open(filename,'a+') as f: while True: res = q.get() if res is None: break # 收到结束信号 print(res) for i in res: f.write(i) f.write(' ') f.write('\n') ``` cat -A text.log ``` 1xxxxx $ // 第1行 2xxxxx $ . . . n-1xxx $ nxxxxx // 最后一行 ``` 最后一行居然没有换行符号,这是为什么?

python使用循环把input输入的内容添加到文件时,为什么只添加了最后一次输入的内容

for i in range(2): a=input('请输入名字:') b=r'C:\Users\v_pejiepeng\Desktop\be.txt' with open(b,'w')as c: c.write(a) d=open(r'C:\Users\v_pejiepeng\Desktop\be.txt') print (d) 代码如上,进行过代码调试,循环两次。第一次a是一个值。然后将a加入c这个代码也执行完了。然后再返回的for,进行第二次的循环。可最后结果却只加入了第二次输入的值。求解。 for i in range(2): a=input('请输入名字:') b=r'C:\Users\v_pejiepeng\Desktop\be.txt' with open(b,'w')as c: c.write(a) d=open(r'C:\Users\v_pejiepeng\Desktop\be.txt') print (d) 第二次的代码和第一次的代码,调试时,代码的执行顺序是不一样的。我也知道这种代码的写也是不正确的。可为什么第一次的代码没能把第一次输入的数据写入到文件中。 b=r'C:\Users\v_pejiepeng\Desktop\be.txt' with open(b,'w')as c: for a in range(2): c.write(a) d=open(r'C:\Users\v_pejiepeng\Desktop\be.txt') print (d) 代码这样样写是没错。可以将两次的内容都写入到文件中。本人现在的疑问就是代码一为什么没有把第一次输入的数据写入到文件中。

python读取dat文件数据

dat文件中的数据已用IDL读取,可获取到3维数组,表示的是跨越一段时间的一个地理区域的植被信息; 现在,想要用python来读取同一个文件,识别成3维数组。 问题:用python具体怎样操作呢,能否提供具体的代码呢,尝试着可以之后再去理解。 跪求大神的帮助,万分期待与感谢。 总共就5个币,全给了哈! 首先,非常感谢大家的回答,现对问题补充如下: 11.7GB 大小的dat数据文件,使用readline循环读出,却显示只有4行,而且显示乱码 ,判断了编码格式,结果如下: ![图片说明](https://img-ask.csdn.net/upload/201603/11/1457661134_786702.png)

python csv写入,为啥头信息会重复

第一次写的头信息只写入一次,正常 复制粘贴改了一些东西后,就每次都会写入一次头了 ------------------------------------------------------------- 正常的第一次 ``` tag_list = [] for tags in text['items']: #print(type(tags)) tag = tags['tag'] tag = tag_list.append(tag) #print(tag_list) #把标签和原文件内容一起写进新文件 tag_list = str(tag_list).replace('[','').replace(']','').replace('\'','') tou = ['title','content','baidu_tag'] with open('ahahaha22333.csv','a+',encoding='utf-8',newline='') as f: fwriter = csv.writer(f) csvrow1 = [] csvrow2 = [] csvrow3 = [] csvrow1.append(d['title']) csvrow2.append(d['content']) csvrow3.append(tag_list) fwriter.writerow(tou) fwriter.writerows(zip(csvrow1,csvrow2,csvrow3)) n = n + 1 print(str(n)) #------------------------------------------------ copy改动版后头信息会重复写入的 try: summary = text['summary'] except Exception as eee: print('---eee') print(eee) summary = '_' #print(summary) tou = ['title','content','summary'] with open('ahahaha22333.csv','a+',encoding='utf-8',newline='') as f: fwriter = csv.writer(f) csvrow1 = [] csvrow2 = [] csvrow3 = [] csvrow1.append(d['title']) csvrow2.append(d['content']) csvrow3.append(summary) #fwriter.writerow(tou) fwriter.writerows(zip(csvrow1,csvrow2,csvrow3)) n = n + 1 print(str(n)) ``` -----------------------------------------------------------

【python】怎样用python读取txt并按规则写入excle

**求大神帮忙!可以给赞助一包烟钱** **将记事本中的 多组 同类型信息 通过python程序读取 写到excle中,效果如下** ![图片说明](https://img-ask.csdn.net/upload/201903/22/1553237325_339326.png) **记事本中信息开头括号里的内容就是列头** ![图片说明](https://img-ask.csdn.net/upload/201903/22/1553237334_331608.png) **效果如图,txt文本是如图的有规律的多组数据,将每组数据写入excle的一行,每组数据最后一项“成员”内容的数量不一定,就在同一行往后,一格一个。用python该怎么实现**

如何用python写一个循环,或者其他方式,完成批量选取内容并保存。

下面是将文件 split__1.fasta中选取一段序列,如下421至480. 存于selected_split_1.fasta文件中__。 如何写一个循环,可以从split__1.fasta 至 split__68.fasta,中分别选取421至480. 并存于selected_split_1.fasta至selected_split_68.fasta文件中文件中 ``` from Bio import SeqIO fin = open('split_1.fasta', 'r') fout = open('selected_split_1.fasta', 'w') with open("selected_split_1.fasta","w") as f: for seq_record in SeqIO.parse("split_1.fasta", "fasta"): f.write(">") f.write(str(seq_record.id) + "\n") f.write(str(seq_record.seq[421:480]) + "\n") #start 421 to end 480 base positions fin.close() fout.close() ```

python用代码下载文件文件大小为0或只有2KB怎么解决?

[](https://www.zhihu.com/question/375476720/answer/1045096119 "") [](https://segmentfault.com/q/1010000021869084 "") ``` #!/usr/bin/env python # coding=utf-8 #import importlib,sys #import sys #sys.setdefaultencoding('gbk') '''import sys import imp import sys reload(sys) sys.setdefaultencoding('utf8') ''' ''' import sys sys.setdefaultencoding('utf-8') import jieba import json''' from bs4 import BeautifulSoup import urllib.request import urllib.parse as parse import ssl import re import os,os.path import codecs import requests def getHtml(url): global html page = urllib.request.urlopen(url) html = page.read() return html def file(url1,file_name,name): print(url1) headers = {'Host': 'download.lfd.uci.edu','User-Agent':'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER','Referer': 'https://www.lfd.uci.edu/~gohlke/pythonlibs/', 'Connection': 'keep-alive', 'Upgrade-Insecure-Requests': '1', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate, sdch, br', 'Accept-Language': 'zh-CN,zh;q=0.8'} #req = urllib.urlretrieve(download_url,headers=headers) #urllib.request.urlopen('https://www.lfd.uci.edu/~gohlke/pythonlibs/') #req = urllib.request.Request(url=url,headers=header) request = requests.get(url=url1,headers=headers) #response = urllib.request.urlopen(request) global i i += 1 file = open(name ,'wb+') file.write(request.content) file.close() print(file_name) print("Completed : .... %d ..." % x) save_path = os.getcwd() url = 'https://www.lfd.uci.edu/' html = getHtml(url) html=''' <li><a href="javascript:;" onclick=" javascript:dl([101,105,52,56,106,100,50,118,54,95,110,53,119,47,116,99,51,104,113,108,45,112,115,97,46,49,109], &quot;E53AD6:=&lt;F4?C5G5GHC&gt;D?2C&gt;D?2C;098FI471G;@B&quot;); &quot;javascript: dl(&quot;" title="[614 KB] [Oct 17, 2019]">ad3‑2.2.1‑cp38‑cp38‑win_amd64.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,108,116,49,47,105,53,99,50,104,97,119,46,115,100,113,51,110,112,118,56,106,45], &quot;&lt;7D&gt;AB5139=?E7;7;2E6A?CE6A?CE:4@?7;:80&quot;); &quot;javascript: dl(&quot;" title="[544 KB] [Oct 17, 2019]">ad3‑2.2.1‑cp38‑cp38‑win32.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,52,108,119,95,116,104,109,45,100,47,50,55,51,99,105,46,49,53,97,106,115,113,112,110,54,118], &quot;D:CEFIA49B8&lt;7:?:?@7=F&lt;;7=F&lt;;672&gt;G3B68H0?251&quot;); &quot;javascript: dl(&quot;" title="[609 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp37‑cp37m‑win_amd64.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,100,50,106,53,51,116,105,115,49,108,46,97,45,104,118,47,119,113,55,112,110,109,99], &quot;712AC&gt;35?;04&lt;1:1:8&lt;FC4B&lt;FC4BE&lt;@6D41:@=9&quot;); &quot;javascript: dl(&quot;" title="[540 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp37‑cp37m‑win32.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,119,50,116,49,54,115,112,106,104,99,51,100,46,108,109,95,97,53,110,118,113,105,47,45,52], &quot;517D6CA2F@;:G1&lt;1&lt;3G96:4G96:4&gt;G0EB?@&gt;;4H&lt;08=&quot;); &quot;javascript: dl(&quot;" title="[598 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp36‑cp36m‑win_amd64.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,110,54,49,113,104,45,108,99,53,116,46,106,115,51,112,50,109,97,118,119,105,47,100], &quot;&lt;?;3&gt;B89EAF=5?:?:257&gt;=157&gt;=1@5CD0=?:C46&quot;); &quot;javascript: dl(&quot;" title="[534 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp36‑cp36m‑win32.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,53,119,105,112,46,51,104,106,108,95,49,97,47,118,54,109,45,52,99,110,116,113,115,100,50], &quot;FH7E3=0D&lt;B350&lt;;G5@H4H4:@B350@B350?@12C9;?G&gt;A4168&quot;); &quot;javascript: dl(&quot;" title="[596 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp35‑cp35m‑win_amd64.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,46,104,53,109,47,99,106,115,50,110,119,100,49,113,118,108,51,45,116,112,97,105], &quot;786=C&gt;2B45C@24D;@A8080&lt;A5C@2A5C@23A:E9@80:1?&quot;); &quot;javascript: dl(&quot;" title="[533 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp35‑cp35m‑win32.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,106,45,105,47,112,95,115,104,119,49,109,116,52,51,53,108,118,97,99,110,113,50,46,100,54], &quot;6E0D4@&gt;;3B4=&lt;3AG=1EFEF91B4=&lt;1B4=&lt;:182C5A:GH&lt;F87?&quot;); &quot;javascript: dl(&quot;" title="[599 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp34‑cp34m‑win_amd64.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,97,119,113,51,109,49,118,47,110,100,104,50,53,106,112,45,99,108,52,115,46,116,105], &quot;C;=2&gt;6&lt;E7@&gt;3B7093?;D;D5?@&gt;3B?@&gt;3B4?1F83;D1:A&quot;); &quot;javascript: dl(&quot;" title="[539 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp34‑cp34m‑win32.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,52,49,116,45,53,100,51,97,109,118,54,113,105,46,50,106,95,112,119,47,55,108,115,110,104,99], &quot;F&gt;?;A942CIA&gt;DC7563&gt;=&gt;=13IA&gt;D3IA&gt;D83B&lt;G@785:0=BHE&quot;); &quot;javascript: dl(&quot;" title="[642 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp27‑cp27m‑win_amd64.whl</a></li> <li><a href="javascript:;" onclick=" javascript:dl([101,46,53,49,106,110,108,47,50,99,118,105,112,109,116,119,51,97,100,113,45,115,104,55], &quot;D73B;91=68;7F6@A?C70702C8;7FC8;7F&lt;C&gt;:4?70&gt;E5&quot;); &quot;javascript: dl(&quot;" title="[556 KB] [Oct 02, 2018]">ad3‑2.2.1‑cp27‑cp27m‑win32.whl</a></li> </ul> ''' print('html done') #html.decode('utf-8') #print(html) '''headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1)AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11'} r = requests.get(url, headers = headers) r.encoding = "utf-8" soup = BeautifulSoup(r.text, "html.parser") #html_mod=re.sub(pattern=".",repl=".",string=html.decode('utf-8')) for link in soup.find_all('a'): #soup.find_all返回的为列表 print(link.get('href')) #name_list+=link ''' name_list = html#soup.find_all('a')#re.findall(r']">*-cp38-win_amd64.whl',html.decode('utf-8')) x=1 files=os.listdir(save_path) print(files) print(type(name_list)) name_list=str(name_list) name_list1=[] #print(name_list) #for name in name_list: k=0 # name[k]=str(name1[k]) for i in range(len(name_list)): j=0 if name_list[i-2:i+1]==']">': name_list1.append(name_list[i+1:i+60]) global m if k<len(name_list1): for l in range(len(name_list1[k])): if l-9>=0: if name_list1[k][l-4:l]=='.whl' or name_list1[k][l-3:l]=='.gz' or name_list1[k][l-4:l]=='.zip': j=1 m=l if j==1: name_list1[k]=name_list1[k][0:m] k+=1 '''if j==0: name_list.remove(name)''' #file_name = os.path.join(save_path ,name) i=0 #print(name) print(name_list1) for name in name_list1: j=0 for l in range(len(name)): if l-9>=0: if name[l-4:l]=='.whl' or name[l-3:l]=='.gz' or name[l-4:l]=='.zip': j=1 m=l if j==1: name=name[0:m] k+=1 if name in files: continue '''if name=='Delny‑0.4.1‑cp27‑none‑win_amd64.whl</a></li>\n<li>' or name==Delny‑0.4.1‑cp27‑none‑win32.whl</a></li> </ul> </: continue ''' print('no:'+str(x)) print('\ndownload '+name) # importlib.reload(sys) #imp.reload(sys) for l in range(len(name)): if l-9>=0: if name[l-4:l]=='.whl' or name[l-3:l]=='.gz' or name[l-4:l]=='.zip': j=1 m=l if j==1: name=name[0:m] k+=1 string='https://download.lfd.uci.edu/pythonlibs/s2jqpv5t/' + name#[0:4+name.find('.whl')]#https://download.lfd.uci.edu/pythonlibs/s2jqpv5t/ print('00'+save_path) file(string,save_path,name) x=x+1 print('09'+name_list) print('finished') ``` ``` #!/usr/bin/env python # coding=utf-8 #import importlib,sys #import sys #sys.setdefaultencoding('gbk') '''import sys import imp import sys reload(sys) sys.setdefaultencoding('utf8') ''' ''' import sys sys.setdefaultencoding('utf-8') import jieba import json''' #from bs4 import BeautifulSoup import urllib.request import urllib.parse as parse import ssl import re import os,os.path import codecs import requests def getText(html): '''headers = {'Host': 'https://pypi.org','User-Agent':'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER','Referer': 'https://pypi.org/search/?c=Programming+Language+%3A%3A+Python+%3A%3A+3', 'Connection': 'keep-alive', 'Upgrade-Insecure-Requests': '1', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate, sdch, br', 'Accept-Language': 'zh-CN,zh;q=0.8'} #req = urllib.urlretrieve(download_url,headers=headers) ''' #urllib.request.urlopen('https://www.lfd.uci.edu/~gohlke/pythonlibs/') #req = urllib.request.Request(url=url,headers=header) #headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'} #import requests res = requests.get(html) res.encoding = 'utf-8' #print(res.text) words=res.text ''' soup = BeautifulSoup(res.text, "html.parser") words = "" for a1 in soup.find_all("a"): words = words + str(a1.string) ''' return words def file(url1,file_name,name): print(url1) headers = {'Host': 'https://files.pythonhosted.org/packages/','User-Agent':'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER','Referer': 'https://pypi.org/', 'Connection': 'keep-alive', 'Upgrade-Insecure-Requests': '1', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.98 Safari/537.36 LBBROWSER', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate, sdch, br', 'Accept-Language': 'zh-CN,zh;q=0.8'} #req = urllib.urlretrieve(download_url,headers=headers) #urllib.request.urlopen('https://www.lfd.uci.edu/~gohlke/pythonlibs/') #req = urllib.request.Request(url=url,headers=header) request = requests.get(url=url1,headers=headers) #response = urllib.request.urlopen(request) global i i += 1 file = open(name ,'wb+') file.write(request.content) file.close() print(file_name) print("Completed : .... %d ..." % x) '''for i in range(len(name_list)): j=0 if name_list[i-24:i+1]=='https://pypi.org/project/': name_list1.append(name_list[i+1:i+60])''' def get(url): global name_list1 res=getText(url) #print('\n\n\n\n\n\nok\n\n\n\n\n\n\n\n\n\n') #name_list = getText(url) #print(res) print('html done,page:'+str(count)+'\n') for i in range(len(res)): #j=0 if (res[i-8:i+1]=='/project/')==True: name_list1.append('https://pypi.org'+res[i-8:i+20]) #print(name_list1) def trim(list1): k=0 list2=[] for i in list1: j=25 while j<len(list1[k]): if list1[k][j]=='/': list2.append(list1[k][0:j]) break j+=1 k+=1 return list2 def get1(url): """o=0 for n in len(url): if url[n]=='"': url=url[0:n-1]+'#files' """ global namelist url=url+'#files' #import requests res = requests.get(url) res.encoding = 'utf-8' #print(res.text) html=res.text for p in range(len(html)): stri='https://files' if html[p-len(stri):p]==stri: namelist.append(html[p-len(stri):p+170]) save_path = os.getcwd() ''' url = 'https://pypi.org/search/?c=Programming+Language+%3A%3A+Python+%3A%3A+3' name_list = getText(url) print(name_list) print('html done') #html.decode('utf-8') print(name_list)''' x=1 files=os.listdir(save_path) #print(files) #print(type(name_list)) name_list1=[] #print(name_list) #for name in name_list: k=0 # name[k]=str(name1[k]) '''for i in range(len(name_list)): j=0 if name_list[i-25:i+1]=='https://pypi.org/project/': name_list1.append(name_list[i-25:i+20]) for u in range(len(name_list1[len(name_list1)])): if name_list1[len(name_list1)][u]==' ': name_list1[len(name_list1)]=name_list1[len(name_list1)][0:u-1] ''' global count count=2 name_list1=[] for count in range(1): get('https://pypi.org/search/?c=Programming+Language+%3A%3A+Python+%3A%3A+3&page='+str(count)) """ global m if k<len(name_list1): for l in range(len(name_list1[k])): if l-9>=0: if name_list1[k][l-4:l]=='.whl' or name_list1[k][l-3:l]=='.gz' or name_list1[k][l-4:l]=='.zip': j=1 m=l if j==1: name_list1[k]=name_list1[k][0:m] k+=1""" '''if j==0: name_list.remove(name)''' #file_name = os.path.join(save_path ,name) #i=0 #print(name) #print(name_list1) namelist=[] h=0 for y in trim(name_list1): get1(y) print(namelist) if h==3: break h+=1 i=0 for name in namelist: j=0 for l in range(len(name)): if l-9>=0: if name[l-4:l]=='.whl' or name[l-3:l]=='.gz' or name[l-4:l]=='.zip': j=1 m=l break if j==1: name=name[0:m] k+=1 while m>0: if m<len(name): if name[m]=='/': filename=name[m+1:len(name)]#p] break m-=1 if filename in files: continue '''if name=='Delny‑0.4.1‑cp27‑none‑win_amd64.whl</a></li>\n<li>' or name==Delny‑0.4.1‑cp27‑none‑win32.whl</a></li> </ul> </: continue ''' print('no:'+str(x)) print('\ndownload '+name) # importlib.reload(sys) #imp.reload(sys) for l in range(len(name)): if l-9>=0: if name[l-4:l]=='.whl' or name[l-3:l]=='.gz' or name[l-4:l]=='.zip': j=1 m=l break if j==1: name=name[0:m] k+=1 p=m #string='https://download.lfd.uci.edu/pythonlibs/s2jqpv5t/' + name#[0:4+name.find('.whl')]#https://download.lfd.uci.edu/pythonlibs/s2jqpv5t/ print('00'+save_path) file(name,save_path,filename) print('\n........'+filename+'..........complete\n') x=x+1 print('09') print('finished') ``` 求高手解决

python进行文件异或时的编码问题

``` import pdb import codecs f = open('j:\\misc','rb+') data = codecs.encode(f.read(),'hex_codec') xor = ord('s') data2 = str() print(data[1]) print(data[0]) pdb.set_trace() n = 1 for i in range(0,len(data),2): #print(bytes(data[i])) m = chr(data[i])+chr(data[i+1]) print(m) data1 = chr(int(m,base = 16)^xor) data2 += data1 print(len(data1)) print(data1.encode()) f.close() f = open('j:\\1.png','wb+') f.write(data2.encode()) print(data2) f.close() ``` 我是一个字节一个字节的取,进行异或,不过有一些进行异或后会出现在异或后的16进制结果上加上c2或者c3,导致异或后的文件不能打开

Python3中pandas批量汇总多个Excel文件,如何将中文日期命名的文件名变成数字日期并写入Excel第一行?

文件名:2019年11月1日.xlsx~2019年11月30日.xlsx,文件里面数据没有标识日期,汇总后数据混乱,我需要把文件名改为数字日期并放在Excel第一行。 每个Excel中有多个工作表,初学Python,请各位指点。 代码如下 ``` ``` import pandas as pd import os import re list2 = os.listdir(r'c:\python\2019年11月\\') list1 = [] for name in list2: if re.findall('^2019年11月\d+日.xlsx', name): list1.append(name) # print(list1) dflist = [] for i in range(len(list1)): dflist.append(pd.read_excel(list1[i], header=2)) # print(dflist) data = pd.concat(dflist) data.to_excel('./123.xlsx') # 数据保存路径

Python3 print输出如何不换行?

网上有说在print语句后面加上逗号,输出的语句就不会换行,但是试了下各种情况,包括逗号和分号,都会换行,有哪位知道这是什么情况? >>> for i in range(0,5): print(i,) 0 1 2 3 4 >>> for i in range(0,5): print(i) 0 1 2 3 4 >>> for i in range(0,5): print(i), 0 (None,) 1 (None,) 2 (None,) 3 (None,) 4 (None,) >>> for i in range(0,5): print(i); 0 1 2 3 4 >>>

关于PYTHON使用with open配合For读取文件运行至For循环停止执行的疑问?

```try: with open(self.userList,'r') as f_username: UserListCount=len(list(f_username)) print(UserListCount) with open(self.passList,'r') as f_password : for name in f_username: **************************请问以下代码为何不会执行?********************** if Finished == 1 or UserBreak ==1: break UserTryCount=UserTryCount+1 print("正在pojie"+name+"进度表:"+str(UserTryCount)+"/"+UserListCount) for key in f_password: if Finished==1 or UserBreak==1 or PassBreak ==1: break if AllCount % 10 == 0: print("已尝试"+str(AllCount)+"个") if len(key)<self.MiniLen: continue try: AllCount=AllCount+1 if self.Login(name,key)==True: self.SuccesList.append(name+FG+key) PassBreak= 1 elif Login==False : continue else : UserBreak=1 except Exception as e: print("抱歉,发生异常错误"+str(e)) continue if Finished!=1 and UserBreak!=1: print("抱歉,在此字典中并未找到正确的密码") except Exception as e: print(e) ```

Python读取txt文本文件数据插入到数据库中,数据库中只有txt中最后一行数据

Python读取本地txt文本文件,将数据插入数据库表中,代码在下面,运行数据都能读取出来,但是不知道为什么数据库表中只有txt文件的最后一行数据,求问解决办法 ``` import MySQLdb # 连接mysql数据库 conn = MySQLdb.connect(host='localhost', port=3306, user='root', passwd='root', db='test21', charset='utf8') cur = conn.cursor() with open('b.txt', 'rb') as f: lines = f.readlines() if lines: for line in lines: print line line = line.strip('\n') line = line.split() # id+=1 dt = line[0] uid = line[1] cn = line[2] # cn=cn.decode('gbk').encode('utf-8') org = line[3] # print cn # 将数据插入mysql数据库 cur.execute("DROP TABLE IF EXISTS a") cur.execute("CREATE TABLE a ( dt varchar(255) NOT NULL, uid varchar(255) NOT NULL,cn varchar(255) NOT NULL,org varchar(255) NOT NULL )") cur.execute("insert into a(dt,uid,cn,org) values(%s,%s,%s,%s)", line) conn.commit() print('Total:'+str(len(lines))) print('write to mysql success') conn.close() ```

大佬救救我!Python在for循环中使用append方法出现了重复内容怎么办?

原代码如下 myfile="C:\文件\industry.xls" data = xlrd.open_workbook(myfile) table = data.sheets()[0] ncols=table.ncols nrows = table.nrows mylist = [] for j in range(nrows): for i in range(1, ncols): # 因为第1列的‘1’是序号,不计算在内 myCell = table.cell(j, i) myCellValue = myCell.value if myCellValue==1: biaoti=table.cell(0, i).value BIAOTI=str(biaoti) BIAOTI1=BIAOTI.replace('第7题(',' ') BIAOTI2 = BIAOTI1.replace(')', ' ') mylist.append(BIAOTI2) print(mylist) 得到的结果是: ![图片说明](https://img-ask.csdn.net/upload/201910/18/1571365581_90182.png) 但我要的只是最后一排的那个列表

python多个字典如何循环提取?

``` page={'a':1},{'b':1},{'c':1} ``` 例子中有三个字典,请教各位大侠,如何循环依次提取每个字典呢(是整个字典不是key或值) 比如第一次提取{'a':1},第二次提取{'b':1}如此类推

怎么在循环里把所有str变成dataframe然后输出到excel?或者有办法输出到excel也行

``` import lxml import requests from bs4 import BeautifulSoup pageNumber=1 for n in range(0,10): url='网址='+str(pageNumber) headers={'User-Agent':'123'} html=requests.get(url,headers=headers) pageNumber += 1 soup=BeautifulSoup(html.text,'lxml') for item in soup.find_all('a',"b"): reviews=item.text.replace('<br/>','') ``` reviews是str,怎么把循环里所有输出的reviews全部输出到excel?

for循环存取数据到文件中

经过一个for循环,每次都能得到一组数据,将每组数据按行存入一个txt文件中,大约十几万行,该怎样写,求助大神们!给个大概模板也可以,相似的例子之类的!

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

CSDN:因博主近期注重写专栏文章(已超过150篇),订阅博主专栏人数在突增,近期很有可能提高专栏价格(已订阅的不受影响),提前声明,敬请理解!

CSDN:因博主近期注重写专栏文章(已超过150篇),订阅博主专栏人数在突增,近期很有可能提高专栏价格(已订阅的不受影响),提前声明,敬请理解! 目录 博客声明 大数据了解博主粉丝 博主的粉丝群体画像 粉丝群体性别比例、年龄分布 粉丝群体学历分布、职业分布、行业分布 国内、国外粉丝群体地域分布 博主的近期访问每日增量、粉丝每日增量 博客声明 因近期博主写专栏的文章越来越多,也越来越精细,逐步优化文章。因此,最近一段时间,订阅博主专栏的人数增长也非常快,并且专栏价

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

培训班出来的人后来都怎么样了?(二)

接着上回说,培训班学习生涯结束了。后面每天就是无休止的背面试题,不是没有头脑的背,培训公司还是有方法的,现在回想当时背的面试题好像都用上了,也被问到了。回头找找面试题,当时都是打印下来天天看,天天背。 不理解呢也要背,面试造飞机,上班拧螺丝。班里的同学开始四处投简历面试了,很快就有面试成功的,刚开始一个,然后越来越多。不知道是什么原因,尝到胜利果实的童鞋,不满足于自己通过的公司,嫌薪水要少了,选择...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

工作八年,月薪60K,裸辞两个月,投简历投到怀疑人生!

近日,有网友在某职场社交平台吐槽,自己裸辞两个月了,但是找工作却让自己的心态都要崩溃了,全部无果,不是已查看无回音,就是已查看不符合。 “工作八年,两年一跳,裸辞两个月了,之前月薪60K,最近找工作找的心态崩了!所有招聘工具都用了,全部无果,不是已查看无回音,就是已查看不符合。进头条,滴滴之类的大厂很难吗???!!!投简历投的开始怀疑人生了!希望 可以收到大厂offer” 先来看看网...

97年世界黑客编程大赛冠军作品(大小仅为16KB),惊艳世界的编程巨作

这是世界编程大赛第一名作品(97年Mekka ’97 4K Intro比赛)汇编语言所写。 整个文件只有4095个字节, 大小仅仅为16KB! 不仅实现了3D动画的效果!还有一段震撼人心的背景音乐!!! 内容无法以言语形容,实在太强大! 下面是代码,具体操作看最后! @echo off more +1 %~s0|debug e100 33 f6 bf 0 20 b5 10 f3 a5...

不要再到处使用 === 了

我们知道现在的开发人员都使用 === 来代替 ==,为什么呢?我在网上看到的大多数教程都认为,要预测 JavaScript 强制转换是如何工作这太复杂了,因此建议总是使用===。这些都...

什么是a站、b站、c站、d站、e站、f站、g站、h站、i站、j站、k站、l站、m站、n站?00后的世界我不懂!

A站 AcFun弹幕视频网,简称“A站”,成立于2007年6月,取意于Anime Comic Fun,是中国大陆第一家弹幕视频网站。A站以视频为载体,逐步发展出基于原生内容二次创作的完整生态,拥有高质量互动弹幕,是中国弹幕文化的发源地;拥有大量超粘性的用户群体,产生输出了金坷垃、鬼畜全明星、我的滑板鞋、小苹果等大量网络流行文化,也是中国二次元文化的发源地。 B站 全称“哔哩哔哩(bilibili...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

MySQL性能优化(五):为什么查询速度这么慢

前期回顾: MySQL性能优化(一):MySQL架构与核心问题 MySQL性能优化(二):选择优化的数据类型 MySQL性能优化(三):深入理解索引的这点事 MySQL性能优化(四):如何高效正确的使用索引 前面章节我们介绍了如何选择优化的数据类型、如何高效的使用索引,这些对于高性能的MySQL来说是必不可少的。但这些还完全不够,还需要合理的设计查询。如果查询写的很糟糕,即使表结构再合理、索引再...

用了这个 IDE 插件,5分钟解决前后端联调!

点击上方蓝色“程序猿DD”,选择“设为星标”回复“资源”获取独家整理的学习资料!作者 |李海庆我是一个 Web 开发前端工程师,受到疫情影响,今天是我在家办公的第78天。开发了两周,...

大厂的 404 页面都长啥样?最后一个笑了...

每天浏览各大网站,难免会碰到404页面啊。你注意过404页面么?猿妹搜罗来了下面这些知名网站的404页面,以供大家欣赏,看看哪个网站更有创意: 正在上传…重新上传取消 腾讯 正在上传…重新上传取消 网易 淘宝 百度 新浪微博 正在上传…重新上传取消 新浪 京东 优酷 腾讯视频 搜...

【高并发】高并发秒杀系统架构解密,不是所有的秒杀都是秒杀!

网上很多的文章和帖子中在介绍秒杀系统时,说是在下单时使用异步削峰来进行一些限流操作,那都是在扯淡! 因为下单操作在整个秒杀系统的流程中属于比较靠后的操作了,限流操作一定要前置处理,在秒杀业务后面的流程中做限流操作是没啥卵用的。

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

代码注释如此沙雕,会玩还是你们程序员!

某站后端代码被“开源”,同时刷遍全网的,还有代码里的那些神注释。 我们这才知道,原来程序员个个都是段子手;这么多年来,我们也走过了他们的无数套路… 首先,产品经理,是永远永远吐槽不完的!网友的评论也非常扎心,说看这些代码就像在阅读程序员的日记,每一页都写满了对产品经理的恨。 然后,也要发出直击灵魂的质问:你是尊贵的付费大会员吗? 这不禁让人想起之前某音乐app的穷逼Vip,果然,穷逼在哪里都是...

Java14 新特性解读

Java14 已于 2020 年 3 月 17 号发布,官方特性解读在这里:https://openjdk.java.net/projects/jdk/14/以下是个人对于特性的中文式...

爬虫(101)爬点重口味的

小弟最近在学校无聊的很哪,浏览网页突然看到一张图片,都快流鼻血。。。然后小弟冥思苦想,得干一点有趣的事情python 爬虫库安装https://s.taobao.com/api?_ks...

疫情后北上广深租房价格跌了吗? | Alfred数据室

去年3月份我们发布了《北上广深租房图鉴》(点击阅读),细数了北上广深租房的各种因素对租房价格的影响。一年过去了,在面临新冠疫情的后续影响、城市尚未完全恢复正常运转、学校还没开学等情况下...

面试官给我挖坑:a[i][j] 和 a[j][i] 有什么区别?

点击上方“朱小厮的博客”,选择“设为星标”后台回复&#34;1024&#34;领取公众号专属资料本文以一个简单的程序开头——数组赋值:int LEN = 10000; int[][] ...

又一起程序员被抓事件

就在昨天互联网又发生一起让人心酸的程序员犯罪事件,著名的百度不限速下载软件 Pandownload PC 版作者被警方抓获。案件大致是这样的:软件的作者不仅非法盗取用户数据,还在QQ群进...

应聘3万的职位,有必要这么刁难我么。。。沙雕。。。

又一次被面试官带到坑里面了。面试官:springmvc用过么?我:用过啊,经常用呢面试官:springmvc中为什么需要用父子容器?我:嗯。。。没听明白你说的什么。面试官:就是contr...

太狠了,疫情期间面试,一个问题砍了我5000!

疫情期间找工作确实有点难度,想拿到满意的薪资,确实要点实力啊!面试官:Spring中的@Value用过么,介绍一下我:@Value可以标注在字段上面,可以将外部配置文件中的数据,比如可以...

Intellij IDEA 美化指南

经常有人问我,你的 IDEA 配色哪里搞的,我会告诉他我自己改的。作为生产力工具,不但要顺手而且更要顺眼。这样才能快乐编码,甚至降低 BUG 率。上次分享了一些 IDEA 有用的插件,反...

【相亲】96年程序员小哥第一次相亲,还没开始就结束了

颜值有点高,条件有点好

太厉害了,终于有人能把TCP/IP 协议讲的明明白白了

一图看完本文 一、 计算机网络体系结构分层 计算机网络体系结构分层 计算机网络体系结构分层 不难看出,TCP/IP 与 OSI 在分层模块上稍有区别。OSI 参考模型注重“通信协议必要的功能是什么”,而 TCP/IP 则更强调“在计算机上实现协议应该开发哪种程序”。 二、 TCP/IP 基础 1. TCP/IP 的具体含义 从字面意义上讲,有人可能会认为...

腾讯面试题: 百度搜索为什么那么快?

我还记得去年面腾讯时,面试官最后一个问题是:百度/google的搜索为什么那么快? 这个问题我懵了,我从来没想过,搜素引擎的原理是什么 然后我回答:百度爬取了各个网站的信息,然后进行排序,当输入关键词的时候进行文档比对……巴拉巴拉 面试官:这不是我想要的答案 我内心 这个问题我一直耿耿于怀,终于今天,我把他写出来,以后再问,我直接把这篇文章甩给他!!! 两个字:倒排,将贯穿整篇文章,也是面试官...

相关热词 c#跨线程停止timer c#批量写入sql数据库 c# 自动安装浏览器 c#语言基础考试题 c# 偏移量打印是什么 c# 绘制曲线图 c#框体中的退出函数 c# 按钮透明背景 c# idl 混编出错 c#在位置0处没有任何行
立即提问