python bs4 find_all 有一行没有该属性 造成数据错位 5C

想爬豆瓣读书的网页,在爬取评价星级时,某一条目没有这个层级的内容,所以使用BeautifulSoup的find_all功能时,数据错位了,怎么解决。可以用条件语句吗

titles=[]
authors=[]
ratings=[]
comments=[]

hds={'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'}
source = requests.get('https://book.douban.com/tag/%E4%B8%AD%E5%9B%BD%E6%96%87%E5%AD%A6?start=280&type=R',headers=hds)
print(source.status_code)
print(source.text)
soup=bs.BeautifulSoup(source.content,'html.parser')

for t in soup.find_all('div',class_='info'):
        for title in t.find_all('h2',class_=""):
            print(title.text.strip())
            titles.append(title.text.strip().replace('\n',''))
for author in soup.find_all("div",class_="pub") :
        print(author.text.strip())
        authors.append(author.text.strip()) 

for rating in soup.find_all('div',class_='star clearfix'):
    if 
        print(rating.text)
        ratings.append(rating.text.strip())
for comment in soup.find_all('span',class_='pl'):
        print(comment.text.strip().replace('(','').replace('人评价)',''))
        comments.append(comment.text.strip().replace('(','').replace('人评价)',''))

图片说明图片说明

1个回答

ratings.append(rating.text.strip())
去掉空白???
《祁连如梦》没有评分,是不是去掉空白的时候,直接去掉了??》

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Python BeautifulSoup find_all 问题

用python爬下一个网页,将其弄成BeautifulSoup Object之后, 1. ptint bsObj 可以输出中文内容 2. print bsObj.find__all之后,输出的是unicode编码的内容,请问该怎么处理呢?_

python beautifulsoup find_all方法返回空列表

网页代码如下: ![图片说明](https://img-ask.csdn.net/upload/201710/12/1507790902_64154.png) 我的python代码: cards2 = soup.find_all('div',class_='product ') class的属性值我是复制粘贴过来的,find其他的div上没有问题,可是就是这个总是给我返回空列表 ![图片说明](https://img-ask.csdn.net/upload/201710/12/1507790921_470557.png) 网址为:https://list.tmall.com/search_product.htm?q=%CA%D6%BB%FA 请大神们帮忙看看是怎么回事

python beautifulsoup find/find_all取内容

![图片说明](https://img-ask.csdn.net/upload/201605/16/1463408231_521270.jpg) ![图片说明](https://img-ask.csdn.net/upload/201605/16/1463408263_317108.jpg) 用beautifulsoup 怎么分别取出来这三个文字?

关于BeutifulSoup对象的find_all()中使用正则表达式的问题

如图所示的网页HTML标签,现想用正则表达式将div class='dg000'或者div class='dgfff'的标签提取出来,而不包括class='dgfff banner-box' ![图片说明](https://img-ask.csdn.net/upload/201806/25/1529930823_825454.gif) 用如下语句提取实现不了,原因是什么呢? datas=soup.find_all('div',{'class':'re.compile(''bg[f,0]{3}$)}) ``` ```

python爬虫bs4解析想获取的tag并没有独特的参数来find,有什么办法来定位这个tag吗?

元素审查界面是这样的: ![想要find选中的这个tag](https://img-ask.csdn.net/upload/201708/08/1502174539_316543.png) 用bs4直接find()表格里这一行这个tag找不到合适的参数来限定,继续用bs4 find()的话有没有什么办法可以找到吗?

python3中beautifulsoup的find函数的返回值的类型?

![![图片说明](https://img-ask.csdn.net/upload/201708/07/1502076565_904477.png)图片说明](https://img-ask.csdn.net/upload/201708/07/1502076553_327598.png)

python 正则表达式 findall和search的问题

代码: #coding=utf-8 import re s = 'abc111def abc222def abc345xyz abc678xyz' reg = r'(?<=abc)((?!abc).)+(?=xyz)' imgre = re.compile(reg) re.search(imgre, s) print ('re.search = ' + re.search(imgre, s).group()) print ('re.findall =', re.findall(imgre, s)) 结果: re.search = 345 re.findall = ['5', '8'] 跪求解释findall为啥不是['345', '678']

Python爬虫soup.findAll("li", {"class": "result"})为空

``` 大家好~ 我之前写的爬虫是单独针对某个页面的,比如新浪微博。这次需要在全网范围查询关于“开灯”有关的句子或文章,但是soup.findall("li",{"class":"result"})的结果一直是空。求助,谢谢。 PS:网上参考其他的例子,也都是在这个地方出问题,空的。。。 代码如下: #-*-coding:utf-8-*- __author__ = 'Daniel' #python3.5 #'爬取关于开灯的新闻' import re import urllib import chardet from bs4 import BeautifulSoup def remove_js_css(content): r = re.compile(r'''<scrip.*?</scrip>''', re.I|re.M|re.S) s = r.sub('', content) r = re.compile(r'''<style.*?</style>''', re.I|re.M|re.S) s = r.sub('', s) r = re.compile(r'''<!--.*?-->''', re.I|re.M|re.S) s = r.sub('', s) r = re.compile(r'''<meta.*?>''', re.I|re.M|re.S) s = r.sub('', s) r = re.compile(r'''<ins.*?</ins>''', re.I|re.M|re.S) s = r.sub('', s) return s def remove_empty_line(content): r = re.compile(r'''^\s+$''', re.M|re.S) s = r.sub('', content) r = re.compile(r'''\n+''', re.M|re.S) s = r.sub('\n', s) return s def remove_any_tag(s): s = re.sub(r'''<[^>]+>''', '', s) return s.strip() def remove_any_tag_but_a(s): text = re.findall(r'''<a[^r][^>]*>(.*?)</a>''', s, re.I|re.S|re.S) text_b = remove_any_tag(s) return len(''.join(text)), len(text_b) def remove_image(s, n=50): image = 'a' * n r = re.compile(r'''<img.*?>''', re.I|re.M|re.S) s = r.sub(image, s) return s def remove_video(s, n=1000): video = 'a' * n r = re.compile(r'''<embed.*?>''', re.I|re.M|re.S) s = r.sub(video, s) return s def sum_max(values): cur_max = values[0] glo_max = -99999 left, right = 0, 0 for index, value in enumerate(values): cur_max += value if(cur_max > glo_max): glo_max = cur_max right = index elif(cur_max < 0): cur_max = 0 for i in range(right, -1, -1): glo_max -= values[i] if abs(glo_max < 0.0001): left = i break return left, right + 1 def method_1(content, k = 1): if not content: return None, None, None, None tmp = content.split('\n') group_value = [] for i in range(0, len(tmp), k): group = '\n'.join(tmp[i:i+k]) group = remove_image(group) group = remove_video(group) text_a, text_b = remove_any_tag_but_a(group) temp = (text_b - text_a) - 8 group_value.append(tmp) left, right = sum_max(group_value) return left, right, len('\n'.join(tmp[:left])), len('\n'.join(tmp[:right])) def extract(content): content = remove_empty_line(remove_js_css(content)) left, right, x, y = method_1(content) return '\n'.join(content.split('\n')[left:right]) #输入url,将其新闻页的正文输入txt def extract_news_content(web_url, file_name): request = urllib.Request(web_url) #在请求加上头信息,伪装成浏览器访问 request.add_header('User-Agent','Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6') opener = urllib.build_opener() html = opener.open(request).read() infoencode = chardet.detect(html)['encoding']##通过第3方模块来自动提取网页的编码 if html != None and infoencode != None:#提取内容不为空,error.或者用else html = html.decode(infoencode, 'ignore') soup = BeautifulSoup(html) content = soup.renderContents() content_text = extract(content)#提取新闻网页中的正文部分,化为无换行的一段文字 content_text = re.sub("&nbsp;"," ",content_text) content_text = re.sub("&gt;","",content_text) content_text = re.sub("&quot;",'""',content_text) content_text = re.sub("<[^>]+>","",content_text) content_text = re.sub("\n","",content_text) file = open(file_name,'a')#append file.write(content_text) file.close() #抓取百度新闻搜索结果:中文搜索,前10页,url:key=关键词 def search(key_word): search_url = 'http://news.baidu.com/ns?word=key_word&tn=news&from=news&cl=2&rn=20&ct=1' req = urllib.request.urlopen(search_url.replace('key_word', key_word)) real_visited = 0 for count in range(10):#前10页 html = req.read() soup = BeautifulSoup(html) content = soup.findAll("li", {"class": "result"}) #resultset object num = len(content) for i in range(num): #先解析出来所有新闻的标题、来源、时间、url p_str = content[i].find('a') #if no result then nontype object contenttitle = p_str.renderContents() contenttitle = contenttitle.decode('utf-8', 'ignore')#need it contenttitle = re.sub("<[^>]+>", "", contenttitle) contentlink = str(p_str.get("href")) #存放顺利抓取的url,对比 visited_url = open(r'visited-cn.txt', 'r')#是否已经爬过 visited_url_list = visited_url.readlines() visited_url.close()#及时close exist = 0 for item in visited_url_list: if contentlink == item: exist = 1 if exist != 1:#如果未被访问url p_str2 = content[i].find('p').renderContents() contentauthor = p_str2[:p_str2.find("&nbsp;&nbsp")]#来源 contentauthor = contentauthor.decode('utf-8', 'ignore')#时 contenttime = p_str2[p_str2.find("&nbsp;&nbsp") + len("&nbsp;&nbsp") + 1:] contenttime = contenttime.decode('utf-8', 'ignore') #第i篇新闻,filename="D:\\Python27\\newscn\\%d.txt"%(i) #file = open(filename,'w'),一个txt一篇新闻 real_visited += 1 file_name = r"newscn\%d.txt"%(real_visited) file = open(file_name,'w') file.write(contenttitle.encode('utf-8')) file.write(u'\n') file.write(contentauthor.encode('utf-8')) file.write(u'\n') file.write(contenttime.encode('utf-8')) file.write(u'\n'+contentlink+u'\n') file.close() extract_news_content(contentlink, file_name)#还写入文件 visited_url_list.append(contentlink)#访问之 visited_url = open(r'visited-cn.txt', 'a')#标记为已访问,永久存防止程序停止后丢失 visited_url.write(contentlink+u'\n') visited_url.close() if len(visited_url_list) >= 120: break #解析下一页 if count == 0: next_num = 0 else: next_num = 1 next_page = 'http://news.baidu.com' + soup('a',{'href':True,'class':'n'})[next_num]['href'] # search for the next page#翻页 print(next_page) req = urllib.urlopen(next_page) if __name__=='__main__': #key_word = input('input key word:') key_word = 'helloworld' search(key_word) ```

selenium中利用find_element_by_css_selector来定位的问题。

![图片说明](https://img-ask.csdn.net/upload/201904/10/1554858949_573475.png) 要定位这个,copy selector显示的是 driver.find_elements_by_css_selector('#u1 > a.lb')[0] 想知道定位这个只有这一种写法吗 为什么检查元素里面的name onclick 不用考虑呢

用 driver.find_element_by_link_text('退出').click()异常

问题: python+seleniu做自动化用 driver.find_element_by_link_text('退出').click()做qq邮箱退出操作程序异常,求大神解答一下哪里有问题! 异常情况如下: File "D:/PycharmProjects/untitled/mainTest.py", line 13, in <module> login().user_logout(driver) File "D:\PycharmProjects\untitled\LoginPublic.py", line 24, in user_logout driver.find_element_by_link_text('退出').click() File "C:\Python27\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 282, in find_element_by_link_text return self.find_element(by=By.LINK_TEXT, value=link_text) File "C:\Python27\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 712, in find_element {'using': by, 'value': value})['value'] File "C:\Python27\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 201, in execute self.error_handler.check_response(response) File "C:\Python27\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 194, in check_response raise exception_class(message, screen, stacktrace) selenium.common.exceptions.NoSuchElementException Process finished with exit code 1 ![图片说明](https://img-ask.csdn.net/upload/201604/12/1460468206_925355.png)

python中__new__和__init__的区别是什么?

字数限制, 标题:python中__new__和__init__的区别,2.X版本中object.__call__的机制是什么? 书上是这样说的: "由于元类是type的一个子类,所以type类的__call__把创建和初始化新的类对象的调用委托给元类。type中的call调用meta中的__new__创建了一个新的类并返回。" 以下是我的猜测: 同样的机制也适用于普通类(也就是非元类)。 举例: class B(object): def __new__(cls, *args, **kwds): print "three" print cls print B print "B.__new__", args, kwds return object.__new__(cls, *args, **kwds) def __init__(cls, *args, **kwds): print "four" print "B.__init__", args, kwds class A(object): def __new__(cls, *args, **kwds): print "one" print "A.__new__", args, kwds return object.__new__(B, *args, **kwds) def __init__(cls, *args, **kwds): print "two" print "A.__init__", args, kwds print A() print "=====================" print B() 输出如下: one A.__new__ () {} <__main__.B object at 0x027F3DD0> ===================== three <class '__main__.B'> <class '__main__.B'> B.__new__ () {} four B.__init__ () {} <__main__.B object at 0x027F3CF0> 我的疑问是:为什么执行这条语句 return object.__new__(B, *args, **kwds) 之后,A.__init__没有被自动调用? 我猜测,__new__和__init__被默认调用,是由于object.__call__的存在。但是call里面的机制是什么呢。。。

Python用BeautifulSoup里的get_text(),为什么不能输出"女间谍"

*才学python爬虫(python3.4),如何输出里面的"女间谍"呢?求教* ```python htmll ='''<a class="nbg" href="http://movie.douban.com/subject/25752261/" title="女间谍"> <img alt="女间谍" class="" src="http://img4.douban.com/view/movie_poster_cover/ipst/public/p2254455238.jpg"/> </a>''' from bs4 import BeautifulSoup soup = BeautifulSoup(htmll) print(soup.a.img.get_text()) #输出结果为空 ```

mongo python用pymongo find 获取数据感觉很慢

mongo python用pymongo find 获取数据感觉很慢 for each in db.find(projection={"_id":1, "title":1, "core":1, content":1}): 没有做 where, 只有 project, 经过 5万条document的测试: 消耗 300多秒。 这个速度应该不科学吧。 是不是我 的 pymongo 写法错误,或者 mongo 有 快速的find 方法?

Python Beautifulsoup find()通过设查找text关键字返回空值,是不是编码问题,还是其他问题?

Beautifulsoup find(text=xx)查找关键字返回空值,是不是编码问题,还是其他问题? 有网友说是编码问题的帖子:https://blog.csdn.net/sc_lilei/article/details/78764360 但是没有成功。 代码如下: ``` headers = { 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36", 'Cookie': "" } t = requests.get(url='http://www.piao88.com/ticket/3059.html', headers=headers).text t.encoding = 'utf-8' soup = BeautifulSoup(t, "lxml") u = '周杰伦' f = soup.find_all(text=u) print(f) ```

Python __init__.py 包导入问题

今天写代码的时候遇到了一个问题,我自己写了一个包address。 其中__init__.py内容如下: __all__ = ['cpca', 'regulate'] 然后在外面文件夹建立了一个test.py准备使用这个包 发现导入遇到了一些问题 在test.py中只用import导入会报错找不到 import address print(address.regulate.index_address) 报错:module 'address' has no attribute 'regulate' 而通过from xxx import 就没有问题 from address import regulate print(regulate.index_address) 很好奇这个问题,虽然不影响正常编写,但是出于求真心理,很想知道是为什么,如果有知道的小伙伴希望可以解答一下,谢谢~

python re.findall方法截取字符串中某个字符后面的数字

![图片说明](https://img-ask.csdn.net/upload/201809/12/1536733018_879209.jpg) 我用$美元符号 可以得到后面数字100,但是用£ 英镑符号就得不到后面的数字 ,这是为什么呢?

关于python 抓取结果返回只有最后一个的问题

py新手,看着别人写了一个抓数据,遇到的问题是再内部循环中的结果result是正确的,最外部的结果只有内部的最后一个 ``` # -*- coding:utf-8 -*- import requests from bs4 import BeautifulSoup #抓取历史天气 #author wx #param year 年 #param month 月 def weaFetch(year,month): #初始化结果 result = {} #初始话url url = 'http://lishi.tianqi.com/beijing/' #加入年月得到完整的url resultUrl = url + year + month + '.html' #得到页面 res = requests.get(resultUrl) soup = BeautifulSoup(res.text,'html.parser') #找到要抓的内容位置 data = soup.find('div', {'class': 'tqtongji2'}) #内容集 ul = data.find_all('ul') #每天的天气内容 for day in ul[1:]: li = day.find_all('li') for daydata in li: #日期 result['date'] = li[0].string #最高温度 result['higntemp'] = li[1].string #最低温度 result['lowtemp'] = li[2].string #天气 result['weather'] = li[3].string #风向 result['wind'] = li[4].string #风力 result['windlevel'] = li[5].string #print(result) #print(result) #print(result) return result ```

Python BeautifulSoup获取属性值怎么?

代码如下: html=''' <img src = "//s3plus.meituan.net/v1/mss_e2821d7f0cfe4ac1bf9202ecf9590e67/cdn-prod/file:5788b470/image/loading_2.e3d934bf.png"alt = "hah"class ="poster-default"/> <img data-src = "https://p1.meituan.net/movie/20803f59291c47e1e116c11963ce019e68711.jpg@160w_220h_1e_1c"alt = "abc" class ="board-img"/>''' from bs4 import BeautifulSoup soup=BeautifulSoup(html,"lxml") print(soup.prettify()) print(soup.findAll(attrs='data-src')) ``` 输出的list为空 [] ``` 我想用beautifulsoup 来获取data-src这个属性的值,也就是这个 "https://p1.meituan.net/movie/20803f59291c47e1e116c11963ce019e68711.jpg@160w_220h_1e_1c" 各位大神,**如果 不用 beautifulsoup 的 CSS 选择器**,怎么获取?

python执行代码就出错can't find '__main__' module in '',请大神解决下谢谢!

一执行代码就是这个错误,新手不知道是什么问题:![图片说明](https://img-ask.csdn.net/upload/201910/15/1571138271_427078.png)![图片说明](https://img-ask.csdn.net/upload/201910/15/1571138282_869577.png) C:\Users\Administrator\AppData\Local\Programs\Python\Python37\python.exe: can't find '__main__' module in ''

python 中name , attrs , recursive , string , **kwargs 这些指什么

这是BeautifulSoup库中find_all()函数中的find_all( name , attrs , recursive , string , **kwargs ) 这些值都代表什么意思

YOLOv3目标检测实战:训练自己的数据集

YOLOv3目标检测实战:训练自己的数据集

150讲轻松搞定Python网络爬虫

150讲轻松搞定Python网络爬虫

实用主义学Python(小白也容易上手的Python实用案例)

实用主义学Python(小白也容易上手的Python实用案例)

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

立方体线框模型透视投影 (计算机图形学实验)

计算机图形学实验 立方体线框模型透视投影 的可执行文件,亲测可运行,若需报告可以联系我,期待和各位交流

2019 AI开发者大会

2019 AI开发者大会

组成原理课程设计(实现机器数的真值还原等功能)

实现机器数的真值还原(定点小数)、定点小数的单符号位补码加减运算、定点小数的补码乘法运算和浮点数的加减运算。

C/C++跨平台研发从基础到高阶实战系列套餐

一 专题从基础的C语言核心到c++ 和stl完成基础强化; 二 再到数据结构,设计模式完成专业计算机技能强化; 三 通过跨平台网络编程,linux编程,qt界面编程,mfc编程,windows编程,c++与lua联合编程来完成应用强化 四 最后通过基于ffmpeg的音视频播放器,直播推流,屏幕录像,

MFC一站式终极全套课程包

该套餐共包含从C小白到C++到MFC的全部课程,整套学下来绝对成为一名C++大牛!!!

软件测试2小时入门

软件测试2小时入门

三个项目玩转深度学习(附1G源码)

三个项目玩转深度学习(附1G源码)

计算机图形学-球的光照模型课程设计

计算机图形学-球的光照模型,有代码完美运行,有课程设计书

Linux常用命令大全(非常全!!!)

Linux常用命令大全(非常全!!!) 最近都在和Linux打交道,感觉还不错。我觉得Linux相比windows比较麻烦的就是很多东西都要用命令来控制,当然,这也是很多人喜欢linux的原因,比较短小但却功能强大。我将我了解到的命令列举一下,仅供大家参考: 系统信息 arch 显示机器的处理器架构 uname -m 显示机器的处理器架构 uname -r 显示正在使用的内核版本 d...

因为看了这些书,我大二就拿了华为Offer

四年了,四年,你知道大学这四年我怎么过的么?

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

fakeLocation13.5.1.zip

fakeLocation13.5.1 虚拟定位 ios13.5.1的最新驱动下载,iPhone/iPad免越狱虚拟定位工具Location-cleaned驱动已更新

UnityLicence

UnityLicence

Python可以这样学(第一季:Python内功修炼)

Python可以这样学(第一季:Python内功修炼)

Python+OpenCV计算机视觉

Python+OpenCV计算机视觉

土豆浏览器

土豆浏览器可以用来看各种搞笑、电影、电视剧视频

【数据结构与算法综合实验】欢乐连连看(C++ & MFC)案例

这是武汉理工大学计算机学院数据结构与算法综合实验课程的第三次项目:欢乐连连看(C++ & MFC)迭代开发代码。运行环境:VS2017。已经实现功能:开始游戏、消子、判断胜负、提示、重排、计时、帮助。

php+mysql学生成绩管理系统

学生成绩管理系统,分三个模块:学生,教师和管理员。 管理员模块:负责学生、老师信息的增删改;发布课程信息的增删改,以便让学生选课;审核老师提交的学生成绩并且打印成绩存档;按照课号查询每个课号的学生成绩

多功能数字钟.zip

利用数字电子计数知识设计并制作的数字电子钟(含multisim仿真),该数字钟具有显示星期、24小时制时间、闹铃、整点报时、时间校准功能

推荐24个国外黄色网站欣赏

在中国清朝,明黄色的衣服只有皇子才有资格穿,慢慢的黄色在中国就成了高贵的颜色。在人们的色彩印象中,黄色也表现为暂停。所以当你的网页设计采用黄色的时候,会让人们在你的网页前停留。 黄色,就像橙色和红色,黄色也是一个暖色。它有大自然、阳光、春天的涵义,而且通常被认为是一个快乐和有希望的色彩。黄色是所有色相中最能发光的颜色,给人轻快,透明,辉煌,充满希望的色彩印象。 黄色是一个高可见的色...

u-boot-2015.07.tar.bz2

uboot-2015-07最新代码,喜欢的朋友请拿去

一学即懂的计算机视觉(第一季)

一学即懂的计算机视觉(第一季)

学生成绩管理系统(PHP + MYSQL)

做的是数据库课程设计,使用的php + MySQL,本来是黄金搭配也就没啥说的,推荐使用wamp服务器,里面有详细的使用说明,带有界面的啊!呵呵 不行的话,可以给我留言!

Windows版YOLOv4目标检测实战:训练自己的数据集

Windows版YOLOv4目标检测实战:训练自己的数据集

C++语言基础视频教程

C++语言基础视频教程

玩转Python-Python3基础入门

玩转Python-Python3基础入门

相关热词 c# 开发接口 c# 中方法上面的限制 c# java 时间戳 c#单元测试入门 c# 数组转化成文本 c#实体类主外键关系设置 c# 子函数 局部 c#窗口位置设置 c# list 查询 c# 事件 执行顺序
立即提问