urllib.request.build_opener()的作用是什么,为什么要用这个函数创建一个实例化对象

opener = urllib.request.build_opener()
# 请求头
opener.addheaders = [
# ('Host', 'upos-hz-mirrorks3.acgvideo.com'), #注意修改host,不用也行
('User-Agent', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.13; rv:56.0) Gecko/20100101 Firefox/56.0'),
('Accept', '*/*'),
('Accept-Language', 'en-US,en;q=0.5'),
('Accept-Encoding', 'gzip, deflate, br'),
('Range', 'bytes=0-'), # Range 的值要为 bytes=0- 才能下载完整视频
('Referer', start_url), # 注意修改referer,必须要加的!
('Origin', 'https://www.baidu.com'),
('Connection', 'keep-alive'),
]
urllib.request.install_opener(opener)
以上是部分代码片段

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python3用urllib.request为什么会导致程序不停的爬取数据而导致程序崩溃?

这是我的源代码![图片说明](https://img-ask.csdn.net/upload/201707/05/1499221937_157417.png) 然后这是运行之后![图片说明](https://img-ask.csdn.net/upload/201707/05/1499221968_890861.png) 就一直卡住,一直在爬数据,请问为什么呢?

ssl._create_default_https_context无效

是否是使用了代理后 ssl._create_default_https_context = ssl._create_unverified_context 无效 # 获取代理ip def get_proxy(): return requests.get("http://127.0.0.1:5010/get/").content # 获得页面数据 def do_spider(page_no=1, encoding="gbk", parse_url="null"): ssl._create_default_https_context = ssl._create_unverified_context proxy = request.ProxyHandler({ "sock5": get_proxy() }) opener = request.build_opener(proxy) opener.addheaders = [('User-agent', 'Mozilla/5.0')] request.install_opener(opener) # 对于二级页面进行爬取 if parse_url == "null": html_bytes = request.urlopen(url.format(page_no)).read() else: html_bytes = request.urlopen(parse_url).read() html_code = str(html_bytes, encoding) return html_code 异常 Traceback (most recent call last): File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\urllib\request.py", line 1318, in do_open encode_chunked=req.has_header('Transfer-encoding')) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\http\client.py", line 1239, in request self._send_request(method, url, body, headers, encode_chunked) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\http\client.py", line 1285, in _send_request self.endheaders(body, encode_chunked=encode_chunked) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\http\client.py", line 1234, in endheaders self._send_output(message_body, encode_chunked=encode_chunked) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\http\client.py", line 1026, in _send_output self.send(msg) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\http\client.py", line 964, in send self.connect() File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\http\client.py", line 936, in connect (self.host,self.port), self.timeout, self.source_address) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\socket.py", line 724, in create_connection raise err File "C:\Users\Administrator\AppData\Local\Programs\Python\Python36-32\Lib\socket.py", line 713, in create_connection sock.connect(sa) TimeoutError: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。 循环6次左右后就会爆上面这个异常

Python爬虫,我用bs4的find方法为什么反回的是空值?怎么解决(已解决)?

代码如下: ``` import time import random import requests import urllib from bs4 import BeautifulSoup headers=("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36") opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) class UserAgent(): def _get_UA(self,html): soup = BeautifulSoup(html, "html.parser") ip_get = [] ip_list = soup.find_all("tr") for i in range(1,len(ip_list)): ip_both = ip_list[i].find_all("td") front = ip_both[1].text+':' ip_get.append(front+ip_both[2].text) time.sleep(random.randint(15,20)) return ip_get def _get_html(self,html): if html==None: this_html=urllib.request.urlopen('https://www.xicidaili.com/nn/1') else: soup = BeautifulSoup(html,"html.parser") next_page_url = soup.find("a",class_="next_page") print(next_page_url) html = urllib.request.urlopen('https://www.xicidaili.com'+next_page_url) this_html = html return this_html ``` 错误出在_get_html方法中else里面的代码,传入的地址没有问题,我用浏览器可以正常打开地址https://www.xicidaili.com/nn/1 主运行代码如下: ``` n = User_Agent.UserAgent() ip_html = n._get_html(None) fake_ip = n._get_UA(ip_html) ip_html = n._get_html(ip_html) ``` 还有报错是这么说的: ``` Traceback (most recent call last): File "E:\java4412\spider_demo\book_spider\main.py", line 21, in <module> None ip_html = n._get_html(ip_html) File "E:\java4412\spider_demo\book_spider\User_Agent.py", line 35, in _get_html html = urllib.request.urlopen('https://www.xicidaili.com'+next_page_url) TypeError: Can't convert 'NoneType' object to str implicitly ``` 有哪位大牛帮我看看这代码哪里不对么?本小白已经要疯了。。。。。 =========================分割线================================================================= 问题已解决 原因是我原先一直用一个固定header 我找了一个别人收集的User_Agent集合,在代码中随机更换header。 更改后的代码如下: ``` class UserAgent(): def _get_UA(self,soup): headers=("User-Agent",Headers.getheaders()) opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) # soup = BeautifulSoup(html, "html.parser") ip_get = [] ip_list = soup.find_all("tr") for i in range(1,len(ip_list)): ip_both = ip_list[i].find_all("td") front = ip_both[1].text+':' ip_get.append(front+ip_both[2].text) time.sleep(random.randint(15,20)) return ip_get def _get_html_first(self): headers=("User-Agent",Headers.getheaders()) opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) this_html=urllib.request.urlopen('https://www.xicidaili.com/nn/1') soup = BeautifulSoup(this_html,"html.parser") return soup def _get_soup(self,soup): headers=("User-Agent",Headers.getheaders()) opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) next_page_url = soup.find("a",class_="next_page").get('href') print(next_page_url) html = urllib.request.urlopen('https://www.xicidaili.com'+next_page_url) soup = BeautifulSoup(html,'html.parser') return soup ``` 进行了一定的修改,可以正确运行。其中的_print()_是我为验证结果打的。

python获取微博接口发微博出现403禁止访问的情况

利用微博的开放的接口,加上大佬的weibo sdk包,最后使用post.statuses update方法 来提交post请求,从而发一条微博。使用它的get方法的时候都没有问题的,但是一使用它的post中的请求的时候就会出问题: ``` urllib.error.HTTPError: HTTP Error 403: Forbidden ``` 下面是我整个的代码: ``` from weibo import APIClient import urllib.request import urllib.parse def weibo(): APP_KEY = '528248027' APP_SECRET = '4dfcbaf24dc2341d41aea5b462ac61f6' CALLBACK_URL = 'https://api.weibo.com/oauth2/default.html' OAUTH_URL = 'https://api.weibo.com/oauth2/default.html' USER_ID = '6270069375' PASSWORD = '19981027lcy' client = APIClient(app_key=APP_KEY, app_secret=APP_SECRET, redirect_uri=CALLBACK_URL) refer_url = client.get_authorize_url() print("refer_url is :", refer_url) cookies = urllib.request.HTTPCookieProcessor() opener = urllib.request.build_opener(cookies) urllib.request.install_opener(opener) postdata = { 'client_id': APP_KEY, 'redirect_uri': CALLBACK_URL, 'userId': USER_ID, 'passwd': PASSWORD, 'isLoginSina': "1", 'action': 'submit', 'response_type': 'code' } headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36', 'Host': 'open.weibo.com', 'Referer': refer_url } req = urllib.request.Request( url=OAUTH_URL, data=urllib.parse.urlencode(postdata).encode(encoding='UTF8'), headers=headers, ) resp = urllib.request.urlopen(req) print('callback url is :', resp.geturl()) pat = 'code=(.*?)$' print(resp.geturl()) code = input('input code:') print('code is :', code) r = client.request_access_token(code, redirect_uri=CALLBACK_URL) access_token1 = r.access_token expires_in = r.expires_in print('access_token=', access_token1) print('expires_in=', expires_in) #client.set_access_token(access_token1, expires_in) return client, access_token1, refer_url, expires_in def main(): client, access_token, refer_url, expires_in = weibo() client.set_access_token(access_token=access_token, expires_in=expires_in)#已经设置的授权,所有的get方法都是行得通的,就是不能提交post请求 print('用户id:', client.get.account__get_uid()) result5 = client.post.statuses__update(source='528248027', status='写一个小微博', geo_enabled=True)#发一条微博 print(result5) if __name__ == '__main__': main() ``` 这个要是放在爬虫里面,就是需要加一些headers就可以解决了,但是在这里面,我已经获得授权了,就是已经设置过了client的access_token: ``` client.set_access_token(access_token=access_token, expires_in=expires_in) ```

python'模拟登陆网站一直返回登陆界面

import urllib.request import urllib.parse import http.cookiejar def gethtml(url): cj = http.cookiejar.CookieJar() cookie_jar = urllib.request.HTTPCookieProcessor(cj) opener = urllib.request.build_opener(cookie_jar) urllib.request.install_opener(opener) page = urllib.request.urlopen('*******') for index, cookie in enumerate(cj): print ('[',index, ']',cookie) data = { 'username':'****', 'password':'****', 'execution':'e1s1', 'lt':'LT-68105-mdbC4YmMWgjyDwVV5bI3jOWfo0FCcb-1440307068488', '_eventId':'submit', 'rmShown':'1' } postdata = urllib.parse.urlencode(data).encode('utf-8') headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2357.130 Safari/537.36', 'Referer':'******'} req = urllib.request.Request(url,data=postdata,headers=headers) response = urllib.request.urlopen(req) return response.read() def getgrade(url): html = gethtml(url).decode('utf-8') print(html) if __name__ == '__main__': url = '******' getgrade(url) 第一个print语句可以打印出两行cookie 第二个print html一直打印的登陆界面,求高手指教。。

为什么我一用代理就会出现'list' object is not callable错误

import urllib.request import random import re def url_open(url): headers = {'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Referer':'http://www.gamersky.com/ent/201711/975615_2.shtml', 'Upgrade-Insecure-Requests':'1'} data = None req = urllib.request.Request(url, data, headers) req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0') iplist = ['182.16.175.2:53281','201.144.14.229:53281',' 87.228.29.154:53281'] proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)}) opener = urllib.request.build_opener(proxy_support) opener.addheaders('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0') urllib.request.install_opener(opener) response = urllib.request.urlopen(url) html = response.read() return html def find_imgs(url): html = url_open(url).decode('utf-8') pa = re.compile(r'http.+?/.jpg') imglists = pa.findall(html) return imglists def save_imgs(img_addrs): for each in img_addrs: filename = each.split('/')[-1] with open(filename, 'wb') as f: img = url_open(each) f.write(img) def download_mm(pages=10): url = 'http://www.gamersky.com/' for i in range(pages): if i==1: page_url = url + 'ent/201711/975615' + 'shtml' else: page_url = url + 'ent/201711/975615_' + str(i) + 'shtml' img_addrs = find_imgs(page_url) save_imgs(img_addrs) if __name__ == '__main__': download_mm()

can't concat str to bytes

import urllib.request import urllib.parse url="https://www.baidu.com/s?" header=urllib.request.HTTPHandler() opener=urllib.request.build_opener(header) ser=input("请输入你要查询的内容") date={ 'word' : ser, } date=urllib.parse.urlencode(date) url+=date print(url) headers={ 'User-Agent' : 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Mobile Safari/537.36', } req=urllib.request.Request(url,headers) response=opener.open(req) print(response) 报错如下: Traceback (most recent call last): File "D:/PycharmProjects/search.py", line 18, in <module> response=opener.open(req) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\urllib\request.py", line 525, in open response = self._open(req, data) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\urllib\request.py", line 543, in _open '_open', req) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\urllib\request.py", line 503, in _call_chain result = func(*args) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\urllib\request.py", line 1360, in https_open context=self._context, check_hostname=self._check_hostname) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\urllib\request.py", line 1317, in do_open encode_chunked=req.has_header('Transfer-encoding')) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\http\client.py", line 1229, in request self._send_request(method, url, body, headers, encode_chunked) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\http\client.py", line 1275, in _send_request self.endheaders(body, encode_chunked=encode_chunked) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\http\client.py", line 1224, in endheaders self._send_output(message_body, encode_chunked=encode_chunked) File "C:\Users\MaiBenBen\AppData\Local\Programs\Python\Python37\lib\http\client.py", line 1054, in _send_output + b'\r\n' TypeError: can't concat str to bytes

too many values to unpack 错误

python 3.6,用urllib库尝试爬取url url="http://blog.csdn.net/weiwei_pig/article/details/51178226" headers=("User-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/ 537.36") opener=urllib.request.build_opener() opener.addheaders=[headers] data=opener.open(url).read() 错误提示如下: Traceback (most recent call last): File "/Users/nathanlu/PycharmProjects/learn/spider.py", line 27, in <module> data=opener.open(url).read() File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/urllib/request.py", line 524, in open req = meth(req) File "/Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/urllib/request.py", line 1269, in do_request_ for name, value in self.parent.addheaders: ValueError: too many values to unpack (expected 2) 请问什么原因?

Python使用Post将图像发送到服务器上的PHP脚本,图像到达但已损坏且小于应有的值

<div class="post-text" itemprop="text"> <p>I'm attempting to use my ubuntu server to run some measurement code on an image that I can't run locally(it's a windows issue).</p> <p>The local script is written in python3, which sends the image to a php script on the server.</p> <p>The image does show up on the server side with the correct name but when I open it, linux mint tells me "Fatal eorror reading PNG image file: Not PNG file". </p> <p>The original image is over 200 kb while the server site image received is only 40 bytes so it looks as if it's corrupted or didn't all get received.</p> <p>I'm now on hour 6 trying to get this to work having looked over dozens of tutorials and similar examples here on stackoverflow. I'm willing to admit now that I must be missing something. Any help would be greatly appreciated.</p> <p>If I echo "file_get_contents('php://input');" on the php server side it spits out "file=%3C_io.BufferedReader+name%3D%271.png%27%3". No sure if that helps any.</p> <p>Python3 local script</p> <pre><code>import urllib.request, urllib.parse import requests url = 'http://165.227.207.246/returnState.php' data = { 'file': open('1.png', 'rb') } opener = urllib.request.build_opener() opener.addheaders = [('Content-Type', 'image/png')] urllib.request.install_opener(opener) data = bytes( urllib.parse.urlencode( data ).encode() ) handler = urllib.request.urlopen( url, data ); print( handler.read().decode( 'utf-8' ) ); </code></pre> <p>PHP receiving script </p> <pre><code>file_put_contents("/var/www/html/screens/1.png", file_get_contents('php://input')); #move_uploaded_file($uploadfile,'var/www/html'); var_dump($_FILES); echo 'DONE'; </code></pre> </div>

python模拟csdn的登录页面,可是登录失败,只是返回登陆页面的代码

#!/usr/bin/python #encoding=utf-8 import HTMLParser import urlparse import urllib import urllib2 import cookielib import string import re hosturl = 'http://my.csdn.net' posturl = 'http://passport.csdn.net/account/login?from=http%3A%2F%2Fmy.csdn.net%2Fmy%2Fmycsdn' cj = cookielib.LWPCookieJar() cookie_support = urllib2.HTTPCookieProcessor(cj) opener = urllib2.build_opener(cookie_support, urllib2.HTTPHandler) urllib2.install_opener(opener) h = urllib2.urlopen(hosturl) headers = {'User-Agent' : 'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)', 'Referer' : 'http://passport.csdn.net/account/login?from=http%3A%2F%2Fmy.csdn.net%2Fmy%2Fmycsdn'} postData = { 'username':'*********', 'password':'*********', 'lt':'LT-1728924-nkb2bYmCwt30gGmFIxbF4bADYiW2bf', 'execution':'e4s1', '_eventId':'submit' } postData = urllib.urlencode(postData) request = urllib2.Request(posturl, postData, headers) print request response = urllib2.urlopen(request) text = response.read() print text

关于'utf-8' codec can't encode characters..

import re import urllib.request import http.cookiejar import gzip from io import StringIO from bs4 import BeautifulSoup vid = '1472528692' comid = '6345478485121181104' url = 'https://coral.qq.com/article/'+vid+'/comment?commentid='+comid+'&reqnum=20' headers = {'accept':'*/*', 'accept-language':'zh-CN,zh;q=0.8', 'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4033.400 QQBrowser/9.6.12624.400', 'connection':'keep-alive','referer':'qq.com'} cjar = http.cookiejar.CookieJar() opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cjar)) headall = [] for key,value in headers.items(): item = (key,value) headall.append(item) opener.addheaders = headall urllib.request.install_opener(opener) def craw(vid,comid): url = 'https://coral.qq.com/article/'+vid+'/comment?commentid='+comid+'&reqnum=20' doc = urllib.request.urlopen(url).read().decode('utf-8') return doc idpat = '"id":"(.*?)"' usepat = '"nick":"(.*?)",' conpat = '"content":"(.*?)",' for i in range(1,10): print('--------------------------------------------') print("第"+str(i)+"页评论内容") data = craw(vid,comid) idlist = re.compile(idpat, re.S).findall(data) userlist = re.compile(usepat, re.S).findall(data) conlist = re.compile(conpat, re.S).findall(data) for j in range(0,20): print("用户名是:"+eval('u"'+userlist[j]+'"')) print("内容是:"+eval('u"'+conlist[j]+'"')) print("\n") comid = idlist[19] 我想爬取用户名和评论,但是代码运行之后出现: 'utf-8' codec can't encode characters in position 4-5: surrogates not allowed 请问各位是什么问题吗? 本来这一个是gzip解码,但是我找不到解决解码gzip的方法,看到网上说直接删掉accept encoding那一段就可以了,但是删完之后就出现上面的问题。 求各位大神,已经解决几天这个问题了,新手实在头疼。 感谢!!!

Sublime text 安装Package Control失败如何解决?【已解决!】

## 问题出现 &nbsp; 在sublime text 3中按下Ctrl+` 键 打开console,输入代码,由于连接不上服务器,没有响应,所以参考了其他文章试图直接下载Package Control文件。 &nbsp; 按照《sublime使用Package Control不能正常使用的解决办法》一文中前往GitHub下载文件并重命名为Package Control,放在Package文件夹里仍报错。 &nbsp; 原文地址:https://blog.csdn.net/az44yao/article/details/85199159 &nbsp; 截图如下:![图片说明](https://img-ask.csdn.net/upload/201901/26/1548486902_275939.jpg) &nbsp; “it appears you have Package Control installed as both a .sublime-package file and a directory inside of the package folder”似乎您已将包控件安装为.sublime包文件和包文件夹内的目录。 &nbsp; 还是删除掉这些,自己重新下载Package Control吧。经过漫长的寻找适合方法后,参阅了知乎大神的解答,传送门→https://www.zhihu.com/question/36233553 &nbsp; 显示“由于服务器长时间未响应,连接失败”的字样,这一般是网络不给力。 &nbsp; ## 问题解决 &nbsp; 解决办法很简单,也很粗暴: **换网!!!换网!!!换网!!!** &nbsp; **方法是这样的**: &nbsp; 将 **手机热点** 打开, **电脑链接手机热点,再次重试!** &nbsp; ctrl+`打开控制台,粘贴代码运行。 &nbsp; `import urllib.request,os,hashlib; h = '2915d1851351e5ee549c20394736b442' + '8bc59f460fa1548d1514676163dafc88'; pf = 'Package Control.sublime-package'; ipp = sublime.installed_packages_path(); urllib.request.install_opener( urllib.request.build_opener( urllib.request.ProxyHandler()) ); by = urllib.request.urlopen( 'http://packagecontrol.io/' + pf.replace(' ', '%20')).read(); dh = hashlib.sha256(by).hexdigest(); print('Error validating download (got %s instead of %s), please try manual install' % (dh, h)) if dh != h else open(os.path.join( ipp, pf), 'wb' ).write(by)` &nbsp; 终于成功了!(撒花✿✿ヽ(°▽°)ノ✿) &nbsp; 困扰了我3个月的问题啊,终于可以用Package Control来安装插件了!!这一刻心塞与激动交错。特此结篇,希望能帮助到各位伙伴。加油鸭! &nbsp; &nbsp;

请问python获取cookie有的网址失败是什么原因呢?

``` from urllib import request from http import cookiejar import requests if __name__ == '__main__': ''' cookie = cookiejar.CookieJar() handler = request.HTTPCookieProcessor(cookie) opener = request.build_opener(handler) response = opener.open('http://search.10jqka.com.cn/viewswf/findnote/527a75f3c1667429.html') for item in cookie: print('Name = %s' % item.name) print('Value = %s' % item.value) ``` 结果异常:urllib.error.HTTPError: HTTP Error 403: Forbidden 但是其他网址比如CSDN就可以,紧急求助!入门小菜鸡先谢谢大佬们!

python3的request怎么post同名的多个不同数值的数据

谢谢各位大牛进来解答,小新人非常感谢! 我想用request的提交方式post数据,但是我要post的数据是有同名多个数值的,请问应该怎么写代码呢? 我用Firefox的firebug插件查到post的数据是{“time”:"XXXXXX","time":"XXXXXX"},因为网页里原本是个申请表单,申请的时间段是个多选框,因此会有多个需要使用同名提交的不同数据。 我在网上找了好多都没有找到解决办法,只好来请教各位大神了。 下面是我写的代码,表单要提交的别的数据和网址我就去掉了,因为要登录什么的。。。 再次感谢!!!! ``` # -*- encoding="utf-8" -*- #!/etc/bin/env python3 import sys,msvcrt from http import cookiejar from urllib import request,error,parse import re time = ["8点-8点30分","8点30分-9点","9点-9点30分","9点30分-10点",\ "10点-10点30分","10点30分-11点","11点-11点30分","11点30分-12点",\ "12点-12点30分","12点30分-13点","13点-13点30分","13点30分-14点",\ "14点-14点30分","14点30分-15点","15点-15点30分","15点30分-16点",\ "16点-16点30分","16点30分-17点","17点-17点30分","17点30分-18点",\ "18点-18点30分","18点30分-19点","19点-19点30分","19点30分-20点",\ "20点-20点30分","20点30分-21点","21点-21点30分","21点30分-22点",\ "22点-22点30分","22点30分-23点"] for i in range(len(time)): if i%3==0: print ('') print ("【" +str(i+1)+ "】" + time[i]+" ", end = '') n = input("请问需要输入几个时间点?(1-30) ") n = int(n) time_list = [] i = 0 while i<n: j = input("请输入第"+str(i+1)+"个时间点: ") j = int(j) j = j-1 time_list.append(time[j]) i = i+1 url="" cookies= cookiejar.MozillaCookieJar() handler = request.HTTPCookieProcessor(cookies) headers={"User-Agent":"Mozilla/5.0"} opener = request.build_opener(handler) opener.open(url) for item in cookies: if "csrftoken" == item.name: csrftoken= item.value req=request.Request(url,data,headers) res=opener.open(req) ```

python 爬虫 too many values to unpack (expected 2)

``` import urllib.request as ur header =( "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36 QIHU 360EE") opener = ur.build_opener() url = "https://www.jianshu.com/p/2d8e4416c077" data = opener.open(url).read() ``` 报错 报错 报错 ``` ValueError Traceback (most recent call last) <ipython-input-63-36e685c3559f> in <module> 1 url = "https://www.jianshu.com/p/2d8e4416c077" ----> 2 data = opener.open(url).read() D:\softs\anaconda\lib\urllib\request.py in open(self, fullurl, data, timeout) 521 for processor in self.process_request.get(protocol, []): 522 meth = getattr(processor, meth_name) --> 523 req = meth(req) 524 525 response = self._open(req, data) D:\softs\anaconda\lib\urllib\request.py in do_request_(self, request) 1266 if not request.has_header('Host'): 1267 request.add_unredirected_header('Host', sel_host) -> 1268 for name, value in self.parent.addheaders: 1269 name = name.capitalize() 1270 if not request.has_header(name): ValueError: too many values to unpack (expected 2) ``` 请问如何解决?

python3写的登陆知乎爬虫出错

``` import gzip import re import http.cookiejar import urllib.request import urllib.parse def ungzip(data): try: # 尝试解压 print('正在解压.....') data = gzip.decompress(data) print('解压完毕!') except: print('未经压缩, 无需解压') return data def getXSRF(data): cer = re.compile('name="_xsrf" value="(.*)"', flags = 0) strlist = cer.findall(data) return strlist[0] def getOpener(head): # deal with the Cookies cj = http.cookiejar.CookieJar() pro = urllib.request.HTTPCookieProcessor(cj) opener = urllib.request.build_opener(pro) header = [] for key, value in head.items(): elem = (key, value) header.append(elem) opener.addheaders = header return opener header = { 'Connection': 'Keep-Alive', 'Accept': 'text/html, application/xhtml+xml, */*', 'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko', 'Accept-Encoding': 'gzip, deflate', 'Host': 'www.zhihu.com', 'DNT': '1' } url = 'http://www.zhihu.com/' opener = getOpener(header) op = opener.open(url) data = op.read() data = ungzip(data) # 解压 _xsrf = getXSRF(data.decode()) url += 'login' id = '这里填你的知乎帐号' password = '这里填你的知乎密码' postDict = { '_xsrf':_xsrf, 'email': id, 'password': password, 'rememberme': 'y' } postData = urllib.parse.urlencode(postDict).encode() op = opener.open(url, postData) data = op.read() data = ungzip(data) print(data.decode()) ``` 我跟这个网站直接拷贝的[](http://jecvay.com/2014/10/python3-web-bug-series4.html "") 但运行后会报错 ![图片说明](https://img-ask.csdn.net/upload/201508/20/1440048095_867854.jpg) 求指导

Python爬取出现Internal Server Error问题

``` import re import urllib.request fh=open('C:\\Users\\Hear-H\\Desktop\\汽车企业数据\\新建文件夹\\298.txt','w',encoding='utf-8') area='<li><span>公司地区</span>(.*?)</li>' area1=area.encode('utf-8') time='<span>成立时间</span>(.*?)</li>' time1=time.encode('utf-8') address='<span>地址</span>(.*?)</li>' address1=address.encode('utf-8') client='<p id=\"maintypicClient\">(.*?)</p>' product='<p id=\"product\">(.*?)</p>' i=0 pat='<a target=\"_blank\" href=\"(http://i.gasgoo.com/supplier/.*?)\">' headers=('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36') opener=urllib.request.build_opener() opener.addheaders=[headers] while i<100: i+=1 url="http://i.gasgoo.com/supplier/c-298/index-"+str(i)+".html" web=opener.open(url).read().decode('utf-8') rst=re.compile(pat).findall(web) rst1=list() for a in rst: if a not in rst1: rst1.append(a) rst1.pop(0) for b in rst1: pat1=b+'\">(.*?)</a>' name=re.compile(pat1).findall(web) name_d=''.join(name) url1=b website1=opener.open(url1).read().decode('utf-8').encode('utf-8') website2=opener.open(url1).read().decode('utf-8') result1=re.compile(area1).findall(website1) for c in result1: result1_d=c.decode('utf-8') result2=re.compile(time1).findall(website1) for d in result2: result2_d=d.decode('utf-8') result3=re.compile(address1).findall(website1) for e in result3: result3_d=e.decode('utf-8') result4=re.compile(client).findall(str(website2)) result4_d=''.join(result4) result5=re.compile(product).findall(str(website2)) result5_d=''.join(result5) print(name_d+'?'+result1_d+'?'+result2_d+'?'+result3_d+'?'+result4_d+'?'+result5_d+'\n') fh1=fh.write(name_d+'?'+result1_d+'?'+result2_d+'?'+result3_d+'?'+result4_d+'?'+result5_d+'\n') fh.close ``` 就是我在爬取汽车企业数据网站的时候出现了HTTPError: Internal Server Error的问题,但是我上网查的时候一般说Internal Server Error出现的时候都会有500之类的数字提示,这里也没有,所以请问各位大佬一下,出现这种情况是不是只能用代理了呢?或者还有其他的方法 ``` Traceback (most recent call last): File "<ipython-input-1-7c05d0a2c578>", line 1, in <module> runfile('C:/Users/Hear-H/Desktop/汽车企业数据/汽车企业数据挖掘.py', wdir='C:/Users/Hear-H/Desktop/汽车企业数据') File "D:\Anaconda\lib\site-packages\spyder_kernels\customize\spydercustomize.py", line 786, in runfile execfile(filename, namespace) File "D:\Anaconda\lib\site-packages\spyder_kernels\customize\spydercustomize.py", line 110, in execfile exec(compile(f.read(), filename, 'exec'), namespace) File "C:/Users/Hear-H/Desktop/汽车企业数据/汽车企业数据挖掘.py", line 39, in <module> website1=opener.open(url1).read().decode('utf-8').encode('utf-8') File "D:\Anaconda\lib\urllib\request.py", line 531, in open response = meth(req, response) File "D:\Anaconda\lib\urllib\request.py", line 641, in http_response 'http', request, response, code, msg, hdrs) File "D:\Anaconda\lib\urllib\request.py", line 569, in error return self._call_chain(*args) File "D:\Anaconda\lib\urllib\request.py", line 503, in _call_chain result = func(*args) File "D:\Anaconda\lib\urllib\request.py", line 649, in http_error_default raise HTTPError(req.full_url, code, msg, hdrs, fp) HTTPError: Internal Server Error ```

爬虫(python):为什么验证码总是验证失败(内有描述)?

#这是一个试图模拟12306登陆的程序,只到验证码部分 import urllib.request as U import urllib.parse as P import http.cookiejar as C import ssl import chardet as cd ssl._create_default_https_context = ssl._create_unverified_context #无视证书的有效性 opener = U.build_opener(U.HTTPCookieProcessor(C.CookieJar())) U.install_opener(opener) #创建一个访问者(具有cookie功能) req = U.Request("https://kyfw.12306.cn/passport/captcha/captcha-image64?login_site=E&module=login&rand=sjrand&1581337391968&callback=jQuery19109972447551572461_1581326959299&_=1581326959322") req.headers["User-Agent"] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362" res = opener.open(req) #申请验证码 url = "data:image/jpg;base64," + res.read().decode("utf-8").split('({"image":"')[1].split('","result_message"')[0] #12306分为申请验证码和生成两部分,这是根据两部分的URL规律,生成的验证码图片的URL req = U.Request(url) req.headers["User-Agent"] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362" res = opener.open(req) code_img = res.read() with open("D:\\py\\测试_练习综合体\\py练习\\imagecode12306.png","wb") as f: f.write(code_img) #获取验证码 pass_code = input("请输入验证码(坐标):") #根据图片获取验证码坐标 data = {"callback":"jQuery19109972447551572461_1581326959299","answer":pass_code,"rand":"sjrand","login_site":"E","_":"1581326959323"} data = P.urlencode(data).encode("utf-8") req = U.Request("https://kyfw.12306.cn/passport/captcha/captcha-check?callback=jQuery19109972447551572461_1581326959299&answer=188%2C49%2C30%2C39&rand=sjrand&login_site=E&_=1581326959323") req.headers["User-Agent"] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362" res = opener.open(req,data = data) html = res.read().decode("utf-8") #验证码验证 #疑问:为什么验证码验证总是失败了(通过html获得结果)

python模拟登陆显示HTTP Error401

初接触爬虫,按照网上的做法模拟登陆,可是报错显示HTTP Error401,用户名密码是对的,而且用别的网站试的话也能出结果,不知道是不是因为这个是https协议的问题。对这部分不太了解,望各位不吝赐教。 import urllib import urllib2 import cookielib filename='cookie.txt' cookie=cookielib.MozillaCookieJar(filename) opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) data={'identity':'***********','password':'************'} postdata=urllib.urlencode(data) #登陆 loginUrl='https://www.space-track.org/auth/login' result=opener.open(loginUrl,postdata) #保存cookie cookie.save(ignore_discard=True,ignore_expires=True) #利用cookie请求访问另一个网址 gradeUrl='https://beta.space-track.org/basicspacedata/query/class/tle/format/tle/NORAD_CAT_ID/38046/orderby/EPOCH%20desc/limit/1' result=opener.open(gradeUrl) print result.read()

2019 AI开发者大会

2019 AI开发者大会(AI ProCon 2019)是由中国IT社区CSDN主办的AI技术与产业年度盛会。多年经验淬炼,如今蓄势待发:2019年9月6-7日,大会将有近百位中美顶尖AI专家、知名企业代表以及千余名AI开发者齐聚北京,进行技术解读和产业论证。我们不空谈口号,只谈技术,诚挚邀请AI业内人士一起共铸人工智能新篇章!

实现简单的文件系统

实验内容: 通过对具体的文件存储空间的管理、文件的物理结构、目录结构和文件操作的实现,加深对文件系统内部功能和实现过程的理解。 要求: 1.在内存中开辟一个虚拟磁盘空间作为文件存储器,在其上实现一个简

MIPS单周期CPU-组成原理实验-华中科技大学

使用logisim布线完成的MIPS单周期CPU,可支持28条指令。跑马灯的代码已经装入了寄存器,可以直接开启时钟运行。

2019数学建模A题高压油管的压力控制 省一论文即代码

2019数学建模A题高压油管的压力控制省一完整论文即详细C++和Matlab代码,希望对同学们有所帮助

基于QT和OpenCV的五子棋实现源码

一个简单的五子棋应用,基于QT和OpenCV的实现源码,通过相邻棋子判断是否获胜,不包含人工智能算法,适合新手入门

Git 实用技巧

这几年越来越多的开发团队使用了Git,掌握Git的使用已经越来越重要,已经是一个开发者必备的一项技能;但很多人在刚开始学习Git的时候会遇到很多疑问,比如之前使用过SVN的开发者想不通Git提交代码为什么需要先commit然后再去push,而不是一条命令一次性搞定; 更多的开发者对Git已经入门,不过在遇到一些代码冲突、需要恢复Git代码时候就不知所措,这个时候哪些对 Git掌握得比较好的少数人,就像团队中的神一样,在队友遇到 Git 相关的问题的时候用各种流利的操作来帮助队友于水火。 我去年刚加入新团队,发现一些同事对Git的常规操作没太大问题,但对Git的理解还是比较生疏,比如说分支和分支之间的关联关系、合并代码时候的冲突解决、提交代码前未拉取新代码导致冲突问题的处理等,我在协助处理这些问题的时候也记录各种问题的解决办法,希望整理后通过教程帮助到更多对Git操作进阶的开发者。 本期教程学习方法分为“掌握基础——稳步进阶——熟悉协作”三个层次。从掌握基础的 Git的推送和拉取开始,以案例进行演示,分析每一个步骤的操作方式和原理,从理解Git 工具的操作到学会代码存储结构、演示不同场景下Git遇到问题的不同处理方案。循序渐进让同学们掌握Git工具在团队协作中的整体协作流程。 在教程中会通过大量案例进行分析,案例会模拟在工作中遇到的问题,从最基础的代码提交和拉取、代码冲突解决、代码仓库的数据维护、Git服务端搭建等。为了让同学们容易理解,对Git简单易懂,文章中详细记录了详细的操作步骤,提供大量演示截图和解析。在教程的最后部分,会从提升团队整体效率的角度对Git工具进行讲解,包括规范操作、Gitlab的搭建、钩子事件的应用等。 为了让同学们可以利用碎片化时间来灵活学习,在教程文章中大程度降低了上下文的依赖,让大家可以在工作之余进行学习与实战,并同时掌握里面涉及的Git不常见操作的相关知识,理解Git工具在工作遇到的问题解决思路和方法,相信一定会对大家的前端技能进阶大有帮助。

实用主义学Python(小白也容易上手的Python实用案例)

原价169,限时立减100元! 系统掌握Python核心语法16点,轻松应对工作中80%以上的Python使用场景! 69元=72讲+源码+社群答疑+讲师社群分享会&nbsp; 【哪些人适合学习这门课程?】 1)大学生,平时只学习了Python理论,并未接触Python实战问题; 2)对Python实用技能掌握薄弱的人,自动化、爬虫、数据分析能让你快速提高工作效率; 3)想学习新技术,如:人工智能、机器学习、深度学习等,这门课程是你的必修课程; 4)想修炼更好的编程内功,优秀的工程师肯定不能只会一门语言,Python语言功能强大、使用高效、简单易学。 【超实用技能】 从零开始 自动生成工作周报 职场升级 豆瓣电影数据爬取 实用案例 奥运冠军数据分析 自动化办公:通过Python自动化分析Excel数据并自动操作Word文档,最终获得一份基于Excel表格的数据分析报告。 豆瓣电影爬虫:通过Python自动爬取豆瓣电影信息并将电影图片保存到本地。 奥运会数据分析实战 简介:通过Python分析120年间奥运会的数据,从不同角度入手分析,从而得出一些有趣的结论。 【超人气老师】 二两 中国人工智能协会高级会员 生成对抗神经网络研究者 《深入浅出生成对抗网络:原理剖析与TensorFlow实现》一书作者 阿里云大学云学院导师 前大型游戏公司后端工程师 【超丰富实用案例】 0)图片背景去除案例 1)自动生成工作周报案例 2)豆瓣电影数据爬取案例 3)奥运会数据分析案例 4)自动处理邮件案例 5)github信息爬取/更新提醒案例 6)B站百大UP信息爬取与分析案例 7)构建自己的论文网站案例

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

C/C++跨平台研发从基础到高阶实战系列套餐

一 专题从基础的C语言核心到c++ 和stl完成基础强化; 二 再到数据结构,设计模式完成专业计算机技能强化; 三 通过跨平台网络编程,linux编程,qt界面编程,mfc编程,windows编程,c++与lua联合编程来完成应用强化 四 最后通过基于ffmpeg的音视频播放器,直播推流,屏幕录像,

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

Python界面版学生管理系统

前不久上传了一个控制台版本的学生管理系统,这个是Python界面版学生管理系统,这个是使用pycharm开发的一个有界面的学生管理系统,基本的增删改查,里面又演示视频和完整代码,有需要的伙伴可以自行下

Vue.js 2.0之全家桶系列视频课程

基于新的Vue.js 2.3版本, 目前新全的Vue.js教学视频,让你少走弯路,直达技术前沿! 1. 包含Vue.js全家桶(vue.js、vue-router、axios、vuex、vue-cli、webpack、ElementUI等) 2. 采用笔记+代码案例的形式讲解,通俗易懂

linux“开发工具三剑客”速成攻略

工欲善其事,必先利其器。Vim+Git+Makefile是Linux环境下嵌入式开发常用的工具。本专题主要面向初次接触Linux的新手,熟练掌握工作中常用的工具,在以后的学习和工作中提高效率。

JAVA初级工程师面试36问(完结)

第三十一问: 说一下线程中sleep()和wait()区别? 1 . sleep()是让正在执行的线程主动让出CPU,当时间到了,在回到自己的线程让程序运行。但是它并没有释放同步资源锁只是让出。 2.wait()是让当前线程暂时退让出同步资源锁,让其他线程来获取到这个同步资源在调用notify()方法,才会让其解除wait状态,再次参与抢资源。 3. sleep()方法可以在任何地方使用,而wait()只能在同步方法或同步块使用。 ...

java jdk 8 帮助文档 中文 文档 chm 谷歌翻译

JDK1.8 API 中文谷歌翻译版 java帮助文档 JDK API java 帮助文档 谷歌翻译 JDK1.8 API 中文 谷歌翻译版 java帮助文档 Java最新帮助文档 本帮助文档是使用谷

我以为我对Mysql事务很熟,直到我遇到了阿里面试官

太惨了,面试又被吊打

智鼎(附答案).zip

并不是完整题库,但是有智鼎在线2019年9、10、11三个月的试题,有十七套以上题目,普通的网申行测题足以对付,可以在做题时自己总结一些规律,都不是很难

Visual Assist X 破解补丁

vs a's'sixt插件 支持vs2008-vs2019 亲测可以破解,希望可以帮助到大家

150讲轻松搞定Python网络爬虫

【为什么学爬虫?】 &nbsp; &nbsp; &nbsp; &nbsp;1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到! &nbsp; &nbsp; &nbsp; &nbsp;2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 &nbsp; 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑

JavaWEB商城项目(包括数据库)

功能描述:包括用户的登录注册,以及个人资料的修改.商品的分类展示,详情,加入购物车,生成订单,到银行支付等!另外还有收货地址的和我的收藏等常用操作.环境(JDK 1.7 ,mysql 5.5,Ecli

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

一学即懂的计算机视觉(第一季)

图像处理和计算机视觉的课程大家已经看过很多,但总有“听不透”,“用不了”的感觉。课程致力于创建人人都能听的懂的计算机视觉,通过生动、细腻的讲解配合实战演练,让学生真正学懂、用会。 【超实用课程内容】 课程内容分为三篇,包括视觉系统构成,图像处理基础,特征提取与描述,运动跟踪,位姿估计,三维重构等内容。课程理论与实战结合,注重教学内容的可视化和工程实践,为人工智能视觉研发及算法工程师等相关高薪职位就业打下坚实基础。 【课程如何观看?】 PC端:https://edu.csdn.net/course/detail/26281 移动端:CSDN 学院APP(注意不是CSDN APP哦) 本课程为录播课,课程2年有效观看时长,但是大家可以抓紧时间学习后一起讨论哦~ 【学员专享增值服务】 源码开放 课件、课程案例代码完全开放给你,你可以根据所学知识,自行修改、优化 下载方式:电脑登录https://edu.csdn.net/course/detail/26281,点击右下方课程资料、代码、课件等打包下载

软件测试2小时入门

本课程内容系统、全面、简洁、通俗易懂,通过2个多小时的介绍,让大家对软件测试有个系统的理解和认识,具备基本的软件测试理论基础。 主要内容分为5个部分: 1 软件测试概述,了解测试是什么、测试的对象、原则、流程、方法、模型;&nbsp; 2.常用的黑盒测试用例设计方法及示例演示;&nbsp; 3 常用白盒测试用例设计方法及示例演示;&nbsp; 4.自动化测试优缺点、使用范围及示例‘;&nbsp; 5.测试经验谈。

初级玩转Linux+Ubuntu(嵌入式开发基础课程)

课程主要面向嵌入式Linux初学者、工程师、学生 主要从一下几方面进行讲解: 1.linux学习路线、基本命令、高级命令 2.shell、vi及vim入门讲解 3.软件安装下载、NFS、Samba、FTP等服务器配置及使用

2019 Python开发者日-培训

本次活动将秉承“只讲技术,拒绝空谈”的理念,邀请十余位身处一线的Python技术专家,重点围绕Web开发、自动化运维、数据分析、人工智能等技术模块,分享真实生产环境中使用Python应对IT挑战的真知灼见。此外,针对不同层次的开发者,大会还安排了深度培训实操环节,为开发者们带来更多深度实战的机会。

快速入门Android开发 视频 教程 android studio

这是一门快速入门Android开发课程,顾名思义是让大家能快速入门Android开发。 学完能让你学会如下知识点: Android的发展历程 搭建Java开发环境 搭建Android开发环境 Android Studio基础使用方法 Android Studio创建项目 项目运行到模拟器 项目运行到真实手机 Android中常用控件 排查开发中的错误 Android中请求网络 常用Android开发命令 快速入门Gradle构建系统 项目实战:看美图 常用Android Studio使用技巧 项目签名打包 如何上架市场

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

4小时玩转微信小程序——基础入门与微信支付实战

这是一个门针对零基础学员学习微信小程序开发的视频教学课程。课程采用腾讯官方文档作为教程的唯一技术资料来源。杜绝网络上质量良莠不齐的资料给学员学习带来的障碍。 视频课程按照开发工具的下载、安装、使用、程序结构、视图层、逻辑层、微信小程序等几个部分组织课程,详细讲解整个小程序的开发过程

相关热词 c#框体中的退出函数 c# 按钮透明背景 c# idl 混编出错 c#在位置0处没有任何行 c# 循环给数组插入数据 c# 多线程死锁的例子 c# 钉钉读取员工排班 c# label 不显示 c#裁剪影像 c#工作进程更新ui
立即提问