python获取重定向的消息头的location?????????????? 10C

附件链接会发生跳转,想获取跳转后的下载链接,利用python爬取数据的。

3个回答

import requests
url = 'http://home.cnblogs.com/u/xswt/'
r = requests.get(url,headers={"Content-Type":"application/json"})
reditList = r.history
print(f'获取重定向的历史记录:{reditList}')
print(f'获取第一次重定向的headers头部信息:{reditList[0].headers}')
print(f'获取重定向最终的url:{reditList[len(reditList)-1].headers["location"]}')



Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python,爬虫遇到重定向页面,如何获取动向后地址的response headers里的内容?

## 爬虫大致流程是这样的 ![图片说明](https://img-ask.csdn.net/upload/201911/04/1572853822_754760.png) ## 我想获取resul.jsf里Location的值 ![图片说明](https://img-ask.csdn.net/upload/201911/04/1572854659_247812.png) ## 下面是我写的代码,但是得不到结果,求大佬帮忙看一下。 ## 我首先访问这个站点https://patentscope2.wipo.int/search/en/search.jsf ,从页面信息中获取ViewData的值,然后构建post data,把data加进去再次访问这个网站。 ![图片说明](https://img-ask.csdn.net/upload/201911/04/1572854402_908823.png) ``` import re import requests s = requests.Session() r = s.get('https://patentscope2.wipo.int/search/en/search.jsf') resp = r.text # 获取ViewState值 viewstate = re.findall('ViewState:0.*value=\"([0-9\-:]*)\"',resp)[0] # 构建data字典 searchfp = 'US20180094236' data={'javax.faces.partial.ajax': 'true', 'javax.faces.source': 'simpleSearchForm:commandSimpleFPSearch', 'javax.faces.partial.execute': '@all', 'simpleSearchForm:commandSimpleFPSearch': 'simpleSearchForm:commandSimpleFPSearch', 'simpleSearchForm': 'simpleSearchForm', 'simpleSearchForm:j_idt216_focus': '', 'simpleSearchForm%3Aj_idt206_input': 'FP', 'simpleSearchForm:fpSearch': searchfp, 'javax.faces.ViewState': viewstate} r = s.post('https://patentscope2.wipo.int/search/en/search.jsf',data = data) ``` ## 然后得到一个result.jsf连接地址,再访问这个连接却得不到目标数据 ![图片说明](https://img-ask.csdn.net/upload/201911/04/1572854616_903525.png) ``` # 获取/result.jsf链接地址 vid = re.findall('_vid=([A-Z0-9\-]*)\"',r.text)[0] re_url = 'https://patentscope2.wipo.int/search/en/result.jsf?_vid='+vid # 访问/result.jsf后却没有去到正确的地方 r = s.get(re_url) resp = r.text print(r.headers) print(r.status_code) print(resp) # 这里status_code时500,并且有页面内容,但不是目标页面 ```

python3+requests 页面重定向问题

整体是一个先登录,验证成功后跳转到主页的过程, ![图片说明](https://img-ask.csdn.net/upload/201711/27/1511773702_21486.png) 在这里可以看到,location为:http://www.cwddd.com/?5 。但是在程序中获取到的却没有后面的参数。如下图: ![图片说明](https://img-ask.csdn.net/upload/201711/27/1511773900_133507.png) 小白求解答~在线等

scrapy 重定向获取数据

我用scrapy框架 爬取网页将http://.* 重定向到https://.* 如何设置在每次访问的时候将我 爬取的网页上把http变成https啊 因为http没有数据之后https才有

爬虫重定向怎么处理?

已经带上随机更换ip、cookies、headers,但是爬到600条再请求就跳到主页了,还有什么处理办法吗? ![图片说明](https://img-ask.csdn.net/upload/201905/21/1558422990_114801.png)![图片说明](https://img-ask.csdn.net/upload/201905/21/1558422999_695829.png)

python ulllib.open()遇到js的window.location()重定向

例如url为http://za.ccb.com/时,urllib.open().read()的结果是 <SCRIPT LANGUAGE="JavaScript"> window.location="/johannesburg/cn/index.html"; </SCRIPT> 如何可以获得重定向后网页源码? 谢谢!

scrapy 在重定向的时候会丢失middlewares中设置的header吗?

问题是,在使用某动态转发的代理时,客服回复:“是因为请求需要重定向的url但是本身用的包使用代理自动重定向请求的时候会丢失hearder,这个时候就需要用户,禁止重定向,然后根据返回的状态码301/302的时候,从响应头的Location中获取新的请求url” 想问下scrapy 在重定向的时候会丢失middlewares中设置的header吗?如果是的话,怎么设置不“丢失”呢? 因为scrapy都是通过yield Request来请求的,在这里也没法判断状态码和获取重定向之后的URL吧?

scrapy request发生重定向问题

from scrapy.spider import CrawlSpider from scrapy.selector import Selector from scrapy.http import Request class Spider(CrawlSpider): name = 'wordSpider' NUM = 14220485 start_urls = [ "http://baike.baidu.com/view/1.htm" ] fi = open('e:/word.txt', 'w') cnt = 2 def parse(self,response): selector = Selector(response) word = selector.xpath('body/div[@class="body-wrapper"]/div[@class="content-wrapper"]/div[@class="content"]/div[@class="main-content"]/dl/dd/h1/text()').extract_first() #word = selector.xpath('body/div[@id="J-lemma"]/div[@class="body-wrapper"]/div[@class="card-part"]/span[@class="lemma-title"]/text()').extract() self.fi.write(word + '\t' + 'n') if self.cnt <= self.NUM: wurl = "http://baike.baidu.com/view/%s.htm" % self.cnt self.cnt += 1 yield Request(url=wurl, meta={}, callback=self.parse) 这是我的爬虫源码,如何阻止301/302重定向,要抓取的是百度所有词条,但是总会发生重定向导致无法获得想要的网页

模拟登录正方教务系统重定向页面拿到的状态码为什么 总是200不是302

1. 请求代码 List<BasicNameValuePair> pairs = new ArrayList<BasicNameValuePair>(); pairs.add(new BasicNameValuePair("__VIEWSTATE", "dDwyODE2NTM0OTg7Oz5hS%2FqlazCCYK7Agp6rx5GFtdHxlg%3D%3D")); pairs.add(new BasicNameValuePair("txtUserName", username)); pairs.add(new BasicNameValuePair("TextBox2", pass)); pairs.add(new BasicNameValuePair("RadioButtonList1","%D1%A7%C9%FA"));//选择你是以什么身份进入%D1%A7%C9%FA pairs.add(new BasicNameValuePair("Button1", "")); pairs.add(new BasicNameValuePair("lbLanguage", "")); pairs.add(new BasicNameValuePair("hidPdrs", "")); pairs.add(new BasicNameValuePair("hidsc", "")); String info = ""; try { //该网址对应教务系统输入学号密码登入的那个界面 info = HttpUtil.postUrl("http://" + myUrl + "/default2.aspx", pairs, mHttpClient, ""); } catch (ClientProtocolException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } Log.i("tag", "info===="+info); 2. 执行代码 public static String postUrl(String url, List<BasicNameValuePair> pairs, DefaultHttpClient httpClient, String setHeader) throws ClientProtocolException, IOException { HttpPost request = new HttpPost(url); request.setHeader("Referer", setHeader); httpClient.getParams().setParameter( CoreConnectionPNames.CONNECTION_TIMEOUT, 10000); // 设置请求超时时间 httpClient.getParams().setParameter(CoreConnectionPNames.SO_TIMEOUT, 10000); // 读取超时 HttpResponse response = httpClient.execute(request); /* * 根本没走这个if */ if(response.getStatusLine().getStatusCode() == 302||response.getStatusLine().getStatusCode() == 301){ //获取响应的cookie值 String cookie = response.getFirstHeader("Set-Cookie").getValue(); //获取头部信息中Location的值 String location = response.getFirstHeader("Location").getValue(); return location; }else if (response.getStatusLine().getStatusCode() == HttpStatus.SC_OK) { return EntityUtils.toString(response.getEntity()); } else { return null; } } 3. 抓包图片 ![图片说明](https://img-ask.csdn.net/upload/201605/02/1462194716_317220.png) 4. 有做过模拟登陆教务系统的大神看到这个问题能不能留个联系方式请教一下

如何使PHP重定向从运行aws服务的python函数生成的链接

<div class="post-text" itemprop="text"> <p>I am using aws booto3 and python to generate a quicksite link. Now I want to redirect to that link when a html button is clicked. I am using php and html in front end .. I am also running the code on xamp apachee server. </p> <p>This is my python code:</p> <pre><code>import boto3 def linker(): client = boto3.client('quicksight', aws_access_key_id=' ',aws_secret_access_key='abc', region_name='us-east-2') p= client.get_dashboard_embed_url(AwsAccountId="123", DashboardId="7d5163cf-801c-6666-ba2d-231d3b2ba1b5", IdentityType="IAM", SessionLifetimeInMinutes=100, ResetDisabled=True, UndoRedoDisabled=True) return p['EmbedUrl'] </code></pre> <p>This is redirect.php:</p> <pre><code>&lt;?php $result = exec( "python abc.py" ); if(isset($_POST['submit'])){ header("Location: $result"); } ?&gt; </code></pre> <p>This is the html file</p> <pre><code>&lt;form action=redirect.php; ?&gt; id="#form" method="post" name="#form"&gt; &lt;input id='btn' name="submit" type='submit' value='Submit'&gt; &lt;?php include "redirect.php"; ?&gt; </code></pre> </div>

php curl proxy +跟随重定向

<div class="post-text" itemprop="text"> <p>i'm sending a curl request to a webpage that redirects 3 times </p> <p>when i use </p> <pre><code>curl_setopt($ch, CURLOPT_FOLLOWLOCATION, 1); </code></pre> <p>it works well and responses with the last url &amp; body in the third redirect ..</p> <p>but when i use proxy </p> <pre><code>curl_setopt($ch, CURLOPT_PROXY, $host); curl_setopt($ch, CURLOPT_PROXYPORT, $port); </code></pre> <p>the <strong>CURLOPT_FOLLOWLOCATION</strong> doesn't work or i don't know .. the request doesn't go to the third url .. </p> <p><strong>any idea why this is happening ?</strong></p> <p>note that the url uses https connection and i use </p> <pre><code>curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, 0); curl_setopt($ch, CURLOPT_SSL_VERIFYHOST, 0); </code></pre> <p>to bypass it ..</p> <p><strong>any idea why this is happening ?</strong></p> </div>

python爬虫 怎样解决跳转问题

我在访问http://shouji.baidu.com/s?wd=%E6%B1%BD%E8%BD%A6&data_type=app&f=header_app%40input&from=as#page6这个网址的时候总是先跳到第一页在访问 第6页的内容,所以每次在爬数据的时候总是第一页的内容,这个问题怎么解决啊

Python爬虫时提交表单时总是跳转到登陆界面

使用Python的request进行post表单提交时,传递的参数都是对的,但是总是会跳转到登陆界面 1、代码 ![图片说明](https://img-ask.csdn.net/upload/201611/07/1478522366_260727.png) 2、使用Fillder抓包抓取的数据 ![图片说明](https://img-ask.csdn.net/upload/201611/07/1478522395_465898.png) 3、最后返回的登录结果 ![图片说明](https://img-ask.csdn.net/upload/201611/07/1478522416_296746.png)

如何在不使用Python中的协议(http,https或ftp)的情况下重定向URL?

<div class="post-text" itemprop="text"> <p>I am trying to convert PHP code to Python for the payment gateway integration. In PHP, there is a code <code>"header("Location: " . $url);"</code> and the URL is <code>"gatewaysdk://asdzxc?summaryStatus=SUCCESSFUL&amp;3DSecureId=XXXXXX"</code>(without protocol - http, https or ftp).<br> In PHP, the code is working fine.<br> Is there any way to do it in Python.</p> <p>I have tried using redirect and HttpResponseRedirect - return <code>redirect(redirect_url, allow_redirects=True)</code>.<br> The error I got was<br> <code>"django.core.exceptions.DisallowedRedirect: Unsafe redirect to URL with protocol 'gatewaysdk'"</code>.<br> After debugging the error I found HttpResponseRedirect supports only with protocol (http, https or ftp).</p> </div>

php重定向 - HTML标头

<div class="post-text" itemprop="text"> <p>I have many redirections within a VM webserver, which work when browsing the server with the embedded navigator (iceweasel). But that does not work when accessing the server from the hosting machine's browsers (tested with FF4/IE8/Chrome/Opera11).</p> <p>All experienced redirecting methods are driving to a "server not available or overloaded" in the hosting machine browsers.</p> <p>If you could have a look to the headers from the apache logs and give some hints about the differences (main one looks to be the GET url, provided that the same code is operating):</p> <p><strong>Working</strong> request leads to this log : </p> <pre><code>cat /var/log/apache2/access.log | grep 127 | grep random | tail -n1 127.0.0.1 - authuserid [26/Jun/2011:11:11:52 +0200] "GET /index.php?page=100 HTTP/1.1" 200 49151 "https://www.mydomain.foo/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788&amp;random=c0117685e7e65a307989c219efc587b4&amp;sid=n7en2it41h2gumrcq3kmmil3c0&amp;sidf=.ps_AWDkIY" "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.19) Gecko/2011050718 Iceweasel/3.0.6 (Debian-3.0.6-3)" </code></pre> <p><strong>Non working</strong> request leads to this log : </p> <pre><code>cat /var/log/apache2/access.log | grep 192 | grep random | tail -n1 www.mydomain.org:80 192.168.X.Y - authuserid [26/Jun/2011:11:08:07 +0200] "GET /index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788&amp;random=685de8bcd4d198d6ad7f3cf4b23de5b7 HTTP/1.1" 302 - "http://www.mydomain.foo/index.php?page=xyz" "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:2.0.1) Gecko/20100101 Firefox/4.0.1" </code></pre> <p>I can't show the header response as I don't get a response and no error reported by apache (loglevel=error).</p> <p>Thx</p> <p>Controls done :<br> I have increased the browsers timeout (FF: <em>network.http.keep-alive.timeout</em> to 3600s : no change.<br> I checked that no headers were sent previously to the redirection : ok (a dump of <em>headers_sent()</em> shows no headers sent nor blank line or space in the includes, )<br> I have increased the Apache server timeout just in case: no change<br> I made sure of using an absolute url as of HTTP/1.1. I tried php, html <em>meta</em> and js redirect: no change</p> <p><strong>EDIT 1:</strong></p> <p>Here are the headers as seen by LiveHTTPHeaders in the "non working" case :</p> <blockquote> <hr> <p><a href="http://www.mydomain.org/menus/noeud4.php" rel="nofollow">http://www.mydomain.org/menus/noeud4.php</a><br> POST /menus/noeud4.php HTTP/1.1<br> Host: www.mydomain.org<br> User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64; rv:2.0.1) Gecko/20100101 Firefox/4.0.1<br> Accept: text/html,application/xhtml+xml,application/xml;q=0.9,<em>/</em>;q=0.8<br> Accept-Language: fr,fr-fr;q=0.8,en-us;q=0.5,en;q=0.3<br> Accept-Encoding: gzip, deflate<br> Accept-Charset: ISO-8859-15,utf-8;q=0.7,*;q=0.7<br> Keep-Alive: 3600<br> DNT: 1<br> Connection: keep-alive<br> Referer: <a href="http://www.mydomain.org/index.php?page=890" rel="nofollow">http://www.mydomain.org/index.php?page=890</a><br> Cookie: PHPSESSID=4bge5gg1rgkit78k3seqlfcbq2<br> Authorization: Basic aW52aXRlZEBjYW1hY2FzYTp5b3VybXlndWVzdEB0b2RheQ==<br> Content-Type: application/x-www-form-urlencoded<br> Content-Length: 98<br> login=my_superlogin1&amp;pwd1=vbigpass3xqz%40A2L&amp;captcha=91690&amp; source=noeud4.php&amp;&gt;formulaire_valide=SOUMETTRE<br> HTTP/1.1 302 Found<br> Date: Sun, 26 Jun 2011 14:17:27 GMT<br> Server: Apache/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_fastcgi/2.4.6 mod_python/3.3.1 Python/2.5.2 &gt;mod_ssl/2.2.9 OpenSSL/0.9.8g PHP/5.3.3<br> X-Powered-By: PHP/5.3.3<br> Expires: Thu, 19 Nov 1981 08:52:00 GMT<br> Cache-Control: no-store, no-cache, must-revalidate, post-check=0, pre-check=0<br> Pragma: no-cache<br> Location: <a href="http://www.mydomain.org/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788" rel="nofollow">http://www.mydomain.org/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788</a><br> Content-Length: 0<br> Keep-Alive: timeout=60<br> Connection: Keep-Alive<br> Content-Type: text/html </p> <hr> <p><a href="http://www.mydomain.org/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788" rel="nofollow">http://www.mydomain.org/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788</a><br> GET /index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788 HTTP/1.1<br> Host: www.mydomain.org<br> User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64; rv:2.0.1) Gecko/20100101 Firefox/4.0.1<br> Accept: text/html,application/xhtml+xml,application/xml;q=0.9,<em>/</em>;q=0.8<br> Accept-Language: fr,fr-fr;q=0.8,en-us;q=0.5,en;q=0.3<br> Accept-Encoding: gzip, deflate<br> Accept-Charset: ISO-8859-15,utf-8;q=0.7,*;q=0.7<br> Keep-Alive: 3600<br> DNT: 1<br> Connection: keep-alive<br> Referer: <a href="http://www.mydomain.org/index.php?page=890" rel="nofollow">http://www.mydomain.org/index.php?page=890</a><br> Cookie: PHPSESSID=4bge5gg1rgkit78k3seqlfcbq2<br> Authorization: Basic aW52aXRlZEBjYW1hY2FzYTp5b3VybXlndWVzdEB0b2RheQ== </p> <p>HTTP/1.1 302 Found<br> Date: Sun, 26 Jun 2011 14:19:59 GMT<br> Server: Apache/2.2.9 (Debian) DAV/2 SVN/1.5.1 mod_fastcgi/2.4.6 mod_python/3.3.1 Python/2.5.2 &gt;mod_ssl/2.2.9 OpenSSL/0.9.8g PHP/5.3.3 X-Powered-By: PHP/5.3.3<br> Expires: Thu, 19 Nov 1981 08:52:00 GMT<br> Cache-Control: no-store, no-cache, must-revalidate, post-check=0, pre-check=0<br> Pragma: no-cache<br> Location: <a href="https://www.mydomain.org/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788&amp;sid=4bge5gg1rgkit78k3seqlfcbq2&amp;sidf=.ps_Z5wRio" rel="nofollow">https://www.mydomain.org/index.php?page=100&amp;new_session=a4da9106dba2ffd40345a5eb624d7788&amp;sid=4bge5gg1rgkit78k3seqlfcbq2&amp;sidf=.ps_Z5wRio</a><br> Content-Length: 0<br> Keep-Alive: timeout=60<br> Connection: Keep-Alive<br> Content-Type: text/html </p> <hr> </blockquote> <p><strong>EDIT2</strong>: Comparing both cases of request/responses (working/not working), I isolated the following 2 main differences among others :</p> <p>On the "working" responses :<br> <em>Status : 200</em> which I don't have on the "non working" reponse, but I do not understand why.</p> <p>on the "NON Working" response :<br> <em>DNT:1</em><br> which stands for the option <a href="http://www.julianevansblog.com/2011/03/firefox-4-introduces-do-not-track-dnt-feature.html" rel="nofollow">Do Not Track (me) from FF4</a>.<br> So I tried to deactivate this option, but same result.</p> <p>I may miss sthg for sure. All looks as if the server was down. Maybe the session cookie (76 kb) is too big. I also tried downgrading firefox 4 to 3.6 as this another changed parameter, but I still get the same response with FF3.6 as FF4.</p> </div>

为什么我直接用requests爬网页可以,但用scrapy不行?

``` class job51(): def __init__(self): self.headers={ 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding':'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Cache-Control': 'max-age=0', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.71 Safari/537.36', 'Cookie':'' } def start(self): html=session.get("http://my.51job.com/cv/CResume/CV_CResumeManage.php",headers=self.headers) self.parse(html) def parse(self,response): tree=lxml.etree.HTML(response.text) resume_url=tree.xpath('//tbody/tr[@class="resumeName"]/td[1]/a/@href') print (resume_url[0] ``` 能爬到我想要的结果,就是简历的url,但是用scrapy,同样的headers,页面好像停留在登录页面? ``` class job51(Spider): name = "job51" #allowed_domains = ["my.51job.com"] start_urls = ["http://my.51job.com/cv/CResume/CV_CResumeManage.php"] headers={ 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding':'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Cache-Control': 'max-age=0', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.71 Safari/537.36', 'Cookie':'' } def start_requests(self): yield Request(url=self.start_urls[0],headers=self.headers,callback=self.parse) def parse(self,response): #tree=lxml.etree.HTML(text) selector=Selector(response) print ("<<<<<<<<<<<<<<<<<<<<<",response.text) resume_url=selector.xpath('//tr[@class="resumeName"]/td[1]/a/@href') print (">>>>>>>>>>>>",resume_url) ``` 输出的结果: scrapy.utils.log] INFO: Overridden settings: {'BOT_NAME': 'job51', 'SPIDER_MODULES': ['job51.spiders'], 'ROBOTSTXT_OBEY': True, 'NEWSPIDER_MODULE': 'job51.spiders'} 2017-04-11 10:58:31 [scrapy.middleware] INFO: Enabled extensions: ['scrapy.extensions.logstats.LogStats', 'scrapy.extensions.corestats.CoreStats', 'scrapy.extensions.telnet.TelnetConsole'] 2017-04-11 10:58:32 [scrapy.middleware] INFO: Enabled downloader middlewares: ['scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware', 'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware', 'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware', 'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware', 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware', 'scrapy.downloadermiddlewares.retry.RetryMiddleware', 'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware', 'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware', 'scrapy.downloadermiddlewares.redirect.RedirectMiddleware', 'scrapy.downloadermiddlewares.cookies.CookiesMiddleware', 'scrapy.downloadermiddlewares.stats.DownloaderStats'] 2017-04-11 10:58:32 [scrapy.middleware] INFO: Enabled spider middlewares: ['scrapy.spidermiddlewares.httperror.HttpErrorMiddleware', 'scrapy.spidermiddlewares.offsite.OffsiteMiddleware', 'scrapy.spidermiddlewares.referer.RefererMiddleware', 'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware', 'scrapy.spidermiddlewares.depth.DepthMiddleware'] 2017-04-11 10:58:32 [scrapy.middleware] INFO: Enabled item pipelines: [] 2017-04-11 10:58:32 [scrapy.core.engine] INFO: Spider opened 2017-04-11 10:58:32 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 2017-04-11 10:58:32 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:6023 2017-04-11 10:58:33 [scrapy.core.engine] DEBUG: Crawled (404) <GET http://my.51job.com/robots.txt> (referer: None) 2017-04-11 10:58:33 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://my.51job.com/cv/CResume/CV_CResumeManage.php> (referer: None) <<<<<<<<<<<<<<<<<<<<< <script>window.location='https://login.51job.com/login.php?url=http://my.51job.com%2Fcv%2FCResume%2FCV_CResumeManage.php%3F7087';</script> >>>>>>>>>>>> [] 2017-04-11 10:58:33 [scrapy.core.scraper] ERROR: Spider error processing <GET http://my.51job.com/cv/CResume/CV_CResumeManage.php> (referer: None) Traceback (most recent call last): File "d:\python35\lib\site-packages\scrapy\utils\defer.py", line 102, in iter_errback yield next(it) File "d:\python35\lib\site-packages\scrapy\spidermiddlewares\offsite.py", line 29, in process_spider_output for x in result: File "d:\python35\lib\site-packages\scrapy\spidermiddlewares\referer.py", line 22, in <genexpr> return (_set_referer(r) for r in result or ()) File "d:\python35\lib\site-packages\scrapy\spidermiddlewares\urllength.py", line 37, in <genexpr> return (r for r in result or () if _filter(r)) File "d:\python35\lib\site-packages\scrapy\spidermiddlewares\depth.py", line 58, in <genexpr> return (r for r in result or () if _filter(r)) File "E:\WorkGitResp\spider\job51\job51\spiders\51job_resume.py", line 43, in parse yield Request(resume_url[0],headers=self.headers,callback=self.getResume) File "d:\python35\lib\site-packages\parsel\selector.py", line 58, in __getitem__ o = super(SelectorList, self).__getitem__(pos) IndexError: list index out of range 2017-04-11 10:58:33 [scrapy.core.engine] INFO: Closing spider (finished) 2017-04-11 10:58:33 [scrapy.statscollectors] INFO: Dumping Scrapy stats: {'downloader/request_bytes': 628, 'downloader/request_count': 2, 'downloader/request_method_count/GET': 2, 'downloader/response_bytes': 5743, 'downloader/response_count': 2, 'downloader/response_status_count/200': 1, 'downloader/response_status_count/404': 1, 'finish_reason': 'finished', 'finish_time': datetime.datetime(2017, 4, 11, 2, 58, 33, 275634), 'log_count/DEBUG': 3, 'log_count/ERROR': 1, 'log_count/INFO': 7, 'response_received_count': 2, 'scheduler/dequeued': 1, 'scheduler/dequeued/memory': 1, 'scheduler/enqueued': 1, 'scheduler/enqueued/memory': 1, 'spider_exceptions/IndexError': 1, 'start_time': datetime.datetime(2017, 4, 11, 2, 58, 32, 731603)} 2017-04-11 10:58:33 [scrapy.core.engine] INFO: Spider closed (finished)

萤石开发平台http接口出现301 Moved Permanently

我可以获取到accessToken, 官方API文档https://open.ys7.com/doc/zh/book/index/device_option.html 比如在调用c6h的预置位1,为什么会出现下附带的301页面被重定位的地址,https://open.ys7.com/api/lapp/device/preset/move,不是对这个地址请求吗, 或者查询其他的功能,都会出现301网页被重定向,求原因分析。 我用的语言是python34 我现在每次调各个功能,都是返回如下的重定向错误 <title>301 Moved Permanently</title> 301 Moved Permanently The requested resource has been assigned a new permanent URI. python3.4 代码如下: def devices_list():#调用预置位 global accessToken #accessToken='at.XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX' test_data1 = { 'accessToken':accessToken,'deviceSerial':'XXXXXX','channelNo':1,'index':1} test_data_urlencode1=urllib.parse.urlencode(test_data1).encode('utf-8') print(test_data_urlencode1) requrl1='https://open.ys7.com/api/lapp/device/preset/move'#请求调用预置位的地址 headerdata1={ 'Content-type': 'application/x-www-form-urlencoded', 'Host':'open.ys7.com' } conn1=http.client.HTTPConnection("open.ys7.com") conn1.request("POST",url=requrl1,body=test_data_urlencode1,headers=headerdata1) response1=conn1.getresponse() print(response1.status) print(response1.reason) jump=response1.headers['Location'] print(jump) res2=response1.read().decode('utf-8') print(res2) devices_list()

JAVA POST登录异常问题?

网上找的HTTP登录代码,登录后返回能200,但是不用用户名密码也返回200,且用Cookie[] cookies = httpClient.getState().getCookies(); StringBuffer tmpcookies = new StringBuffer(); for (Cookie c : cookies) { tmpcookies.append(c.toString() + ";"); System.out.println("cookies = "+c.toString()); } 能取到Cookies,这个搞不懂 登录成功后跳到另一个网页,但是用System.out.println("ResponseBody:\n" + stringBuffer.toString());返回如下: ``` <html> <head><title></title> <SCRIPT LANGUAGE="JavaScript"> var currentWindow = window; if(currentWindow != null){ currentWindow.top.location = "/NMMP/jsp/login.jsp"; } </SCRIPT> </head> ``` 感觉跳转时少了东西,所以跳转后的网页不对,请各们大神帮分析下,或者给个思路,本人不是搞程序的,只是想做一个来应对自己的重复工作,完整代码如下:本人无C币,如果有兴趣帮我做可商量 ``` import java.io.BufferedReader; import java.io.InputStream; import java.io.InputStreamReader; import java.util.HashMap; import java.util.Map; import org.apache.commons.httpclient.Cookie; import org.apache.commons.httpclient.HttpClient; import org.apache.commons.httpclient.NameValuePair; import org.apache.commons.httpclient.cookie.CookiePolicy; import org.apache.commons.httpclient.methods.GetMethod; import org.apache.commons.httpclient.methods.PostMethod; /** * * @ClassName: HttpLogin * @Description: java通过httpclient获取cookie模拟登录 * @author zeze * @date 2015年11月10日 下午4:18:08 * */ public class HttpLogin { public static void main(String[] args) { // 登陆 Url String loginUrl = "http://10.154.13.82:7011/NMMP/jsp/login.jsp"; // 需登陆后访问的 Url String dataUrl = "http://10.154.13.82:7011/NMMP/wyMainAction!init.ilf"; //http://10.154.13.82:7011/NMMP//jsp/wyService/mytasklist.jsp HttpClient httpClient = new HttpClient(); // 模拟登陆,按实际服务器端要求选用 Post 或 Get 请求方式 PostMethod postMethod = new PostMethod(loginUrl); // 设置登陆时要求的信息,用户名和密码 NameValuePair[] data = { new NameValuePair("useraccount", ""), new NameValuePair("password", "Hn_yd45") }; postMethod.setRequestBody(data); try { // 设置 HttpClient 接收 Cookie,用与浏览器一样的策略 httpClient.getParams().setCookiePolicy(CookiePolicy.BROWSER_COMPATIBILITY); int statusCode=httpClient.executeMethod(postMethod); // 获得登陆后的 Cookie Cookie[] cookies = httpClient.getState().getCookies(); StringBuffer tmpcookies = new StringBuffer(); for (Cookie c : cookies) { tmpcookies.append(c.toString() + ";"); System.out.println("cookies = "+c.toString()); } System.out.println(statusCode); if(statusCode==200){//重定向到新的URL System.out.println("模拟登录成功"); // 进行登陆后的操作 GetMethod getMethod = new GetMethod(dataUrl); // 每次访问需授权的网址时需带上前面的 cookie 作为通行证 // getMethod.setRequestHeader("cookie", tmpcookies.toString()); // 你还可以通过 PostMethod/GetMethod 设置更多的请求后数据 // 例如,referer 从哪里来的,UA 像搜索引擎都会表名自己是谁,无良搜索引擎除外 // postMethod.setRequestHeader("Referer", "http://passport.mop.com/"); getMethod.setRequestHeader("Accept","text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8"); getMethod.setRequestHeader("Referer","http://10.154.13.82:7011/NMMP/login.ilf"); getMethod.setRequestHeader("Accept-Encoding","gzip, deflate"); getMethod.setRequestHeader("Accept-Language","zh-CN,zh;q=0.9"); getMethod.setRequestHeader("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36" ); httpClient.executeMethod(getMethod); statusCode=httpClient.executeMethod(getMethod); System.out.println("模拟登录成功"+statusCode); // 打印出返回数据,检验一下是否成功 // String text = getMethod.getResponseBodyAsString(); InputStream inputStream = getMethod.getResponseBodyAsStream(); BufferedReader br = new BufferedReader(new InputStreamReader(inputStream)); StringBuffer stringBuffer = new StringBuffer(); String str= ""; while((str = br.readLine()) != null){ stringBuffer .append(str ); } System.out.println("ResponseBody:\n" + stringBuffer.toString()); HttpRequestProxy hrp = new HttpRequestProxy(); Map date = new HashMap(); date.put("jyidApplet", "1"); date.put("codeNumApplet", "1"); date.put("jymxIdApplet", "447"); date.put("patientIdApplet", "1118"); String str1 = hrp.doRequest(dataUrl,date, null, null); System.out.println("sd"+str1); } else { System.out.println("登录失败"); } } catch (Exception e) { e.printStackTrace(); } } } ``` 登录网页源码如下: ``` <html><head> <meta http-equiv="Content-Type" content="text/html; charset=utf-8"> <title>综合管理系统</title> <meta http-equiv="pragma" content="no-cache"> <meta http-equiv="cache-control" content="no-cache"> <meta http-equiv="expires" content="0"> <style type="text/css"> *{ margin:auto; } html,body{ overflow:hidden; width:100%; height:100%; margin:auto; } body{ background:url(/NMMP/common-skins/maintain/images/login_bg_1.0.gif); } #login_panel{ background-image:url(/NMMP/common-skins/maintain/images/login_panel_bg_1.0.png); background-repeat:repeat-x; height:640px; width:100%; text-align:center; position:relative; } #login_input{ background-image:url(/NMMP/common-skins/maintain/images/login_input_1.0.png); background-repeat:no-repeat; width:668px; height:403px; position:relative; } #useraccount{ border:none; position:absolute; left:392px; top:149px; height:24px; width:136px; background-color:#99deff; } #password{ border:none; position:absolute; left:392px; top:183px; height:24px; width:136px; background-color:#99deff; } #login_botton{ position:absolute; left:537px; _left:538px; top:147px; } #message{ position:absolute; left:348px; top:218px; color:#F00; font-size:14px; font-weight:bold; } #technical{ position:absolute; left:375px; top:258px; text-align:left; color:#CCC; font-size:12px; line-height:30px; } #copyright{ position:absolute; bottom:65px; right:0px; color:#CCC; font-size:12px; text-align:right; line-height:20px; } </style> <!--[if IE 6]> <script language="javascript" type="text/javascript" src="/NMMP/common-skins/default/jslib/DD_belatedPNG.js"> </script> <script language="javascript" type="text/javascript"> DD_belatedPNG.fix('#login_panel'); DD_belatedPNG.fix('#login_input'); </script> <![endif]--> </head> <body windowc_onresizez="true"> <div id="login_panel"> <div id="login_input" style="top: 110.5px;"> <form name="form1" action="/NMMP/CtrlUser.action?action=login&amp;surl=jsp/home/main.jsp&amp;furl=jsp/login.jsp" method="post" 360chrome_form_autofill="2"> <input name="useraccount" id="useraccount" style="background-color: rgb(250, 255, 189);" required="true" type="text"> <input name="password" id="password" style="background-color: rgb(250, 255, 189);" required="true" type="password"> <input id="login_botton" type="image" src="/NMMP/common-skins/maintain/images/login_botton.png"> <div id="message"> </div> <!-- div id="technical"><a style="color:orange" href="javascript:void(0)" onclick="resetpwd();">密码重置</a></div--> <div id="copyright">版权所有:</div> </form> </div> </div> <script language="javascript" type="text/javascript"> document.getElementById("login_input").style.top=(document.body.clientHeight-403)/2+"px"; function resetpwd(){ var url = "/NMMP/resetpwdAction.ilf"; window.location.href=url; } </script> </body></html> ```

这个页面跳转是什么意思 没看懂

location.href('../../CaseOperate_flat/XinZeng/PublicReportSQ.aspx?returnurl=XinZeng/PublicReportSQ.aspx?');

C/C++学习指南全套教程

C/C++学习的全套教程,从基本语法,基本原理,到界面开发、网络开发、Linux开发、安全算法,应用尽用。由毕业于清华大学的业内人士执课,为C/C++编程爱好者的教程。

定量遥感中文版 梁顺林著 范闻捷译

这是梁顺林的定量遥感的中文版,由范闻捷等翻译的,是电子版PDF,解决了大家看英文费时费事的问题,希望大家下载看看,一定会有帮助的

YOLOv3目标检测实战:训练自己的数据集

YOLOv3是一种基于深度学习的端到端实时目标检测方法,以速度快见长。本课程将手把手地教大家使用labelImg标注和使用YOLOv3训练自己的数据集。课程分为三个小项目:足球目标检测(单目标检测)、梅西目标检测(单目标检测)、足球和梅西同时目标检测(两目标检测)。 本课程的YOLOv3使用Darknet,在Ubuntu系统上做项目演示。包括:安装Darknet、给自己的数据集打标签、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算和画出PR曲线)和先验框聚类。 Darknet是使用C语言实现的轻型开源深度学习框架,依赖少,可移植性好,值得深入探究。 除本课程《YOLOv3目标检测实战:训练自己的数据集》外,本人推出了有关YOLOv3目标检测的系列课程,请持续关注该系列的其它课程视频,包括: 《YOLOv3目标检测实战:交通标志识别》 《YOLOv3目标检测:原理与源码解析》 《YOLOv3目标检测:网络模型改进方法》 敬请关注并选择学习!

sql语句 异常 Err] 1064 - You have an error in your SQL syntax; check the manual that corresponds to your

在我们开发的工程中,有时候会报 [Err] 1064 - You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near ------ 这种异常 不用多想,肯定是我们的sql语句出现问题,下面...

浪潮集团 往年的软件类 笔试题 比较详细的哦

浪潮集团 往年的软件类 笔试题 比较详细的哦

2019 AI开发者大会

2019 AI开发者大会(AI ProCon 2019)是由中国IT社区CSDN主办的AI技术与产业年度盛会。多年经验淬炼,如今蓄势待发:2019年9月6-7日,大会将有近百位中美顶尖AI专家、知名企业代表以及千余名AI开发者齐聚北京,进行技术解读和产业论证。我们不空谈口号,只谈技术,诚挚邀请AI业内人士一起共铸人工智能新篇章!

I2c串口通信实现加速度传感器和FPGA的交流

此代码能实现加速度传感器与FPGA之间的交流,从而测出运动物体的加速度。

Python可以这样学(第一季:Python内功修炼)

董付国系列教材《Python程序设计基础》、《Python程序设计(第2版)》、《Python可以这样学》配套视频,讲解Python 3.5.x和3.6.x语法、内置对象用法、选择与循环以及函数设计与使用、lambda表达式用法、字符串与正则表达式应用、面向对象编程、文本文件与二进制文件操作、目录操作与系统运维、异常处理结构。

微信公众平台开发入门

本套课程的设计完全是为初学者量身打造,课程内容由浅入深,课程讲解通俗易懂,代码实现简洁清晰。通过本课程的学习,学员能够入门微信公众平台开发,能够胜任企业级的订阅号、服务号、企业号的应用开发工作。 通过本课程的学习,学员能够对微信公众平台有一个清晰的、系统性的认识。例如,公众号是什么,它有什么特点,它能做什么,怎么开发公众号。 其次,通过本课程的学习,学员能够掌握微信公众平台开发的方法、技术和应用实现。例如,开发者文档怎么看,开发环境怎么搭建,基本的消息交互如何实现,常用的方法技巧有哪些,真实应用怎么开发。

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

eclipseme 1.7.9

eclipse 出了新的eclipseme插件,官方有下载,但特慢,我都下了大半天(可能自己网速差)。有急需要的朋友可以下哦。。。

Spring Boot -01- 快速入门篇(图文教程)

Spring Boot -01- 快速入门篇 今天开始不断整理 Spring Boot 2.0 版本学习笔记,大家可以在博客看到我的笔记,然后大家想看视频课程也可以到【慕课网】手机 app,去找【Spring Boot 2.0 深度实践】的课程,令人开心的是,课程完全免费! 什么是 Spring Boot? Spring Boot 是由 Pivotal 团队提供的全新框架。Spring Boot...

HoloLens2开发入门教程

本课程为HoloLens2开发入门教程,讲解部署开发环境,安装VS2019,Unity版本,Windows SDK,创建Unity项目,讲解如何使用MRTK,编辑器模拟手势交互,打包VS工程并编译部署应用到HoloLens上等。

最简单的倍频verilog程序(Quartus II)

一个工程文件 几段简单的代码 一个输入一个输出(50Mhz倍频到100Mhz)

计算机组成原理实验教程

西北工业大学计算机组成原理实验课唐都仪器实验帮助,同实验指导书。分为运算器,存储器,控制器,模型计算机,输入输出系统5个章节

4小时玩转微信小程序——基础入门与微信支付实战

这是一个门针对零基础学员学习微信小程序开发的视频教学课程。课程采用腾讯官方文档作为教程的唯一技术资料来源。杜绝网络上质量良莠不齐的资料给学员学习带来的障碍。 视频课程按照开发工具的下载、安装、使用、程序结构、视图层、逻辑层、微信小程序等几个部分组织课程,详细讲解整个小程序的开发过程

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

基于RSA通信密钥分发的加密通信

基于RSA通信密钥分发的加密通信,采用pycrypto中的RSA、AES模块实现

不同变质程度煤尘爆炸残留气体特征研究

为分析不同变质程度煤尘爆炸残留气体成分的特征规律,利用水平管道煤尘爆炸实验装置进行了贫瘦煤、肥煤、气煤、长焰煤4种不同变质程度的煤尘爆炸实验,研究了不同变质程度煤尘爆炸后气体残留物含量的差异,并对气体

设计模式(JAVA语言实现)--20种设计模式附带源码

课程亮点: 课程培训详细的笔记以及实例代码,让学员开始掌握设计模式知识点 课程内容: 工厂模式、桥接模式、组合模式、装饰器模式、外观模式、享元模式、原型模型、代理模式、单例模式、适配器模式 策略模式、模板方法模式、观察者模式、迭代器模式、责任链模式、命令模式、备忘录模式、状态模式、访问者模式 课程特色: 笔记设计模式,用笔记串连所有知识点,让学员从一点一滴积累,学习过程无压力 笔记标题采用关键字标识法,帮助学员更加容易记住知识点 笔记以超链接形式让知识点关联起来,形式知识体系 采用先概念后实例再应用方式,知识点深入浅出 提供授课内容笔记作为课后复习以及工作备查工具 部分图表(电脑PC端查看):

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

软件测试2小时入门

本课程内容系统、全面、简洁、通俗易懂,通过2个多小时的介绍,让大家对软件测试有个系统的理解和认识,具备基本的软件测试理论基础。 主要内容分为5个部分: 1 软件测试概述,了解测试是什么、测试的对象、原则、流程、方法、模型;&nbsp; 2.常用的黑盒测试用例设计方法及示例演示;&nbsp; 3 常用白盒测试用例设计方法及示例演示;&nbsp; 4.自动化测试优缺点、使用范围及示例‘;&nbsp; 5.测试经验谈。

几率大的Redis面试题(含答案)

本文的面试题如下: Redis 持久化机制 缓存雪崩、缓存穿透、缓存预热、缓存更新、缓存降级等问题 热点数据和冷数据是什么 Memcache与Redis的区别都有哪些? 单线程的redis为什么这么快 redis的数据类型,以及每种数据类型的使用场景,Redis 内部结构 redis的过期策略以及内存淘汰机制【~】 Redis 为什么是单线程的,优点 如何解决redis的并发竞争key问题 Red...

手把手实现Java图书管理系统(附源码)

【超实用课程内容】 本课程演示的是一套基于Java的SSM框架实现的图书管理系统,主要针对计算机相关专业的正在做毕设的学生与需要项目实战练习的java人群。详细介绍了图书管理系统的实现,包括:环境搭建、系统业务、技术实现、项目运行、功能演示、系统扩展等,以通俗易懂的方式,手把手的带你从零开始运行本套图书管理系统,该项目附带全部源码可作为毕设使用。 【课程如何观看?】 PC端:https://edu.csdn.net/course/detail/27513 移动端:CSDN 学院APP(注意不是CSDN APP哦) 本课程为录播课,课程2年有效观看时长,大家可以抓紧时间学习后一起讨论哦~ 【学员专享增值服务】 源码开放 课件、课程案例代码完全开放给你,你可以根据所学知识,自行修改、优化

jsp+servlet入门项目实例

jsp+servlet实现班级信息管理项目

winfrom中嵌套html,跟html的交互

winfrom中嵌套html,跟html的交互,源码就在里面一看就懂,很简单

Java面试题大全(2020版)

发现网上很多Java面试题都没有答案,所以花了很长时间搜集整理出来了这套Java面试题大全,希望对大家有帮助哈~ 本套Java面试题大全,全的不能再全,哈哈~ 一、Java 基础 1. JDK 和 JRE 有什么区别? JDK:Java Development Kit 的简称,java 开发工具包,提供了 java 的开发环境和运行环境。 JRE:Java Runtime Environ...

python实现数字水印添加与提取及鲁棒性测试(GUI,基于DCT,含测试图片)

由python写的GUI,可以实现数字水印的添加与提取,提取是根据添加系数的相关性,实现了盲提取。含有两种攻击测试方法(高斯低通滤波、高斯白噪声)。基于python2.7,watermark.py为主

Xshell6完美破解版,亲测可用

Xshell6破解版,亲测可用,分享给大家。直接解压即可使用

你连存活到JDK8中著名的Bug都不知道,我怎么敢给你加薪

CopyOnWriteArrayList.java和ArrayList.java,这2个类的构造函数,注释中有一句话 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 public ArrayList(Collection&lt;? ...

程序员的算法通关课:知己知彼(第一季)

【超实用课程内容】 程序员对于算法一直又爱又恨!特别是在求职面试时,算法类问题绝对是不可逃避的提问点!本门课程作为算法面试系列的第一季,会从“知己知彼”的角度,聊聊关于算法面试的那些事~ 【哪些人适合学习这门课程?】 求职中的开发者,对于面试算法阶段缺少经验 想了解实际工作中算法相关知识 在职程序员,算法基础薄弱,急需充电 【超人气讲师】 孙秀洋&nbsp;| 服务器端工程师 硕士毕业于哈工大计算机科学与技术专业,ACM亚洲区赛铜奖获得者,先后在腾讯和百度从事一线技术研发,对算法和后端技术有深刻见解。 【课程如何观看?】 PC端:https://edu.csdn.net/course/detail/27272 移动端:CSDN 学院APP(注意不是CSDN APP哦) 本课程为录播课,课程无限观看时长,但是大家可以抓紧时间学习后一起讨论哦~

相关热词 c#框体中的退出函数 c# 按钮透明背景 c# idl 混编出错 c#在位置0处没有任何行 c# 循环给数组插入数据 c# 多线程死锁的例子 c# 钉钉读取员工排班 c# label 不显示 c#裁剪影像 c#工作进程更新ui
立即提问