python的requests出现10053错误,你的主机中的软件中止了一个已建立的连接。

代码:
response = requests.get(url=url, headers=headers)

是在做爬虫,昨天爬的好好的,今天就出现这个错误了,
重启爬虫,一开始能爬,过一会又出错,希望大神帮我看下

报错如下:

 Traceback (most recent call last):
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 601, in urlopen
    chunked=chunked)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 387, in _make_request
    six.raise_from(e, None)
  File "<string>", line 2, in raise_from
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 383, in _make_request
    httplib_response = conn.getresponse()
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\http\client.py", line 1331, in getresponse
    response.begin()
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\http\client.py", line 297, in begin
    version, status, reason = self._read_status()
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\http\client.py", line 258, in _read_status
    line = str(self.fp.readline(_MAXLINE + 1), "iso-8859-1")
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\socket.py", line 586, in readinto
    return self._sock.recv_into(b)
ConnectionAbortedError: [WinError 10053] 你的主机中的软件中止了一个已建立的连接。

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\requests\adapters.py", line 440, in send
    timeout=timeout
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 639, in urlopen
    _stacktrace=sys.exc_info()[2])
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\util\retry.py", line 357, in increment
    raise six.reraise(type(error), error, _stacktrace)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\packages\six.py", line 685, in reraise
    raise value.with_traceback(tb)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 601, in urlopen
    chunked=chunked)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 387, in _make_request
    six.raise_from(e, None)
  File "<string>", line 2, in raise_from
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\urllib3\connectionpool.py", line 383, in _make_request
    httplib_response = conn.getresponse()
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\http\client.py", line 1331, in getresponse
    response.begin()
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\http\client.py", line 297, in begin
    version, status, reason = self._read_status()
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\http\client.py", line 258, in _read_status
    line = str(self.fp.readline(_MAXLINE + 1), "iso-8859-1")
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\socket.py", line 586, in readinto
    return self._sock.recv_into(b)
urllib3.exceptions.ProtocolError: ('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建立的连接。', None, 10053, None))

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "F:/temp/wosSpider/spider/main.py", line 476, in <module>
    wos_crawl.post_data()
  File "F:/temp/wosSpider/spider/main.py", line 184, in post_data
    response = requests.get(url=url, headers=headers, allow_redirects=False, )
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\requests\api.py", line 72, in get
    return request('get', url, params=params, **kwargs)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\requests\api.py", line 58, in request
    return session.request(method=method, url=url, **kwargs)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\requests\sessions.py", line 508, in request
    resp = self.send(prep, **send_kwargs)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\requests\sessions.py", line 618, in send
    r = adapter.send(request, **kwargs)
  File "C:\Users\longziyi\Anaconda3\envs\wos_spider\lib\site-packages\requests\adapters.py", line 490, in send
    raise ConnectionError(err, request=request)
requests.exceptions.ConnectionError: ('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建立的连接。', None, 10053, None))

1个回答

看下你的代码的逻辑,其中打开了连接没有关闭。
你说你的程序之前是好的,可能是你关闭连接的逻辑因为某种原因(比如超时异常)没有执行到。

qq_39457091
努力才能被爱慕 可是我使用requests的get和post都没涉及关闭连接,你的意思是我的程序影响到requests里面的连接关闭吗
大约 2 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
求助 python爬虫 requests的get出现10054错误 远程主机强迫关闭了一个现有的连接

这个爬的是智联的招聘信息,在爬了上千条数据后就容易出现这个错误。 Traceback (most recent call last): File "G:/python/zhilian_crawler/crawler3.py", line 284, in <module> get_more_page(1,91) File "G:/python/zhilian_crawler/crawler3.py", line 170, in get_more_page get_page(url+str(one)) File "G:/python/zhilian_crawler/crawler3.py", line 28, in get_page get_more_data(soup) File "G:/python/zhilian_crawler/crawler3.py", line 159, in get_more_data webData=requests.get(url0) File "D:\Python3\lib\requests\api.py", line 70, in get return request('get', url, params=params, **kwargs) File "D:\Python3\lib\requests\api.py", line 56, in request return session.request(method=method, url=url, **kwargs) File "D:\Python3\lib\requests\sessions.py", line 475, in request resp = self.send(prep, **send_kwargs) File "D:\Python3\lib\requests\sessions.py", line 596, in send r = adapter.send(request, **kwargs) File "D:\Python3\lib\requests\adapters.py", line 473, in send raise ConnectionError(err, request=request) requests.exceptions.ConnectionError: ('Connection aborted.', ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None))

python requests https报错解决

用python requests库去下载https的m3u8视频资源时出现报错 ``` file_url = os.path.split(url)[0] + "/" + file_list[i] save_path = item_path + "/" + file_list[i] file_res = requests.get(file_url, proxies=proxies) if file_res.status_code == 200: with open(save_path, "wb") as file1: file1.write(file_res.content) ``` ``` requests.exceptions.SSLError: HTTPSConnectionPool(host='godsold.com', port=443): Max retries exceeded with url: .............ts (Caused by SSLError(SSLError("bad handshake: SysCallError(10053, 'WSAECONNABORTED')"))) ``` 试过网上那些verify=false还是出现这种情况。有谁遇到过这种情况的能给解答一下吗?

python requests.get得到的中文编码错误

在练习爬虫的时候requests.get一个网站 打印出来的得到的text中文是 &#x 5BF6;&#x 8C9D;&#x 9F8D;的(为了防止网页自动编码在&#x后面敲了空格)。其他网站都能正常显示 。 找了很多方法都没法普通的显示成中文。 代码 ``` import requests import chardet response = requests.get("https://store.playstation.com/zh-hant-hk/grid/STORE-MSF86012-SPECIALOFFER/1?smcid=hk-chs_ps%3Acom_header") print(response.text) ```

看看我吧!求求了!Python安装requests出错,怎么办?

我是第一次学习python,安装requests库,我首先是在cmd里查找了我的script文件夹里是否有pip.exe,有,我接着pip install requests,接着提示我更新,我也Python -m pip install --user --upgrade pip更新. 但是还是import requests不成功 ![图片说明](https://img-ask.csdn.net/upload/202001/31/1580450434_278392.png) 我再一次在cmd尝试pip install requests,就出现错误了 ![图片说明](https://img-ask.csdn.net/upload/202001/31/1580450564_647266.png) 警告是说我因为升级不可以再用原来的pip命令 要加-m 我试了一下还是不可以 我也尝试了百度等方法,但是都不太明白错在哪里 拜托各位大神,帮我看看吧,谢谢啦!

python requests模拟登陆的问题

刚学python,做一个自动登陆考勤系统的脚本,有一个简单的text格式验证码类似于<strong>1234<strong>,思路是先用requests.get(url)和beautifulsoup.strong.string抓取验证码,然后post 用户信息之类,但是post的时候总会遇到验证码错误,应该是重新载入页面验证码刷新导致的,请问有没有更好的办法(例如cookie?)? 登陆网址类似http://xxxx.xxxx.com/xxxx/index.jsp,从这里抓验证码; 然后根据fiddler抓取的过程,向http://xxxx.xxxx.com/xxxx/loginservlet这个网址post信息; 真心学习,求轻喷。

Python requests 编码问题

r=requests.get(url)时,出现UnicodEncodeError :'latin-1' codec can't encode charecter '\u2026'

Python requests 爬取网页源码问题

python requests爬取网页内容出现 <html><body><h1>500 Server Error</h1> An internal server error occured. </body></html> 怎么解决

python requests后json的问题

request后json的值为空,这是什么情况,各位老师给看看,谢谢 还有怎么上传图啊,手机。 ![图片说明](https://img-ask.csdn.net/upload/201812/05/1544000786_380130.png)![图片说明](https://img-ask.csdn.net/upload/201812/05/1544000795_120443.png)

python requests 范围请求无效是怎么回事呢?

做个简单的断点续存,不管offset设置成多少,数据都是从0字节开始,代码如下 import requests offset = 100000 s = requests.session() s.headers['Range'] = 'bytes=%s-'%(offset) res = s.get(url)

python requests模拟登录B站验证码问题

求问如何保证我获取的验证码和和执行模拟登录的验证码是一致的啊 附上代码 # -*- coding : cp936 -*- import time import datetime import requests import traceback from PIL import Image # First get the picList session = requests.Session() headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:52.0) Gecko/20100101 Firefox/52.0', 'Accept-Language':'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3', 'Connection': 'keep-alive', 'Host':'passport.bilibili.com','Referer': 'https://passport.bilibili.com/login', 'Accept':'*/*','Accept-Encoding':'gzip, deflate, br'} def getPicCode(): picurl = 'http://passport.bilibili.com/captcha' try: payload = {'t':''} pictext = session.get(url = picurl,headers = headers) print pictext.status_code #print pictext.request.headers with open('codepic.jpg','wb') as result: result.write(pictext.content) except Exception, diag: print str(diag) def LoginBili(userid,password,vdcode): getPicCode() image = Image.open("codepic.jpg") image.show() vdcode = raw_input('Please input the code in the Pic:') loginurl = 'https://passport.bilibili.com/login/dologin' data = {'act':'login','gourl':'http://www.bilibili.com/','keeptime':'2592000', 'pwd':password,'userid':userid,'vdcode':vdcode} print data r = session.post(url = loginurl,headers = headers,data = data) print r.status_code print r.text if __name__ == '__main__': password = '**************' userid,vdcode = '**********','0' LoginBili(userid, password, vdcode) 每次需要手动输入自己获取的验证码,但是不知道为什么,每次显示输入的验证码都是错误的,应该是两次访问页面,这个验证码变化了,不知道要怎么调整

Python requests模块爬取https网站使用代理的问题

请问在Python使用requests库做爬虫爬取https协议的网站的时候,代理要怎么设置呢? 官方文档的说明如下 import requests proxies = { "http": "http://10.10.1.10:3128", "https": "http://10.10.1.10:1080",} requests.get("http://example.org", proxies=proxies) 我的第一个问题是,为什么 "https": "http://10.10.1.10:1080" 这里对应的ip前面不是https而也是用http呢? 另外,我爬取了http://www.xsdaili.com 上的代理,按照上面的方式通过访问https://httpbin.org/get 验证,但是结果都是代理无法访问(代码如下,d\_ip是示例,实际抓取的ip请见附件)不知道是不是代理的用法有问题。还是所有的代理都无效... 编程新手,对于web相关知识也很有限。希望各位能帮忙解答。 谢谢! import random import requests d_ip = {"https": [ "47.112.200.175:8000", "121.237.149.33:3000", "123.149.136.43:9999"]} headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.87 Safari/537.36'} proxies = {"https" : "http://" + random.choice(d_ip["https"])} r = requests.get("https://httpbin.org/get", headers=headers, proxies=proxies) # 错误如下 ProxyError: HTTPSConnectionPool(host='httpbin.org', port=443): Max retries exceeded with url: /get (Caused by ProxyError('Cannot connect to proxy.', NewConnectionError('<urllib3.connection.VerifiedHTTPSConnection object at 0x000001E87F7E7F28>: Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。')))

求助关于python requests.post文件上传的问题?谢谢

不理解requests.post上传文件是什么意思,求帮助。 例如代码: >>> import requests >>> files = {'file':open(r'C:\Users\Desktop\001.jpg','rb')} >>> response = requests.post('http://www.baidu.com',files=files) >>> print(response.text) 这时有返回结果的,但是有137行,没有粘上。 问题1:这里是上传这个图片文件是什么意思,是在百度首页文本输入框传入一张图片,然后点回车搜索吗? 问题2:这个上传有什么作用吗?实际并看不到将图片上传到哪里了?

Python Requests 保存 Cookie 到本地发生的问题

![图片说明](https://img-ask.csdn.net/upload/201812/27/1545915208_296070.png) 各位大佬 , 执行 > session.cookies.save() 这句代码时 , 提示 如上错误 小白求解 谢谢

python requests post 如何跳过data编码

我在requests中 data={ 'text':'%D1%A7%C9%FA', } 有这样一个数据 f=requests.post(url,headers=heard2,data=data) 发送出去时抓包发现 text=%25D1%25A7%25C9%25FA被编码了 如何跳过这个编码直接发送 text=%D1%A7%C9%FA 试了 data={ u'text':u'%D1%A7%C9%FA' } 不可以还是被编码

python requests.get(url) 采集网页中文乱码问题。

![图片说明](https://img-ask.csdn.net/upload/201703/09/1489039070_401640.jpg) 如图:这个编码怎么解决,

python使用requests大批量请求卡住怎么解决?

我用python的request抓取别人网站抓了几100条左右就卡死了是什么情况? ``` page=request.GET.get('page') for pages in range(1,int(page)+1): data = requests.get("http://okokzy.cc/?m=vod-type-id-1-pg-"+str(pages)+".html") data.encoding = "utf-8" data = data.text data = etree.HTML(data) name = data.xpath("//div[@class='xing_vb']/ul/li/span[@class='xing_vb4']/a/text()") link = data.xpath("//div[@class='xing_vb']/ul/li/span[@class='xing_vb4']/a/@href") listcode = 0 print(link) ``` 没有任何报错也没有发现任何异常就是打印出来的东西打印到某一条到时候就不动了

python requests库添加headers出错

import requests url = "https://movie.douban.com/top250" headers = {'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'} res = requests.get(url,headers=headers) print (res) ![图片说明](https://img-ask.csdn.net/upload/201809/23/1537632343_760128.jpg)

python requests post data=编码问题

我在 **data={ 'text':'%D1%A7%C9%FA', }**有这样一个数据 f=request.post(url,headers=heard2,data=data) 发送出去时抓包发现 text=%25D1%25A7%25C9%25FA被编码了 如何跳过这个编码 text=%D1%A7%C9%FA data={ u'text':u'' }不可以

python3+requests 页面重定向问题

整体是一个先登录,验证成功后跳转到主页的过程, ![图片说明](https://img-ask.csdn.net/upload/201711/27/1511773702_21486.png) 在这里可以看到,location为:http://www.cwddd.com/?5 。但是在程序中获取到的却没有后面的参数。如下图: ![图片说明](https://img-ask.csdn.net/upload/201711/27/1511773900_133507.png) 小白求解答~在线等

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

C++11:一些微小的变化(新的数据类型、template表达式内的空格、nullptr、std::nullptr_t)

本文介绍一些C++的两个新特性,它们虽然微小,但对你的编程十分重要 一、Template表达式内的空格 C++11标准之前建议在“在两个template表达式的闭符之间放一个空格”的要求已经过时了 例如: vector&lt;list&lt;int&gt; &gt;; //C++11之前 vector&lt;list&lt;int&gt;&gt;; //C++11 二、nullptr ...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

【阿里P6面经】二本,curd两年,疯狂复习,拿下阿里offer

二本的读者,在老东家不断学习,最后逆袭

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!...

作者 | 伍杏玲出品 | CSDN(ID:CSDNnews)格子衬衫、常掉发、双肩包、修电脑、加班多……这些似乎成了大众给程序员的固定标签。近几年流行的“跨界风”开始刷新人们对程序员的...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐