Python requests 爬取网页源码问题

python requests爬取网页内容出现

500 Server Error


An internal server error occured.

怎么解决

1个回答

这个属于服务器内部错误了,requests库可以返回http状态码: requests.get('http://www.baidu.com').status_code 。通过它捕捉异常即可。记住一点,
爬虫能获取的数据是用户能看到的,如果你自己手动输入网址访问也出现500,那肯定是目标服务器出错了。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Python爬取网页requests乱码

之前有在裁判文书上爬取数据,这段时间重新运行爬虫后发现无法获取网页数据,找了一下发现requests网页源码返回的是乱码 (如下截取一部分返回的数据:<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><meta id="JLyKZlWgYjpTkAsEt9LnA" ) 不知道是不是网站对网页内容进行了加密,请问如何解决这个问题?谢谢!

求助,python 解析爬取的网页源码中的json部分

爬下来的网页源码有一部分是这样的 : ![图片说明](https://img-ask.csdn.net/upload/201603/11/1457684608_605734.jpg) 中间那一部分是json吧?要怎么才能解析成像浏览器那样的好继续抓取所要的信息? 说部分是因为有另外一些是正常的html,就中间这一部分想要的信息就这样两行超级长的延伸。。。也使用过json.load()来解析,不想显示错误“没有可以解析的json对象”。 这两行中还有一部分“}\u0026nick\u003d${nick}\u0026rn\u003d${rn}\u0026stats...”应该是unicode的编码,也不知道要怎么办。。 我是想要从淘宝上爬些衣服的图片下来,从首页开始,爬出其中分页的链接,然后拿到分页的源码后要解析出图片的url时出的问题。 下面是部分代码: url = 'https://www.taobao.com' header = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_3) AppleWebKit/601.4.4 (KHTML, like Gecko) Version/9.0.3 Safari/601.4.4'} cookie = {"cookies":'mt="ci=10_1";uc1="cookie14=UoWyia%2Bf0iS5lw%3D%3D&cookie16=VT5L2FSpNgq6fDudInPRgavC%2BQ%3D%3D&existShop=false&cookie21=U%2BGCWk%2F7pY%2FF&tag=7&cookie15=UIHiLt3xD8xYTw%3D%3D&pas=0"'} html = requests.get(url) #解析html,xml转义字符 html_parser = HTMLParser.HTMLParser() text = html_parser.unescape(html.text) # soup = BeautifulSoup(html.text) #用xpath来提取链接,如"打底羊毛衫"这个类别 selector = etree.HTML(text) sub_url = selector.xpath('//*[@id="J_Top"]/div/div[1]/div/div/div/div[3]/div[1]/div/div/div[1]/a[1]/@href') print sub_url[0] sub_html = requests.get(sub_url[0]) sub_text = html_parser.unescape(sub_html.text) # soup = BeautifulSoup(sub_html.text,"lxml") # print soup.prettify() print sub_text ``` ```

爬虫爬取的源代码和直接从网页打开的源代码不一样

爬虫爬取的源代码和直接从网页打开的源代码不一样 ``` import re import requests from bs4 import BeautifulSoup import webbrowser def Get_web(url): #获取网页的HTML文档。这里web_info 显示的HTML文件和直接从网页查看源文件的都不一样了 try: r = requests.get(url,headers={'user-agent':'Mozilla/5.0'}) print("!") print(r.raise_for_status()) r.encoding=r.apparent_encoding web_info=r.text print(web_info) except: print("error") return web_info def Process_text(web_info): soup = BeautifulSoup(web_info,"html.parser") script = soup.find_all("script") print(script) Processed_text=[] return Processed_text def Print_text(Processed_text): pass def main(): item="螺狮粉" for num in range(0,1): url="https://s.taobao.com/search?q=螺狮粉&s=0" webbrowser.open(url, new=0, autoraise=True) web_info = Get_web(url) Process_text(web_info) main() ```

python的爬取html网页错误

``` import requests import xml.etree.ElementTree as ET from xml.parsers.expat import ParserCreate class DefaultSaxHandler(object): def __init__(self, provinces): self.provinces = provinces def start_element(self, name, attrs): pass def end_element(self, name): pass def char_data(self, text): self.provinces.append((text)) def get_province_entry(url): content = requests.get(url).content.decode('gb2312') start = content.find('<table height="22" cellSpacing="0" cellPadding="0" width="710" border="0">') end = content.find('<tr align="middle">') content = content[start:end ].strip() print(content) provinces = [] handler = DefaultSaxHandler(provinces) parser = ParserCreate() parser.StartElementHandler = handler.start_element parser.EndElementHandler = handler.end_element parser.CharacterDataHandler = handler.char_data parser.Parse(content) return provinces provinces = get_province_entry('http://www.ip138.com/post/') print(provinces) ``` 我想问下为什么打印出空值,我觉得是这部分错了,但是说不出哪里错 ``` def char_data(self, text): self.provinces.append((text)) ```

为什么python爬虫下载的网页源码不完整?

我用python的requests和bs4库提取百度的页面,为什么只提取出一小段文字呢?不知道是不是http和https的问题。我改成http就可以得到完整的源代码。如果是这个问题的话,应该怎么解决呢? ``` >>> r= requests.get("https://www.baidu.com/s?wd=s") >>> r.text '<html>\r\n<head>\r\n\t<script>\r\n\t\tlocation.replace(location.href.replace("https://","http://"));\r\n\t</script>\r\n</head>\r\n<body>\r\n\t<noscript><meta http-equiv="refresh" content="0;url=http://www.baidu.com/"></noscript>\r\n</body>\r\n</html>' ```

python 爬取网页里面的xhr文件。

最近在爬虫实战中,想要爬取一段网页里面的xhr文件,观察到此文件是post请求的,用python里面的request.post怎么都获取不到,但是状态码为200.后来试着在浏览器里面直接打开这个url,发现也是什么都没有。

python爬虫获取源码与网页不同

使用requests和bs4库 静态爬取页面[2017年数据](http://www.zuihaodaxue.com/zuihaodaxuepaiming2017.html "") Soup获得部分源码如图 ![图片说明](https://img-ask.csdn.net/upload/201709/29/1506692129_124729.png) 对应网页源码如图 ![图片说明](https://img-ask.csdn.net/upload/201709/29/1506692155_28545.png) 可见,该tr中第一个&lt;td&gt1&lt;/td&gt;;在Soup中变成了&lt;td&gt;1&lt;td&gt; ,而末尾处也多了一个&lt;/td&gt; 该问题发生在每一个tr中,但爬取[2016年数据](http://www.zuihaodaxue.com/zuihaodaxuepaiming2016.html "")并没有出现该问题。 代码照抄教程,应该不存在问题

使用python requests 利用代理 爬取网站内容时候,返回的网页内容是代理ip的网站内容

proxies={ "http": "http://61.135.217.7:80", "https":"https://113.108.130.210:808" } 请求方式: requests.get(url="a 网址",proxies=proxies} 代理ip来源于 http://www.xicidaili.com/nn/ 按照这样的格式爬取的数据,结果爬取的到的内容不是a网址的内容,而是代理中 ['http']的代理的网页内容。 如果 requests.get(url="a 网址",proxies=None} 不使用代理,则可以获取到网页的正确的内容? 不知道怎么回事

python爬虫爬取数据存储进数据库的问题

一直说我主键已存在,无法进行存储 我做的爬虫是csdn爬虫,针对于论坛一个版块,爬取某几页的所有帖子 我用的是flask-sqlalchemy来进行操作数据库,下面是三个需要用到的模型: ``` class Topic(db.Model): answer = relationship('Answer', backref='topic', lazy='dynamic') author_id = Column(String(30), ForeignKey('user.id')) id=Column(String(30),primary_key=True) title = Column(String(30)) author_name=Column(String(30)) create_time = Column('create_time', Integer) answer_nums=Column(Integer,default=0) content=Column(Text) click_nums=Column(String(30),default='0') parised_nums=Column(Integer,default=0) score=Column(Integer,default=0) status=Column(String(30)) jtl=Column(String(30),default='0.0') ``` **_上面是帖子模型,跟answer模型相关联,answer模型就是一个帖子内的所有回答,而同时author_id是作为外键跟user模型相关联 **_ ``` class Answer(db.Model): id=Column(String(30),primary_key=True) topic_name=Column(String(30)) author_name=Column(String(30)) author_id=Column(String(30)) content=Column(Text) create_time = Column('create_time', Integer) parised_nums=Column(Integer,default=0) topic_id=Column(String(30),ForeignKey('topic.id')) ``` 上面是针对每一个回答的模型 ``` class User(db.Model): topic=relationship('Topic',backref='user',lazy='dynamic') id=Column(String(30),primary_key=True) click_nums=Column(String(30),default='0') original_nums=Column(Integer,default=0) #原创数 forward_nums=Column(Integer,default=0) #转发数 rate=Column(Integer,default=-1) #排名 answer_nums=Column(Integer,default=0) #评论数 parised_nums=Column(Integer,default=0) #获赞数 desc=Column(Text) #描述 industry=Column(String(40)) #工作行业 location=Column(String(40)) follower_nums=Column(Integer,default=0) #粉丝数 following_nums=Column(Integer,default=0) #关注数 level=Column(Integer) ``` 上面就是用到的三大模型: 下面是进行存储数据的代码: ``` if page == 0: html = requests.get('https://bbs.csdn.net/forums/Mobile/recommend').text else: html=requests.get('https://bbs.csdn.net/forums/Mobile/recommend',params={'page':page}).text bsoj = BeautifulSoup(html, 'lxml') tags= bsoj.find('div', class_='forums_table_c').tbody.find_all('tr') ''' 爬取这一页的帖子,至于第几页根据传进来的page所定义 tags就是里面帖子的集合 ''' for tag in tags: status=self.get_status(tag) score=self.get_score(tag) answer_nums,click_nums=self.get_click_nums_and_answer_nums(tag) ''' 上面这三个是需要爬取的几个东西,不需要理会 ''' url='https://bbs.csdn.net'+self.get_url(tag) ''' 这个url就是每一个帖子的url ''' topic=Topic(url,score,status,click_nums,int(answer_nums)) topic_db = Topic_Model(topic) ''' 初始化topic,这个topic_db就是topic模型的对象 ''' user = User(topic.author_id) user_db = User_Model(user) ''' user就是user模型的对象 ''' self.onhand(url,topic,topic_db,user_db,user) def onhand(self,url,topic,topic_db,user_db,user): html=requests.get(url).text bsoj=BeautifulSoup(html,'lxml') tags=bsoj.find_all('div',class_='mod_topic_wrap post') answers=[] ''' 这一步是为了抓取一个帖子内所有的回答 ''' for tag in tags: answer=Answer(topic,tag) answer_db=Answer_Model(answer) answers.append(answer_db) ''' 抓取所有回答,并将每一个回答实例化一个Answer模型的对象 ''' topic_db.answer=answers ''' 关联数据库,将所有的answer对象都放在topic里面 ''' user_db.topic.append(topic_db) ''' user与topic关联 这里是有问题的,因为如果user已经存在再数据库里,那么就不会提交,那么这个topic增加就没意义了,但是我不知道如何解决 ''' if User_Model.query.filter_by(id=user.id).first() is None: db.session.add(user_db) db.session.commit() ''' 判断是否要存储到数据库里 ''' db.session.add(topic_db) db.session.commit() for data in answers: db.session.add(data) db.session.commit() ''' 将answer集合里的所有answer提交到数据库中 ''' ``` 下面是报错信息: ![图片说明](https://img-ask.csdn.net/upload/201904/22/1555936870_832821.png) 明明已经进行判断了,如果存在就不会进行存储,照样报错了,而且奇怪的是我debug时是这一句出现了错误: ``` db.session.add(topic_db) db.session.commit() ``` 不知道如何解决,求各位大佬帮忙

为何用Python做爬虫时抓取下来的页面跟源代码不一样?

代码如下: # -*- coding:utf-8 -*- import urllib import urllib2 import re baseURL = 'http://zhidao.baidu.com/question/491268910.html' headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36'} #request = urllib2.Request(baseURL) request = urllib2.Request(url=baseURL,headers=headers) response = urllib2.urlopen(request) print response.read().decode("GBK") 我用上面的代码爬取一个百度知道的答案,把抓取到的信息打印出来为什么有的地方跟网页审查元素所显示的代码不一样? 网页原来的段落为:![图片说明](https://img-ask.csdn.net/upload/201604/05/1459841312_538797.png) 这段话对应的源代码为:![图片说明](https://img-ask.csdn.net/upload/201604/05/1459841401_109843.png) 抓取网页信息后的对应的代码为:![图片说明](https://img-ask.csdn.net/upload/201604/05/1459841477_324454.png) 我尝试了一个,在提取页面时,加载一个headers头部,但是结果还是不行,求各路大神指点,直接把解决办法附在评论区里,谢谢各路大神了。。。

python3+requests 页面重定向问题

整体是一个先登录,验证成功后跳转到主页的过程, ![图片说明](https://img-ask.csdn.net/upload/201711/27/1511773702_21486.png) 在这里可以看到,location为:http://www.cwddd.com/?5 。但是在程序中获取到的却没有后面的参数。如下图: ![图片说明](https://img-ask.csdn.net/upload/201711/27/1511773900_133507.png) 小白求解答~在线等

用python写的爬虫,但获取的网页源码不全,是什么原因?求帮助啦,呜呜。。。。

import urllib2; import urllib; import time; import re; url= str("http://technet.microsoft.com/en-us/windows/release-info/"); req = urllib2.Request(url); req.add_header("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36"); response=urllib2.urlopen(req); html=response.read(); print "html=",html;

python爬虫爬取图片和图片的标题保存时出现IOError

import urllib import urllib2 import re import os #爬取索引页面源代码 siteURL='https://www.warningsignsdirect.co.uk/index.php?cPath=518' request=urllib2.Request(siteURL) response=urllib2.urlopen(request) page=response.read().decode('utf-8') print u"已爬取索引页面源代码" os.chdir("C:\Users\hey_fall\Desktop") #抓取页面中指定的图片 pattern=re.compile('<td align="center" class="smallText" width="33%" valign="middle"><a href=".*?"><img src=".*?" alt=".*?" title=".*?" .*? /><br><br>.*?</a><br><br><br><br></td>',re.S) content=re.findall(pattern,page) patternImg=re.compile('<img src="(.*?)"',re.S) images=re.findall(patternImg,str(content)) print u"已爬取该网页图片" #抓取图片的说明文本 patternIntroductions=re.compile('title="(.*?)"',re.S) Introductions=re.findall(patternIntroductions,str(content)) #去除匹配字符中的转义字符 number=0 for introduction in Introductions: Introductions[number]=str(introduction).replace('\\','') number+=1 print u"已爬取图片的说明文本" #抓取说明文本的标题 patternTitle=re.compile('<title>(.*?) </title>') Title=re.findall(patternTitle,page) print u"已爬取文本标题" #创建文件夹 path=os.getcwd() title=Title[0] new_path=os.path.join(path,title) if not os.path.isdir(new_path): os.makedirs(new_path) os.chdir(new_path) print u"已创建文件夹",new_path #保存图片的说明文本 IntroductionName=Title[0]+".txt" f=open(IntroductionName,'w+') for introduction in Introductions: f.write(introduction+'\n') f.close() print u"图片的说明文本已保存到",new_path #保存抓取到的图片 number=0 for imageURL in images: filename=Introductions[number]+'.jpg' url='https://www.warningsignsdirect.co.uk'+'/'+imageURL urllib.urlretrieve(url,filename) number+=1 print u"图片已保存到",new_path print u"该网页内容爬取完毕"

Python中BeautifulSoup获取微博源代码不完整怎么办?

各位大神: 小弟是初学者,用Python3.7.0爬取微博中的“转发、评论和赞”的数据时,发现BeautifulSoup获取的内容与源代码不一致,请问是怎么回事? 源代码: ![图片说明](https://img-ask.csdn.net/upload/201902/27/1551230996_514571.png) 爬取结果: ![图片说明](https://img-ask.csdn.net/upload/201902/27/1551231276_765544.png)

【python】网站原html文档和requests+beautifulsoup得到的不一致

网站html部分截图: ![网站html截图](https://img-ask.csdn.net/upload/201901/25/1548355839_187964.png) 想爬取目录下的标题(例如截图中的“影像 论坛撩影”) 在shell中找标签过程如下: ``` >>> from bs4 import BeautifulSoup >>> import requests >>> url='http://www.qikan.com.cn/magdetails/4A07226A-70B4-41A8-B61A-3A45A4E09FEC/2019/1.html' >>> r=requests.get(url) >>> r.encoding 'utf-8' >>> soup=BeautifulSoup(r.text,'html.parser') >>> soup.find("div",attrs={"class":"catalog2"}) <div class="catalog2"> <strong>目录</strong> <dl> <dd><a href="/article/zjzk20190101.html" target="_blank">影像丨</a></dd></dl></div> ``` 发现 div class="catalog2" 标签下的内容和原网站不符 于是将 soup.prettify() 输出到txt中,发现输出如下(截取部分): ``` <div class="catalog2"> <strong> 目录 </strong> <dl> <dd> <a href="/article/zjzk20190101.html" target="_blank"> 影像丨 </a> </dd> </dl> </div> </div> </div> </div> </div> </div> </div> </form> </body> </html> 论坛掠影 <dt> <span style="display: "> <img src="http://img.qikan.com.cn/qkimages/zjzk/zjzk201901/72_72/zjzk20190101-1-s.jpg"/> </span> 第十七届中国经济论坛在人民日报社举行。 2018年12月29日,由人民日报社指导,《中国经济周刊》、中国信通院、工信部工业互联网产业联盟共同主办的第十七届中国经济论坛在人民日报社举行。来自政商学界的460 多位嘉宾出席论坛。 人民日报社副总... </dt> <dl> ``` 想询问为什么标签位置与原网页的不一致,应该怎么解决?

python3爬取的内容可以print但是写入本地文件失败,但测试发现写入语句没有问题

# python3 # 源码如下 ``` python import os # 调用系统变量 import re # 正则表达式相关 import urllib import urllib.request import urllib.error import urllib.parse import json import socket import time class ImoocSpider: headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'} def getPythonInfo(self,keyWord): myKeyWord = urllib.parse.quote(keyWord) searchUrl='https://www.imooc.com/search/?words='+myKeyWord try: request = urllib.request.Request(url=searchUrl, headers=self.headers) page = urllib.request.urlopen(request) rsp = page.read().decode('unicode_escape') except UnicodeDecodeError as e: print(e) print('-----UnicodeDecodeErrorurl:', searchUrl) except urllib.error.URLError as e: print(e) print("-----urlErrorurl:", searchUrl) except socket.timeout as e: print(e) print("-----socket timout:", searchUrl) else: myres=rsp self.saveFile(myres,keyWord) finally: page.close() print("get_finally") def saveFile(self,res,keyWord): b="./" + keyWord +'.txt' if not os.path.exists(b): # 判断路径指定下是否存在文件/文件夹 try : fp=open(b,'w') print(res,file=fp) #print到文件 except : # print (e) print('文件写入有误') finally : fp.close() print('save_finally') def start (self, keyWord): self.getPythonInfo(keyWord) if __name__ == '__main__': imoocInfo = ImoocSpider() imoocInfo.start('python') ```

用xpath爬取某视频网站的源视频地址,运行都没问题,结果也没报错,偏偏爬下来是个空列表[],附上源代码

``` import requests import lxml from lxml import etree # 获取当前分页的所有视频地址并存放在urllist列表中 headers={'Cookie':'kt_is_visited=1; Hm_lpvt_762db7441df8f5cc6e82d0d959c93d8f=1556969491; Hm_lvt_762db7441df8f5cc6e82d0d959c93d8f=1556967744; kt_tcookie=1; kt_ips=121.238.219.145; kt_qparams=sort_by%3Dvideo_viewed%26from%3D456; __atuvc=6%7C18; __atuvs=5ccd7150d7cb4d2a005; PHPSESSID=5os69ok886ohqdmhghst50r5a5', 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 'Upgrade - Insecure - Requests':'1', 'Host':'www.cqwoool.com', 'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.1 Safari/605.1.15', 'Accept - Language': 'zh - cn', 'Accept - Encoding': 'gzip, deflate', 'Connection': 'keep - alive'} pages=range(1,2) urllist=[] for page in pages: url = 'http://www.cqwoool.com/most-popular/'+page.__str__()+'/' html=requests.get(url,headers=headers) html_etree=etree.HTML(html.text) href_singlemoviehtml=html_etree.xpath('//*[@id="list_videos_common_videos_list_items"]/div/a/@href') urllist.extend(href_singlemoviehtml) # print(urllist) # 获取指定单个页面中的视频地址 for single_url in urllist: headers2={'Cookie':'kt_ips=121.238.219.145; Hm_lpvt_762db7441df8f5cc6e82d0d959c93d8f=1556973469; Hm_lvt_762db7441df8f5cc6e82d0d959c93d8f=1556967744; kt_is_visited=1; __atuvc=9%7C18; __atuvs=5ccd7f85b3a82678002; kt_tcookie=1; kt_qparams=id%3D5578%26dir%3Db0f2dfb7547977b1329f0980d3f5bcad; PHPSESSID=5os69ok886ohqdmhghst50r5a5', 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 'Accept - Encoding': 'gzip, deflate', 'Upgrade - Insecure - Requests': '1', 'Host': 'www.cqwoool.com', 'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.1 Safari/605.1.15', 'Accept - Language': 'zh - cn', 'Connection': 'keep - alive'} html_single=requests.get(single_url,headers=headers2) html_single_etree=etree.HTML(html_single.content) href_singlemovie=html_single_etree.xpath('//*[@id="kt_player"]/div[2]/video/@src') print(href_singlemovie) ```

Python 爬虫为什么只爬取到一个html页中的部分内容。

在用Python中urlopen和read直接获取到一个网页的HTML,为什么内容与通过浏览器的 查看网页源码的方式显示内容不一样呢,获取到的HTML只有原HTML部分内容。

python 用request模块获取网页的时候

构造headers的时候,是在里面添加越多的信息越好吗?user_agent host referer等等之类的,越多越好吗?

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

C++11:一些微小的变化(新的数据类型、template表达式内的空格、nullptr、std::nullptr_t)

本文介绍一些C++的两个新特性,它们虽然微小,但对你的编程十分重要 一、Template表达式内的空格 C++11标准之前建议在“在两个template表达式的闭符之间放一个空格”的要求已经过时了 例如: vector&lt;list&lt;int&gt; &gt;; //C++11之前 vector&lt;list&lt;int&gt;&gt;; //C++11 二、nullptr ...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

【阿里P6面经】二本,curd两年,疯狂复习,拿下阿里offer

二本的读者,在老东家不断学习,最后逆袭

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!...

作者 | 伍杏玲出品 | CSDN(ID:CSDNnews)格子衬衫、常掉发、双肩包、修电脑、加班多……这些似乎成了大众给程序员的固定标签。近几年流行的“跨界风”开始刷新人们对程序员的...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐