Python爬虫爬到的页面内容与看到的不一致

利用python+BeautifulSoup写了一个爬虫,用来抓http://www.cbooo.cn/paipian 上的数据,可是爬虫返回的页面代码与浏览器中看到的不一致,并没有表格标签。

4个回答

先用fiddler等抓包,然后再照着写。对于ajax请求,需要单独获取其中的数据。

caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 回复yueyang68: ajax和非ajax的获得方法是一样的。只是你需要用fidder这个工具找出地址,和参数。好照着做。
4 年多之前 回复
yueyang68
yueyang68 对于单独获取ajax请求的数据,利用python如何实现?
4 年多之前 回复

有些页面是ajax异步返回的,所以直接请求不到内容,需要用selenium等webdriver

js动态生成的内容无法获取到。。爬虫得到的内容和你右键浏览器查看源代码得到的一模一样

要爬取异步生成的数据,推荐你看一下这个教程,讲地很细致:http://blog.csdn.net/youmumzcs/article/details/51384741

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python爬虫 爬虫的网站源码不齐全怎么办

http://192.168.101.213:7027/swagger-ui.html#/26631209343164929702 用f12打开看到的源码 和用beautifulsoup get到的源码不一样 没法进行爬取

Python爬虫过程中如何保持一致的cookie

Python爬虫时与服务器的三次交互:1、提取验证码,2、登录,3、目标网页的爬虫 1、在看别人程序时,有的在登录和目标网页爬虫过程中使用cookiejar保存cookie,但这样如何保证获取的验证码与登录所需的相匹配 2、需要保证这三次的过程cookie相同么?以及如何保证? 纠结好久了,万分感谢~

python爬虫获取源码与网页不同

使用requests和bs4库 静态爬取页面[2017年数据](http://www.zuihaodaxue.com/zuihaodaxuepaiming2017.html "") Soup获得部分源码如图 ![图片说明](https://img-ask.csdn.net/upload/201709/29/1506692129_124729.png) 对应网页源码如图 ![图片说明](https://img-ask.csdn.net/upload/201709/29/1506692155_28545.png) 可见,该tr中第一个<td&gt1</td>;在Soup中变成了<td>1<td> ,而末尾处也多了一个</td> 该问题发生在每一个tr中,但爬取[2016年数据](http://www.zuihaodaxue.com/zuihaodaxuepaiming2016.html "")并没有出现该问题。 代码照抄教程,应该不存在问题

为何用Python做爬虫时抓取下来的页面跟源代码不一样?

代码如下: # -*- coding:utf-8 -*- import urllib import urllib2 import re baseURL = 'http://zhidao.baidu.com/question/491268910.html' headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36'} #request = urllib2.Request(baseURL) request = urllib2.Request(url=baseURL,headers=headers) response = urllib2.urlopen(request) print response.read().decode("GBK") 我用上面的代码爬取一个百度知道的答案,把抓取到的信息打印出来为什么有的地方跟网页审查元素所显示的代码不一样? 网页原来的段落为:![图片说明](https://img-ask.csdn.net/upload/201604/05/1459841312_538797.png) 这段话对应的源代码为:![图片说明](https://img-ask.csdn.net/upload/201604/05/1459841401_109843.png) 抓取网页信息后的对应的代码为:![图片说明](https://img-ask.csdn.net/upload/201604/05/1459841477_324454.png) 我尝试了一个,在提取页面时,加载一个headers头部,但是结果还是不行,求各路大神指点,直接把解决办法附在评论区里,谢谢各路大神了。。。

同一个页面,选择查看网页源代码时看不到这部分内容,但是单机这部分内容选择检查时可以看到源码,爬虫获取内容时如何获取这部分内容?

以http://quote.eastmoney.com/center/gridlist.html#hs_a_board为例 查看网页源码时没有下图红色框的内容,使用python爬虫时也爬取不到: ![图片说明](https://img-ask.csdn.net/upload/201909/25/1569373669_779779.png) 但是指向红色框的内容,选择检查时,可以看到这部分的源码: ![图片说明](https://img-ask.csdn.net/upload/201909/25/1569373913_89968.png) 那么做爬虫时如何爬取这部分内容?

python爬虫selenium+phantomjs获取JS动态网页

网页有大量数据在不断加载,如何连续获取这些内容,使用time.sleep()修改不同时间,但是得到的结果还是一样的,只有几个数据,这个问题怎么解决啊,求打救

Python爬虫,进去一个网页之后,想要跳转到这个网页的子网页爬取,但是必须通过主网页点击才能进去。

![图片说明](https://img-ask.csdn.net/upload/201906/30/1561848305_28809.jpg) 上面是按F12得到的该网页进入“子网页”的函数,请问怎么处理才能进去“子网页”页面?(直接访问子网页网址会提示你要从主网页进去)

爬虫爬取的源代码和直接从网页打开的源代码不一样

爬虫爬取的源代码和直接从网页打开的源代码不一样 ``` import re import requests from bs4 import BeautifulSoup import webbrowser def Get_web(url): #获取网页的HTML文档。这里web_info 显示的HTML文件和直接从网页查看源文件的都不一样了 try: r = requests.get(url,headers={'user-agent':'Mozilla/5.0'}) print("!") print(r.raise_for_status()) r.encoding=r.apparent_encoding web_info=r.text print(web_info) except: print("error") return web_info def Process_text(web_info): soup = BeautifulSoup(web_info,"html.parser") script = soup.find_all("script") print(script) Processed_text=[] return Processed_text def Print_text(Processed_text): pass def main(): item="螺狮粉" for num in range(0,1): url="https://s.taobao.com/search?q=螺狮粉&s=0" webbrowser.open(url, new=0, autoraise=True) web_info = Get_web(url) Process_text(web_info) main() ```

# 浏览器可以看见json数据,但是写Python代码确爬不到怎么办?

## # ## # 写一个鸟哥笔记的爬虫代码 在浏览器中看见了json的返回报文 但是就是爬不到数据 求大神指教! ![图片说明](https://img-ask.csdn.net/upload/201912/20/1576771852_814228.png) 下面是json数据 ![图片说明](https://img-ask.csdn.net/upload/201912/20/1576771902_619142.png)

在编写静态网页爬虫,检查元素时发现在标签里面href所指的链接不全怎么办呀,怎么获得完整的url?

实际的网页url时这样的http://www.mof.gov.cn/xinwenlianbo/shanxicaizhengxinxilianbo/201901/t20190128_3134160.htm 但是在网页上是这样的《a href = ../../xinwenlianbo/shanxicaizhengxinxilianbo/201901/t20190128_3134160.htm》 ABCD 《a》 里面为什么会出现那两个杠杠和点点呀?要怎么补全呢?有很多的链接都是这个样子,出现了杠杠和点点,前面的部分还不太一样,这种情况要怎么处理呢?求指教! 上面是尖括号,因为尖括号敲上去之后不显示标签对里面的信息,不得已改成了书名号=。=

python爬虫,使用selenium爬取某宝数据,爬虫代码能正常运行,但是控制台只打印了一个商品的信息

1、 环境:pycharm 浏览器:chrome 描述:使用selenium爬取某宝数据,爬虫代码能正常运行(可以对元素进行定位,可以下拉滑动条、可以通过修改url去到下一页),但是控制台只打印了一个商品的信息,其余爬取的信息没有被打印出来 2、代码如下: ``` """ 爬取淘宝商品步骤: 1、打开谷歌浏览器,访问淘宝网站:找到淘宝的 url 2、定位搜索框和搜索按钮(F12,使用元素选择器进行定位,复制 XPath),要完成的动作→输入要搜索的商品,然后点击搜索按钮 3、在登陆界面停留 10 秒,手机扫码登陆(需手动),高级一点的方法可以自送输入账号密码登陆 4、进入搜索结果页面,模仿人浏览商品时的动作→下拉滑动条到页面的最后,拉5次,拉的过程有暂停 """ from selenium import webdriver # 需要一款浏览器,访问淘宝网址 import time import re # 找到 输入框 找到 按钮 # 元素(输入框、按钮等) 定位 def search_product(): driver.find_element_by_xpath('//*[@id="q"]').send_keys(kw) driver.find_element_by_xpath('//*[@id="J_TSearchForm"]/div[1]/button').click() # # 强行阻止程序运行 10s的时间 time.sleep(5) # 获取搜索结果页面的总页码 token = driver.find_element_by_xpath('//*[@id="mainsrp-pager"]/div/div/div/div[1]').text token = int(re.compile('(\d+)').search(token).group(1)) return token # 元素定位 他没有前提吗?你的网速比较慢,如果元素没有加载完毕,那么你能够去定位没有加载的数据吗?没有加载出来 # 也就是说,这个加载的过程 是因为我拉动了下滑条! # 步骤:登录 拉动下滑条 采集数据 下一页 拉动下滑条 再采集数据,按这个循环! def drop_down(): # 一次拉一部分,拉的时候有暂停 range 得出 1 3 5 7 9 五个数 for x in range(1, 11, 2): time.sleep(0.5) # j 代表滑动条的五个位置:1/10、3/10、5/10、7/10、9/10 j = x/10 # 下面的 js 是 JavaScript 的语法,可以当作万能公式解决大部分网站问题 js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j driver.execute_script(js) def get_product(): # 首先获取所有的 div ,然后遍历所有的 div ,得到一个div 再去一个 div 里面寻找需要的数据 # // 代表任意位置(任意一个位置的属性属于 class="items" 的 div) # //div[@]/div[@] 代表要获取的 div 的路径 divs = driver.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq item-ad "]') for div in divs: # . 代表当前目录, .// 当前目录下的任意 div标签 下的 a标签 下的 img标签 下的 src info = div.find_element_by_xpath('.//div[@class="row row-2 title"]').text price = div.find_element_by_xpath('.//div[@class="price g_price ' 'g_price-highlight"]/strong').text + '元' deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text image = div.find_element_by_xpath('.//div[@class="pic"]/a/img').get_attribute('src') # name = div.find_element_by_xpath('.//div[@class="shop"/a/span[1]').text address = div.find_element_by_xpath('.//div[@class="row row-3 g-clearfix"]/div[@class="location"]').text # 定义一个字典 product = {'标题': info, '价格': price, '订单量': deal, '图片': image, '地址': address} print(product) # 淘宝的反爬很严重,所以尽量不要模拟多次点击下一页 # 采用改 url 的方法可以避免反爬:通过分析淘宝页面的 url→https://s.taobao.com/search?q=Python&s=88 # 可以得知下一页就是在 url 后面的值 +44。即第4页的 url 为 https://s.taobao.com/search?q=Python&s=132 def next_page(): token = search_product() drop_down() get_product() num = 1 while num != token: driver.get('https://s.taobao.com/search?q={}&s={}'.format(kw, 44*num)) num += 1 # time.sleep(4) 。这个方法延迟太慢了,改用下面的只能等待方法 # 隐视等待,智能等待,最高等待时间为10s,如果超过10s,抛出异常 driver.implicitly_wait(10) # 无限循环进入网页,可能造成网页卡顿!导致数据加载不出来,解决方法是加一个延迟,等数据先加载出来再操作 drop_down() get_product() if __name__ == '__main__': kw = input('请输入你想查询的商品:') driver = webdriver.Chrome() driver.get('https://www.taobao.com/') next_page() # 这个程序可以无限制地爬取内容,淘宝无法检测出来而反爬 ``` 3、代码能正常运行,打印信息如下: ![图片说明](https://img-ask.csdn.net/upload/202003/28/1585363085_99864.jpg) 4、求各位大神帮忙解决一下T-T

求助!用scrapy爬虫,未全部爬完就停止

用scrapy框架爬取58.com获取一些地产数据,前期不用代理ip,本机ip爬取,页面返回滑块+点击验证码,手动解决验证码后再次爬取成功,且速度快,但很low.于是购买快代理私密IP,伪装user agent后进行爬取(没有禁cookies,因为禁了返回的页面就没有信息,页面重定向404,应该是58的一种反爬手段吧,相当于说即便我用了代理,但是从cookie 也可以判断非人为请求,所以返回验证码的概率很高)由于爬取过程中仍会返回验证码,返回验证码的这条url的数据就获取不完整,导最后爬取的总数据量不全。 解决这个问题的思路就是,返回验证码的这条url重新换个ip请求,外加请求时,随机生成一个cookie这样不容易被反爬,这样做后解决了验证码的问题,但是一旦翻页就会出现404,接下来就解决404问题,测试了实际网页,带上原来的cookie再次请求可以解决404问题,外加如果请求返回验证码的这个代理ip就从代理池里移除,于是这两个问题就解决了,只是对于总的请求次数几乎是翻倍了。 原以为这样解决了问题只是请求翻倍,使用代理数增加,但是实际过程试验多次都一样,发现最后没有全部请求完程序就停止了,这个问题暂时没有思路。 寻求帮助,这是什么原因造成的,求大神帮忙解决这个问题.

问一个关于Python抓取页面跳转的问题(略愚蠢。。。)

真的。可能这问题真的挺愚蠢。。。但咱还是厚着脸皮问下大神了。。。 问题是这样的:我在做一个抓取我们学校教务系统课表的爬虫,登陆的已经写好了,问题出在登陆以后怎么跳转。 登陆后的页面和切换到(跳转到)课程表页面的url是一样一样的... 而且wireshark抓包也没发现任何post数据包 ![图片说明](https://img-ask.csdn.net/upload/201603/02/1456925107_867462.png) 教务系统截图如下 ![图片说明](https://img-ask.csdn.net/upload/201603/02/1456925137_961435.png) 也是没任何post包,我试了下postdata也是没抓取到课程表页面... 总结一下: 1、页面跳转后url和跳转前一致 2、没任何post数据包... 求大神解答,轻喷啊:(

<python>python爬取智联json页面,但是爬回来的数据不全?

1.智联一页有大概100条数据,但是爬回来只有20条 代码: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557194839_124865.png) https://img-ask.csdn.net/upload/201905/07/1557194839_124865.png 主函数: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557194939_248256.png) depth是爬取的页数,1页的时候只能在数据库看到20条记录,当把depth改成10的时候可以看到1000条信息,但是之后depth再增加(如改成20,30等)数据也不会再增加了,一直是1000条信息 ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557195117_222005.png) 我觉得不是存储的问题,因为第一个爬取的函数返回来的页面就已经少了,只有20条,麻烦帮忙看一下这个爬取函数有什么问题,谢谢啦

爬虫 在网页定位验证码,然后显示出来,手动输入验证码,求代码

爬虫,在网页定位验证码,然后不管在哪里显示出来都行,然后手动输入验证码,继续爬,不需要登录,但是需要搜索功能,跪求完整代码,可以想象爬有验证码的百度。

python爬取动态网页时为什么动态网页的url的源码和网页源码不一样?

想用python爬虫爬burberry官网https://cn.burberry.com/mens-new-arrivals-new-in/ 的最新上架衣服图片,但网页是动态加载的(有一个查看全部按钮) ![图片说明](https://img-ask.csdn.net/upload/202001/30/1580376878_572107.png) 点击查看更多后有一个XHR请求如图![图片说明](https://img-ask.csdn.net/upload/202001/30/1580377156_337769.png) 修改爬虫header后访问该请求的url,得到的html和在原网页上按f12显示的源码不相同,如图(图一为原网页点击加载全部后的源码,图二为访问url得到的源码) ![图片说明](https://img-ask.csdn.net/upload/202001/30/1580378691_309192.png) ![图片说明](https://img-ask.csdn.net/upload/202001/30/1580378757_166656.png) 为什么会不一样呢????而且不一样的话按照url得到的格式我就没法用美丽汤了,只能正则找图片链接,怎么样得到原网页点击加载全部后的源码呢???(小白刚学爬虫,希望大佬指教)

python 用request.get()方法得到的代码与浏览器中的代码不一样,关键要的数据都没有,望大神指点

import requests import re from bs4 import BeautifulSoup import time header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'} res=requests.get('https://y.qq.com/n/yqq/toplist/26.html#t1=2019&t2=20&t3=song&t4=1&t5=1',headers=header) soup=BeautifulSoup(res.text,'lxml') print(soup) 这是QQ音乐的官方网站,想从中得到歌曲的信息,用这个方法得到的代码比浏览器中代码缺少很多,没去歌曲的信息,只有一些界面的代码

Python 并发爬取网页问题,逐一爬取没问题,并发爬取网页不完整

用python爬取内部某一个系统的页面,发现逐一爬取没问题,并发爬取网页不完整。<br><br> **方法1:request,没问题**<br> 代码就不列出来了<br><br> **方法2:grequests设置size=1时,没问题。** ``` for page_index in range(1, page_count + 1): url_query = r"http://***/SP/SlstxSearch.jsp" url_query += r"?ACTION=getPage&PAGE={}" request = grequests.post( url=url_query.format(page_index), ) request_list.append(request) response_list = grequests.map( requests=request_list, size=1 ) ``` <br><br> **方法3:grequests设置size=2时,网页开始不完整** ``` for page_index in range(1, page_count + 1): url_query = r"http://***/SP/SlstxSearch.jsp" url_query += r"?ACTION=getPage&PAGE={}" request = grequests.post( url=url_query.format(page_index), ) request_list.append(request) response_list = grequests.map( requests=request_list, size=2 ) ``` <br> **方法4:多线程+request,网页还是不完整,和方法3一样。** <br><br> **不完整的情况:**每一页都有一个表格,内部行数都10,逐一取的时候都能取下来,但是并发的状态,有时就取不到完整的10行。 在网上找资料,逐一能取到说明不是AJAX或是JS的问题吧,为什么会这样,请高手路过支招。

Python爬取小说 有些章节爬得到有些爬不到 分别爬取都是可以的

``` # -*- coding:UTF-8 -*- from bs4 import BeautifulSoup import requests, sys import csv server = 'http://www.biqukan.com/' target = 'http://www.biqukan.com/1_1094/' names = [] # 存放章节名 urls = [] # 存放章节链接 def get_download_urls(): req = requests.get(url=target) html = req.text bf = BeautifulSoup(html, 'html.parser') div = bf.find('div', class_='listmain') dl = div.find('dl') dd = dl.find_all('dd') for each in dd[15:]: names.append(each.string) urls.append(server + each.find('a').get('href')) def get_contents(u): req = requests.get(url=u) html = req.text bf = BeautifulSoup(html, 'html.parser') texts = bf.find_all('div',{'id': 'content'},class_ = 'showtxt') if len(texts)>0: final = texts[0].text.replace('\xa0' * 8, '\n\n') else: final='' return final def writer( name, path,text): write_flag = True with open(path, 'a', encoding='utf-8') as f: fieldnames = ['title'] writefile = csv.DictWriter(f, fieldnames=fieldnames) writefile.writerow({'title': name+'\n'+text}) if __name__ == "__main__": url=get_download_urls() for i in range(len(names)): writer(names[i], '一念永恒.txt', get_contents(urls[i])) ``` 就是 get_contents(u) 函数里为啥有的texts长度会等于0呢,单独爬这一个页面的时候texts是有内容的呀

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

C++11:一些微小的变化(新的数据类型、template表达式内的空格、nullptr、std::nullptr_t)

本文介绍一些C++的两个新特性,它们虽然微小,但对你的编程十分重要 一、Template表达式内的空格 C++11标准之前建议在“在两个template表达式的闭符之间放一个空格”的要求已经过时了 例如: vector&lt;list&lt;int&gt; &gt;; //C++11之前 vector&lt;list&lt;int&gt;&gt;; //C++11 二、nullptr ...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

【阿里P6面经】二本,curd两年,疯狂复习,拿下阿里offer

二本的读者,在老东家不断学习,最后逆袭

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!...

作者 | 伍杏玲出品 | CSDN(ID:CSDNnews)格子衬衫、常掉发、双肩包、修电脑、加班多……这些似乎成了大众给程序员的固定标签。近几年流行的“跨界风”开始刷新人们对程序员的...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐