python爬虫selenium+phantomjs获取JS动态网页

网页有大量数据在不断加载,如何连续获取这些内容,使用time.sleep()修改不同时间,但是得到的结果还是一样的,只有几个数据,这个问题怎么解决啊,求打救

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python爬虫selenium+phantomjs获取JS动态网页

网页有大量数据在不断加载,如何连续获取这些内容,使用time.sleep()修改不同时间,但是得到的结果还是一样的,只有几个数据,这个问题怎么解决啊,求打救

请python 爬虫高手(selenium技术)帮忙解决几个问题,谢谢。

环境:python36,selenium 3.3.1,phantomjs2.1.1 描述:我利用python中selenium模块的phantomjs对网页进行拍照,其中有几个小bug,请高手支支招,如下问题: 1.某些网站会有反爬机智,导致拍照失败:如图![图片说明](https://img-ask.csdn.net/upload/201806/15/1529054567_754613.jpg) 导致的原因我认为是标红框的地方,是否可以更改,把这个删掉?或者其他办法。 2.在截图中,有些浮动的广告,需要点击关闭,selenium虽然有点击的功能,但是如何判断它是广告呢? 3.在连接网站时,有时会报错,报错内容是timeout,但是我手动打开连接却很快就能打开,应该如何解决呢? 以上3个问题困扰小弟好长时间,请高手支招,谢谢~~~

python怎么用selenium获取请求头?

python怎么用selenium获取请求头? ``` d = selenium.webdriver.common.desired_capabilities.DesiredCapabilities.CHROME d['loggingPrefs'] = {'performance': 'ALL'} # --------------------分割线---------------------- browser.get_log('performance') ``` 这个方法已经试过了,不好使,会出现异常: ``` selenium.common.exceptions.InvalidArgumentException: Message: invalid argument: log type 'performance' not found ``` 说是新版本不支持,请问该怎么解决?

python+selenium如何抓取diplay:none的标签内容?

![图片说明](https://img-ask.csdn.net/upload/201711/23/1511436782_235289.png) 如图 我抓取到的页面里面由于这几个标签是displaynone 导致抓不到 代码如下 from selenium import webdriver url = "http://t.shuqi.com/#!/ct/read/bid/6584515/cid/639384" driver = webdriver.PhantomJS(executable_path='G:/phantomjs/bin/phantomjs.exe') driver.get(url) js = 'document.getElementsByClassName("read-body")[0].getElementsByTagName("div")[3].style.display="block";' driver.execute_script(js) contentText = driver.find_element_by_id('read_in').text w = open('G:/python/pytxt/dynamic/1.txt','w') w.write(contentText) driver.quit()

初学python爬虫,好像是selenium的错,len(),希望大神们提点一下

初学python爬虫,好像是selenium的错,报了个TypeError: object of type 'WebElement' has no len(),希望点大神们提点一下 下面是代码: from selenium import webdriver import csv #网易云音乐歌单第一页的url url='http://music.163.com/#/discover/playlist/?order=hot&cat=%E5%85%A8%E9%83%A8&limit=35&offset=0' #用PhantomJS接口创建一个Selenium的webdriver driver=webdriver.PhantomJS() #准备好存储歌单csv csv_file=open("playlist.csv","w",newline='') writer=csv.writer(csv_file) writer.writerow(['标题','播放数','链接']) #解析每一页,直到‘下一页’为空 while url!='javascript:void(0)': #用webDriver加载页面 driver.get(url) #切换到内容的iframe driver.switch_to.frame("contentFrame") #定位歌单标签 data=driver.find_element_by_id("m-pl-container").find_element_by_tag_name("li") #解析一页中所有歌单 for i in range(len(data)): #获取播放数 nb=data[i].find_element_by_tag_name("nb").text if '万' in nb and int(nb.split("万")[0])>500: #获取播放数大于500万的歌单的封面 msk=data[i].find_element_by_css_selector("a.msk") #把封面上的标题和链接连同播放数一起写到文件中 writer.writerow([msk.get_attribute('title'), nb,msk.get_attribute('href')]) #定位'下一页'的url url=driver.find_element_by_css_selector("a.zbtn.znxt").get_attribute('href') csv_file.close()

python 爬虫 输出数字却显示为乱码

查看网页代码发现数字被转码了,导致python输出结果全是乱的。代码如下: ``` # coding:utf-8 from selenium import webdriver browser = webdriver.Chrome() # chrome_options = webdriver.ChromeOptions() # chrome_options.add_argument('--headless') # browser = webdriver.Chrome(chrome_options=chrome_options) # browser = webdriver.PhantomJS() # browser.maximize_window() # 最大化窗口,可以选择设置 browser.get('http://data.eastmoney.com/kzz/default.html') element = browser.find_element_by_css_selector('#dt_1') # 提取表格内容td td_content = element.find_elements_by_tag_name("td") lst = [] for td in td_content: lst.append(td.text) print(lst) ``` 网页乱码定位图片如下已上传!![图片说明](https://img-ask.csdn.net/upload/202002/29/1582983786_812107.jpg)

python下用selenium的webdriver包如何获得下一页新打开页面的html源代码呢

python下用selenium的webdriver包已经打开下一页了可是并不能获取当前的页面源代码 还是之前打开的页面的代码,求支招。。

使用Selenium和PhantomJS解析网页遇到异常时的操作?

本人小白一枚,在使用Selenium和PhantomJS解析网页时,发现当遇到异常(比如短时网络异常或者解析的网页本身出现问题),会直接退出整个程序。请问怎么操作才能在异常出现后继续执行程序的其他部分呢?先谢过各位大大。贴上部分代码: try: driver = webdriver.PhantomJS() driver.get(url) c = driver.page_source driver.quit() except: logger.error('-----------Can Not Open The Homepage---------')

selenium爬虫淘宝报错:Screenshot: available via screen

代码如下: ``` from selenium import webdriver from lxml import etree import time import xlwt driver = webdriver.PhantomJS() #实例化游览器 driver.maximize_window() #窗口最大化 linkss = [] def get_info(url,page): #定义获取商品信息的函数 page = page + 1 driver.get(url) driver.implicitly_wait(10) #隐式等待10秒 selector = etree.HTML(driver.page_source) #请求网页源代码 infos = selector.xpath('//div[@class="item J_MouserOnverReq "]') for info in infos: jiage = info.xpath('div[2]/div[1]/div[1]/strong/text()') good = info.xpath('div[2]/div[1]/div[2]/text()') name = info.xpath('div[2]/div[2]/a/text()') links = [jiage,good,name] linkss.append(links) if page <= 50: NextPage(url,page) #进入下一页 else: pass def NextPage(url, page): #定义进入下一页的函数 driver.get(url) driver.implicitly_wait(10) driver.find_element_by_xpath('//a[@trace="srp_bottom_pagedown"]').click() time.sleep(4) driver.get(driver.current_url) driver.implicitly_wait(10) get_info(driver.current_url,page) #调用get_info函数 if __name__ == '__main__': #程序主入口 page = 1 url = 'https://www.taobao.com/' driver.get(url) driver.implicitly_wait(10) driver.find_element_by_id('q').clear() driver.find_element_by_id('q').send_keys('男士短袖') #输入商品名称 driver.find_element_by_class_name('btn-search').click() #点击搜索 get_info(driver.current_url,page) headers = ['价格', '购买人数', '商品名称'] #创建表头 taobao = xlwt.Workbook(encoding='utf-8') #创建工作簿 sheet = taobao.add_sheet('Sheet1') #创建工资表 for h in range(len(headers)): #写入表头 sheet.write(0, h, headers[h]) i = 1 for link in linkss: #写入数据 j = 0 for data in link: sheet.write(i, j, data) j += 1 i += 1 taobao.save('t.xls') #保存到本地 ``` 报错: ``` Traceback (most recent call last): File "D:/PaaChong/TaoBao.py", line 44, in <module> get_info(driver.current_url,page) File "D:/PaaChong/TaoBao.py", line 23, in get_info NextPage(url,page) #进入下一页 File "D:/PaaChong/TaoBao.py", line 30, in NextPage driver.find_element_by_xpath('//a[@trace="srp_bottom_pagedown"]').click() File "D:\Python3.8.1\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 258, in find_element_by_xpath return self.find_element(by=By.XPATH, value=xpath) File "D:\Python3.8.1\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 711, in find_element return self.execute(Command.FIND_ELEMENT, File "D:\Python3.8.1\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 201, in execute self.error_handler.check_response(response) File "D:\Python3.8.1\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 181, in check_response raise exception_class(message, screen, stacktrace) selenium.common.exceptions.NoSuchElementException: Message: {"errorMessage":"Unable to find element with xpath '//a[@trace=\"srp_bottom_pagedown\"]'","request":{"headers":{"Accept":"application/json","Accept-Encoding":"identity","Connection":"close","Content-Length":"119","Content-Type":"application/json;charset=UTF-8","Host":"127.0.0.1:59370","User-Agent":"Python-urllib/3.8"},"httpVersion":"1.1","method":"POST","post":"{\"using\": \"xpath\", \"value\": \"//a[@trace=\\\"srp_bottom_pagedown\\\"]\", \"sessionId\": \"566c2c60-9ccd-11ea-b689-cbd2ca6c443c\"}","url":"/element","urlParsed":{"anchor":"","query":"","file":"element","directory":"/","path":"/element","relative":"/element","port":"","host":"","password":"","user":"","userInfo":"","authority":"","protocol":"","source":"/element","queryKey":{},"chunks":["element"]},"urlOriginal":"/session/566c2c60-9ccd-11ea-b689-cbd2ca6c443c/element"}} Screenshot: available via screen ```

当爬虫遇上手机验证码该如何解决?

这两天用Java selenium + phantomjs 写了个模拟登录京东,爬个人信息、订单信息等内容,今天把代码传到服务器后,发现需要手机验证码了,大概是异地登陆才会出现的情况,在此想请教下各位大牛,如何通知到客户端需要输入手机验证码,再将验证码返回到服务端,继续完成爬取数据操作呢? 话说类似于京东、淘宝等电商网站,需要登录后才能查看个人信息的网站,除了selenium还有什么更好的选择吗?

刚学习用scrapy + selenium爬动态网页,但是不知道为什么就是不行,下面是代码,求大神指点!!!

MySpider里面是这样的: ``` class MySpider(scrapy.Spider): name = 'BAIScrapy' def start_requests(self): print('开始') url = 'https://www.bilibili.com/' request = scrapy.Request(url=url, callback=self.parse, dont_filter=True) request.meta['PhantomJS'] = True yield request def parse(self, response): print('Emmm...') item = BilibiliAnimeInfoScrapyItem() item['links'] = response.css('a::attr("href")').re("www.bilibili.com/bangumi/play/") ``` middlewares里面是这样的: ``` def process_reqeust(self, request, spider): print('进入selenium') driver = webdriver.PhantomJS() driver.get(request.url) element = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.ID,'bili_bangumi'))) driver.quit() yield HtmlResponse(url=request.url, encoding='utf-8', body=driver.page_source, request=request) ``` settings里面是这样的: ``` USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1' ROBOTSTXT_OBEY = False DOWNLOADER_MIDDLEWARES = { 'bilibili_anime_info_scrapy.middlewares.BilibiliAnimeInfoScrapyDownloaderMiddleware': 543, } ```

HTML父标签存在4个子标签内容,但只能爬取到2个。

各位高手:本人小白,最近在学习爬虫技术,以携程网机票作为起步对象。 过程中发现使用子标签函数并不能返回所有的子标签内容,见图片: 代码: from selenium import webdriver from bs4 import BeautifulSoup import time brower = webdriver.PhantomJS(executable_path='D:/phantomjs-2.1.1-windows/phantomjs-2.1.1-windows/bin/phantomjs') try: html_infor = brower.get("https://flights.ctrip.com/itinerary/roundtrip/KHH-WUH?date=2018-11-21,2018-11-21&portingToken=570b1bdc855c4eaba0654eb83e9923f7") time.sleep(20) pageSource = brower.page_source ###网页加载信息的实体化 bsObj = BeautifulSoup(pageSource) ###放进美汤 for child in bsObj.find("div",{"class":"flight-list"}).children: print(child) finally: brower.close() 如截图所示: ![图片说明](https://img-ask.csdn.net/upload/201811/20/1542695025_573473.png)

scrapy+selenium使用IE驱动登录网址Failed to establish a new connection: [WinError 10061]

python使用爬虫框架scrapy测试selenium工具,用谷歌浏览器能够正常登录获取cookies,换成IE浏览器和IE驱动后就一直报错.网上百度的解决方法都试了没有用(关闭代理、浏览器添加信任站点) ``` urllib3.exceptions.MaxRetryError: HTTPConnectionPool(host='127.0.0.1', port=14535): Max retries exceeded with url: /session/9c23e951-c94b-4cb1-a49b-65c1d44c1c90/cookie (Caused by NewConnectionError('<urllib3.co nnection.HTTPConnection object at 0x000001F543985390>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。')), ``` 求大神们指点 ![图片说明](https://img-ask.csdn.net/upload/201908/26/1566801008_398049.png) ![图片说明](https://img-ask.csdn.net/upload/201908/26/1566801037_828103.png)

python安装chromedriver时关于版本号的问题?

想安装chromedriver来爬虫,但是我的Chrome的版本为80.0.3987.100,在寻找版本时发现没有这个版本,还有我的电脑是64位,看那些安装包只有32位的,有哪位大佬能解决一下问题?

爬虫时光网出现load104问题

* * ![图片说明](https://img-ask.csdn.net/upload/201905/10/1557419531_244442.png)![图片说明](https://img-ask.csdn.net/upload/201905/10/1557419538_802557.png)![图片说明](https://img-ask.csdn.net/upload/201905/10/1557419546_91491.png) 爬虫新手,爬取时光网热映电影想要爬取该电影的上映电影时间,价格,影院,但是不论是直接用request爬取还是PhantomJS爬取,都出现图片中问题,即load104,求大神帮帮忙 爬取网址:http://theater.mtime.com/China_Jiangsu_Province_Nanjing/movie/235701/ 第一个图是我爬下来的内容 代码如下 import requests import codecs from bs4 import BeautifulSoup from requests.exceptions import RequestException headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36', 'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'accept-encoding': 'gzip, deflate', 'accept-language': 'zh-CN,zh;q=0.9', 'referer': 'http://theater.mtime.com/China_Jiangsu_Province_Nanjing/', 'Host': 'theater.mtime.com', } def get_one_page(url,headers): try: response = requests.get(url,headers=headers) if response.status_code == 200: return response.text return None except RequestException: return None def get_detail_onemovie(movid,date,headers): url='http://theater.mtime.com/China_Jiangsu_Province_Nanjing/movie/'+movid+'/'+date+'/' print(url) html=get_one_page(url,headers) soup = BeautifulSoup(html, 'lxml') with codecs.open('one_page.txt', 'w', encoding='utf-8') as f: f.write(soup.prettify()) get_detail_onemovie('235701','20190510',headers) 下面是模拟浏览器的代码 from selenium import webdriver import codecs driver = webdriver.PhantomJS() driver.get('http://theater.mtime.com/China_Jiangsu_Province_Nanjing/movie/256175/20190509/') with codecs.open('one_page.txt', 'w', encoding='utf-8') as f: f.write(driver.page_source) driver.close()

请问下面的题答案是?以及为什么?

1)下面哪种方式可以让爬虫合理、合法地抓取当日尽可能多的数据? A. 通过漏洞进入他人计算机系统,把数据库dump出来。 B. 用大量低频关键词在目标站点上搜索,获得当日更全数据。 C. 找到热门的hub页,热门的话题,热门的账号,获取当日更全数据。 D. 用热门关键词在百度等搜索引擎上,用site:www.website.com + 关键词 查询,从而发现新数据 2)以下所列出的方法中,浏览器web数据抓取效率最高的方法是? A. selenium + phantomjs B. 使用chrome或者chrome内核抓取 C. 模拟web协议直接用wget或curl抓取 3)下面哪项是手机端抓取app数据相比web端的优势(多选): A. 手机端协议简单容易分析 B. 手机端可以使用模拟点击 C. 手机端就算出新版了旧版还是可以继续使用,不会立即停掉 D. 通常来说,手机端抓取同样信息量的数据,下载量更低 4)下面哪些代理支持rawsocket连接(多选)? A. HTTP代理 B. HTTPS代理 C. SOCKS4代理 D. SOCKS5代理 5)下面代码请求实际访问地址url是什么? url = "https://test.cn/test" params = { "xxxx":"1234" } headers = { "Host": "www.test.cn", "Accept-Encoding": "gzip,deflate", "Connection": "Keep-Alive" } requests.get(url, params, headers =headers, allow_redirects = False, verify = False) 假设http://test.cn/test?xxxx=1234返回的状态码302且response header里有Location:http://www.test.cn/dpool/ttt/domain.php?d=test&xxxx=1234 A. https://test.cn/test B. https://test.cn/test?xxxx=1234 C. https://www.test.cn/test?xxxx=1234 D.http://www.test.cn/dpool/ttt/domain.php?d=test&xxxx=1234 6)假如你要爬大量youtube视频的二进制内容,存储在本地,最佳的办法是? A. Mysql数据库存储 B. Redis存储 C. Mongodb存储 D. 文件系统 7)如果想爬自己手机应用上的HTTPS的数据,获得明文,下面哪个说法是正确的? A. 自己搭建一个HTTPS代理,让手机设置为这个代理,即可获得明文 B. 任何HTTPS明文都是可以获取的 C. 在PC上建立一个无线热点,让手机连这个热点,并使用Wireshare软件分析出HTTPS的明文数据 D. 通过让手机系统信任根证书,使用Man-in-the-middle中间人攻击技术,就可以获取任何HTTPS明文 8)以下哪个功能chromedriver协议不支持? A. 注入js文件 B. 模拟鼠标滑动 C. 网络请求的响应式处理 D. 同个实例可以同时操作多个页面 9)爬取数据过程中,哪个情况是最不可容忍的? A. 爬取的数据不完整,有部分数据遗失 B. 爬取程序非法关闭,内存泄露 C. 爬取的数据部分出错,手动修改 D. 不同版本的数据合并在一起 10)爬虫开发不会涉及到的技术或者知识有? A. tcp,udp传输协议 B. 反汇编技术 C. 数据库存储 D. 音视频流解析 E. 网络路由协议 F. 以上都会涉及

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你期望月薪4万,出门右拐,不送,这几个点,你也就是个初级的水平

先来看几个问题通过注解的方式注入依赖对象,介绍一下你知道的几种方式@Autowired和@Resource有何区别说一下@Autowired查找候选者的...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《Oracle Java SE编程自学与面试指南》最佳学习路线图2020年最新版(进大厂必备)

正确选择比瞎努力更重要!

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

代码注释如此沙雕,会玩还是你们程序员!

某站后端代码被“开源”,同时刷遍全网的,还有代码里的那些神注释。 我们这才知道,原来程序员个个都是段子手;这么多年来,我们也走过了他们的无数套路… 首先,产品经理,是永远永远吐槽不完的!网友的评论也非常扎心,说看这些代码就像在阅读程序员的日记,每一页都写满了对产品经理的恨。 然后,也要发出直击灵魂的质问:你是尊贵的付费大会员吗? 这不禁让人想起之前某音乐app的穷逼Vip,果然,穷逼在哪里都是...

2020春招面试了10多家大厂,我把问烂了的数据库事务知识点总结了一下

2020年截止目前,我面试了阿里巴巴、腾讯、美团、拼多多、京东、快手等互联网大厂。我发现数据库事务在面试中出现的次数非常多。

爬虫(101)爬点重口味的

小弟最近在学校无聊的很哪,浏览网页突然看到一张图片,都快流鼻血。。。然后小弟冥思苦想,得干一点有趣的事情python 爬虫库安装https://s.taobao.com/api?_ks...

在拼多多上班,是一种什么样的体验?我心态崩了呀!

之前有很多读者咨询我:武哥,在拼多多上班是一种什么样的体验?由于一直很忙,没抽出时间来和大家分享。上周末特地花点时间来写了一篇文章,跟大家分享一下拼多多的日常。 1. 倒时差的作息 可能很多小伙伴都听说了,拼多多加班很严重。这怎么说呢?作息上确实和其他公司有点区别,大家知道 996,那么自然也就能理解拼多多的“11 11 6”了。 所以当很多小伙伴早上出门时,他们是这样的: 我们是这样的: 当...

立即提问
相关内容推荐