python 在用selenium的时候 使用driver.page_source

首先请问这个page_source 得到的是页面的源代码吗? 为什么我打印出啦只有一部分,不是全部的源码呢

1个回答

我这里是
只要是肉眼能看到的
代码都能打印出来

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
请问这个python里selenium获取异步加载的问题
我是新手,请问个小白的问题: 用selenium提取异步加载页面,结果也找不到浏览器里的显示内容是怎么回事? 比如下面这个页面,要获取页面里的关注数量,粉丝数量等资料 ``` from selenium import webdriver driver = webdriver.Chrome() driver.get('https://h5.weishi.qq.com/weishi/personal/1546312839098426/wspersonal?_proxy=1&_wv=1&id=1546312839098426') driver.implicitly_wait(8) # ttt = driver.find_element_by_css_selector('//div').text # text = driver.find_element_by_id('app').text # driver.implicitly_wait(3) print('结果::::::::::::' + driver.page_source) ```
Python selenium 打开chrome error【10054】被强行关闭,请问如何解决?
``` from selenium import webdriver import sys sys.path.insert(0,'F:\浏览器\chome\Google\Chrome\Application') options = webdriver.ChromeOptions() options.add_experimental_option("excludeSwitches", ["ignore-certificate-errors"]) driver = webdriver.Chrome(chrome_options=options) driver.get('https://www.baidu.com') driver.find_element_by_id('kw').send_keys('selenium') driver.find_element_by_id('su').click() with open('9.html','wb') as f: f.write(driver.page_source.encode('utf-8')) f.close() driver.close() ``` 运行后出现浏览器:这样的情况 ![图片说明](https://img-ask.csdn.net/upload/201707/17/1500264595_668338.png) 后代码报错: ``` Traceback (most recent call last): File "28baidu.py", line 12, in <module> driver.get('https://www.baidu.com') File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 268, in get self.execute(Command.GET, {'url': url}) File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 254, in execute response = self.command_executor.execute(driver_command, params) File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\remote_connection.py", line 464, in execute return self._request(command_info[0], url, body=data) File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\remote_connection.py", line 488, in _request resp = self._conn.getresponse() File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\http\client.py", line 1331, in getresponse response.begin() File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\http\client.py", line 297, in begin version, status, reason = self._read_status() File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\http\client.py", line 258, in _read_status line = str(self.fp.readline(_MAXLINE + 1), "iso-8859-1") File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\socket.py", line 586, in readinto return self._sock.recv_into(b) ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接。 ``` 没想到在此入坑,折腾一天无果,请大神帮帮忙
使用WebDriver中的click操作无法关闭天猫弹出的登陆界面
1.老师留的作业是用scrapy爬动态网页天猫商品的价格,但是用Chrome每次点开网页的时候都会弹出登录界面,虽然不影响爬取价格,但是想把这个页面关闭 网页:https://detail.tmall.com/item.htm?id=555358967936 2.代码: ``` def process_request(self, request, spider): # Called for each request that goes through the downloader # middleware. driver = spider.drive driver.get(request.url) # driver.switch_to.frame("sufei-dialog-content") #因为网页需要时间渲染,在这里确定目标元素 locator = (By.XPATH, '//span[@class="tm-price"]') close_btn = (By.XPATH,'//div[@class="sufei-dialog-content"]/div[@id="sufei-dialog-close"]') # driver.switch_to.frame("sufei-dialog-content") WebDriverWait(driver, 3,1).until(EC.presence_of_element_located(close_btn)) # driver.switch_to.frame("sufei-dialog-content") click = driver.find_element_by_xpath('//div[@class="sufei-dialog-close"]') actionchain = action_chains.ActionChains(driver) actionchain.click(click) actionchain.perform() print('点击已结束') driver.switch_to.default_content() # driver.switch_to.parent_frame() #等待网页渲染,最多等待15s,并且每1s查看一次是否出现目标元素 WebDriverWait(driver, 15, 1).until(EC.presence_of_element_located(locator)) # Must either: # - return None: continue processing this request # - or return a Response object # - or return a Request object # - or raise IgnoreRequest: process_exception() methods of # installed downloader middleware will be called #返回请求网页后得到的源代码 return HtmlResponse(url=request.url,body=driver.page_source,request=request,encoding='utf-8',status=200) ``` _3.我尝试过分析可能是iframe的问题,但是尝试过后总是提醒 selenium.common.exceptions.NoSuchElementException: Message: no such element: Unable to locate element: {"method":"xpath","selector":"//div[@class="sufei-dialog-close"]"} (Session info: chrome=75.0.3770.80) ![图片说明](https://img-ask.csdn.net/upload/201908/09/1565339432_653568.jpg) 蓝色的就是想要关闭的标签 感谢帮助(●'◡'●)
使用Selenium和PhantomJS解析网页遇到异常时的操作?
本人小白一枚,在使用Selenium和PhantomJS解析网页时,发现当遇到异常(比如短时网络异常或者解析的网页本身出现问题),会直接退出整个程序。请问怎么操作才能在异常出现后继续执行程序的其他部分呢?先谢过各位大大。贴上部分代码: try: driver = webdriver.PhantomJS() driver.get(url) c = driver.page_source driver.quit() except: logger.error('-----------Can Not Open The Homepage---------')
python能成功爬取天气 不知道怎么加循环
现在能爬去数据, 但需要手动一个一个换城市和时间, 希望能加个循环,一次性爬玩选定城市所有时间的天气。 网站来自 天气网->历史天气。 网站特点:http://lishi.tianqi.com/'+position+'/'+date+'.html 我不知道怎么加循环 代码现在如下: ``` from selenium import webdriver from bs4 import BeautifulSoup import time import csv import os from openpyxl import workbook # 写入Excel表所用 chrome_options = webdriver.ChromeOptions() prefs = {"profile.managed_default_content_setting.images": 2} chrome_options.add_experimental_option("prefs", prefs) driver = webdriver.Chrome(chrome_options=chrome_options) driver.set_page_load_timeout(60) driver.set_script_timeout(60) def getId(): position = 'wulumuqi' #这里填写地方的缩拼音例如:安泽 date = '201901' #这里填写日期例如:2011年的2月 query_url = 'http://lishi.tianqi.com/'+position+'/'+date+'.html' wb = os.path.join('C:\\Users\\w4376\\OneDrive\\Desktop\\weather collecting\\') #指定路径打开 wb = workbook.Workbook() # 创建Excel对象 ws = wb.active # 获取当前正在操作的表对象 ws.append(['日期', '最高气温', '最低气温', '天气', '风向', '风力']) try: driver.get('http://tianqi.com/') time.sleep(2) driver.get(query_url) js = "window.scrollTo(0, 1800000);" driver.execute_script(js) time.sleep(2) res = driver.page_source soup = BeautifulSoup(res, 'html.parser') box = soup.find('div',class_='tqtongji2').find_all('ul')[1:] for item in box: date_detail = item.find_all('li')[0].get_text() #日期 print(date_detail) max_temperature =item.find_all('li')[1].get_text() #最高气温 print(max_temperature) min_temperature = item.find_all('li')[2].get_text() # 最低气温 print(min_temperature) temperature = item.find_all('li')[3].get_text() # 天气 print(temperature) wind_direction = item.find_all('li')[4].get_text() #风向 print( wind_direction) wind_power = item.find_all('li')[5].get_text() # 风力 if wind_power == ('微风'): wf=('0级') wind_power=wf print(wf) else: print(wind_power) if wind_direction == ('无持续风向'): wd=('无') wind_direction=wd print(wd) ws.append([date_detail, max_temperature,min_temperature, temperature, wind_direction,wind_power]) # spamwriter = csv.writer(csvfile, dialect='excel') # spamwriter.writerow([date_detail, max_temperature,min_temperature, temperature, wind_direction,wind_power]) wb.save(position+date+'.xlsx') # 存入所有信息后,保存为filename.xlsx except Exception as e: print(e) getId() ```
python环境,利用selenium爬取京东手机“每种套餐”价格问题
本人零基础,大龄搬砖男自学python,所以请忽略各种拼写,命名等小细节。而且目前还不会正则表达式,所以用了xpath的方法,循环点击各套餐,然后读取价格标签的text来获取价格。但是因为不同的产品,套餐种类可能不同,例如有点手机品牌有颜色、容量、运行商,版本等套餐。为了考虑多产品的兼容性,折磨了半天时间,想到用递归的思路进行实现 目前,遇到一个问题,就是递归的终止条件问题,目前总是卡在最后一个套餐,没有读取完就结束了。请前辈支招: ``` from bs4 import BeautifulSoup from selenium import webdriver driver = webdriver.Chrome() driver.get("https://item.jd.com/100000287115.html#crumb-wrap") driver.maximize_window() html = driver.page_source soup=BeautifulSoup(html,'lxml') select = soup.find("div",id="choose-attrs") #查找选择框 selectstyle = select.find_all("div",class_="li p-choose") #选择的类型有多少种,比如颜色,型号,容量等 selectstyletotal = len(selectstyle) #大类数量 print(selectstyletotal) def sonnum(n): #n为大类编号从1开始 '''求当前大类下面有多少个型号''' selectsun = selectstyle[n-1].find_all("div", class_="item") countsun = len(selectsun) # 查找当前类下,有多少个型号 return countsun for i in range(1,selectstyletotal+1): print("当前为第{}类,改类有{}个型号".format(i,sonnum(i))) def showprice(n): '''递归选择,并显示价格''' if n == 1: for a in range(1, sonnum(n) + 1): driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(a) + ']').click() select_txt = driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(a) + ']').text price = driver.find_element_by_xpath( "/html/body/div[8]/div/div[2]/div[4]/div/div[1]/div[2]/span[1]/span[2]").text # price_data.append(select_txt+"价格为"+price) print("选中{},价格为{}".format(select_txt, price)) for i in range(1,sonnum(n)+1): try: driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(i) + ']').click() select_txt = driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(i) + ']').text print("选中{}".format(select_txt)) showprice(n-1) price = driver.find_element_by_xpath( "/html/body/div[8]/div/div[2]/div[4]/div/div[1]/div[2]/span[1]/span[2]").text except: continue print("价格为{}".format(price)) showprice(selectstyletotal) ``` 运行结果如下:始终有1个套餐未点击完毕,大神支招啊, ''' ![图片说明](https://img-ask.csdn.net/upload/201811/04/1541340185_122754.png) 谢谢?
刚学习用scrapy + selenium爬动态网页,但是不知道为什么就是不行,下面是代码,求大神指点!!!
MySpider里面是这样的: ``` class MySpider(scrapy.Spider): name = 'BAIScrapy' def start_requests(self): print('开始') url = 'https://www.bilibili.com/' request = scrapy.Request(url=url, callback=self.parse, dont_filter=True) request.meta['PhantomJS'] = True yield request def parse(self, response): print('Emmm...') item = BilibiliAnimeInfoScrapyItem() item['links'] = response.css('a::attr("href")').re("www.bilibili.com/bangumi/play/") ``` middlewares里面是这样的: ``` def process_reqeust(self, request, spider): print('进入selenium') driver = webdriver.PhantomJS() driver.get(request.url) element = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.ID,'bili_bangumi'))) driver.quit() yield HtmlResponse(url=request.url, encoding='utf-8', body=driver.page_source, request=request) ``` settings里面是这样的: ``` USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1' ROBOTSTXT_OBEY = False DOWNLOADER_MIDDLEWARES = { 'bilibili_anime_info_scrapy.middlewares.BilibiliAnimeInfoScrapyDownloaderMiddleware': 543, } ```
没有进行筛选,scrapy-Request callback不调用,跪求大神指点!!!
Spider的代码是这样的: ``` def parse(self, response): url_list = response.xpath('//a/@href').extract()[0] for single_url in url_list: url = 'https:' + single_url.xpath('./@href').extract()[0] name = single_url.xpath('./text()').extract()[0] yield scrapy.Request(url=url, callback=self.parse_get, meta={'url':url, 'name':name}) def parse_get(self, response): print(1) item = MySpiderItem() item['name'] = response.mate['name'] item['url'] = response.mate['url'] yield item ``` middlewares的代码是这样的: ``` def process_request(self, request, spider): self.driver = webdriver.Chrome() self.driver.get(request.url) if 'anime' in request.meta: element = WebDriverWait(self.driver, 10).until(EC.presence_of_element_located((By.ID, 'header'))) else: element = WebDriverWait(self.driver, 10).until(EC.presence_of_element_located((By.ID, 'header'))) html = self.driver.page_source self.driver.quit() return scrapy.http.HtmlResponse(url=request.url, body=html, request=request, encoding='utf-8') ``` 我是用Chrome来运行的,Request里面的url是一个一个地打开了,但是一直没有调用parse_get。一直都没有加allowed_domains,也尝试过在Request中加dont_filter=True,但是网站能打开,证明应该不是网站被过滤了的问题。实在是没有想法了,求大神指导!!!!
求大神指教下 我这个程序怎么爬不下来数据
# -*- coding: utf-8 -*- import urllib, sys, os, re from selenium import webdriver from bs4 import BeautifulSoup reload(sys) sys.setdefaultencoding('utf-8') def mkdir(path): if not os.path.exists(path): os.makedirs(path) def save(driver, html, parentpath): driver.get(html) content = driver.page_source print content soup = BeautifulSoup(content, 'lxml') alist = soup.select("li.tit") print alist for i in alist: path = parentpath a = i.select('a')[0] text = a.text title = text.strip().replace(" ", "") path = path + "/" + title # (文件夹名字) try: mkdir(path) except Exception, e: print '创建文件夹出错' continue url = 'http://www.cqzj.gov.cn/' + i.attrs['href'] driver.get(url) content = driver.page_source soup = BeautifulSoup(content, 'lxml') title = soup.select('span[id="Contentontrol_lblTitle"]')[0].text.replace("\n", "") #title1 = title + "1" # print title # time = soup.select('td.articletddate3')[0].text.replace("\n", "") # print time content = soup.select('div.con')[0].text.strip() try: fileName = (path + '/' + title + '.txt').replace("\n", "").replace(" ", "").replace("<", "").replace(">", "").replace( "《", "").replace("》", "").replace("|", "").decode("utf-8") #filename1 = (path + '/' + title1 + '.txt').replace("\n", "").replace(" ", "").replace("<", "").replace( # ">","").replace("《", "").replace("》", "").replace("|", "").decode("utf-8") file = open(fileName, 'w') file.write(title + '\n\n' + content) file.flush() file.close() except Exception, e: print 0 continue for i in alist: downlName = i.text href = a.attrs['href'] if href != '' and i.text != '': href="http://www.cqzj.gov.cn/"+a.attrs['href'][3:] fm = href.rfind('.') downlName = re.sub('.*/|\..*', '', downlName) + href[fm:] name = path + '/' + downlName try: urllib.urlretrieve(href, unicode(name)) except Exception, e: continue def getMaxPage(content): soup = BeautifulSoup(content) pagenum = soup.select("td") pagenum = 23 return pagenum root_html = 'http://www.cqzj.gov.cn/ZJ_Page/List.aspx?levelid=324&dh=1' driver = webdriver.PhantomJS(executable_path='E:/work/PyCharm/phantomjs-2.1.1-windows/bin/phantomjs.exe') # 改这里 driver.get(root_html) content = driver.page_source page_num = getMaxPage(content) htmls = [root_html] for html in htmls: print html save(driver, html, 'D:/数据采集/重庆/质检') # 改这里 跑出来结果 爬不到我需要的列表![图片说明](https://img-ask.csdn.net/upload/201710/31/1509418184_968916.png) 总是为空 ![图片说明](https://img-ask.csdn.net/upload/201710/31/1509418233_721785.png)这些我爬不到 我也不太会这个 程序是别人给的 我改了改哪些路径 求大神指点
爬虫时光网出现load104问题
* * ![图片说明](https://img-ask.csdn.net/upload/201905/10/1557419531_244442.png)![图片说明](https://img-ask.csdn.net/upload/201905/10/1557419538_802557.png)![图片说明](https://img-ask.csdn.net/upload/201905/10/1557419546_91491.png) 爬虫新手,爬取时光网热映电影想要爬取该电影的上映电影时间,价格,影院,但是不论是直接用request爬取还是PhantomJS爬取,都出现图片中问题,即load104,求大神帮帮忙 爬取网址:http://theater.mtime.com/China_Jiangsu_Province_Nanjing/movie/235701/ 第一个图是我爬下来的内容 代码如下 import requests import codecs from bs4 import BeautifulSoup from requests.exceptions import RequestException headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36', 'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'accept-encoding': 'gzip, deflate', 'accept-language': 'zh-CN,zh;q=0.9', 'referer': 'http://theater.mtime.com/China_Jiangsu_Province_Nanjing/', 'Host': 'theater.mtime.com', } def get_one_page(url,headers): try: response = requests.get(url,headers=headers) if response.status_code == 200: return response.text return None except RequestException: return None def get_detail_onemovie(movid,date,headers): url='http://theater.mtime.com/China_Jiangsu_Province_Nanjing/movie/'+movid+'/'+date+'/' print(url) html=get_one_page(url,headers) soup = BeautifulSoup(html, 'lxml') with codecs.open('one_page.txt', 'w', encoding='utf-8') as f: f.write(soup.prettify()) get_detail_onemovie('235701','20190510',headers) 下面是模拟浏览器的代码 from selenium import webdriver import codecs driver = webdriver.PhantomJS() driver.get('http://theater.mtime.com/China_Jiangsu_Province_Nanjing/movie/256175/20190509/') with codecs.open('one_page.txt', 'w', encoding='utf-8') as f: f.write(driver.page_source) driver.close()
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是一个本地线程副本变量工具类,各个线程都拥有一份线程私有的数
win10系统安装教程(U盘PE+UEFI安装)
一、准备工作 u盘,电脑一台,win10原版镜像(msdn官网) 二、下载wepe工具箱  极力推荐微pe(微pe官方下载) 下载64位的win10 pe,使用工具箱制作启动U盘打开软件,   选择安装到U盘(按照操作无需更改) 三、重启进入pe系统   1、关机后,将U盘插入电脑 2、按下电源后,按住F12进入启动项选择(技嘉主板是F12)     选择需要启
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
将代码部署服务器,每日早上定时获取到天气数据,并发送到邮箱。 也可以说是一个小人工智障。 思路可以运用在不同地方,主要介绍的是思路。
Nginx 软件层面加强Nginx性能优化的面试问答和解决方案
Nginx 软件层面加强Nginx性能优化的面试问答和解决方案 去年我去爱卡汽车面试PHP,一轮和二轮面的都不错,在三轮面到Nginx的时候很多问题当时不知道怎么回答,确实没有深入学习过,花了一段时间的学习,终于能解答Nginx高性能优化的问题了,10月24号为了获得程序员勋章,发布了半个优化笔记,浏览到了1000+,受到这个鼓舞,我抽时间在仔细整理下关于Nginx性能优化的问题,我们从软件说起。...
【管理系统课程设计】美少女手把手教你后台管理
【文章后台管理系统】URL设计与建模分析+项目源码+运行界面 栏目管理、文章列表、用户管理、角色管理、权限管理模块(文章最后附有源码) 1. 这是一个什么系统? 1.1 学习后台管理系统的原因 随着时代的变迁,现如今各大云服务平台横空出世,市面上有许多如学生信息系统、图书阅读系统、停车场管理系统等的管理系统,而本人家里就有人在用烟草销售系统,直接在网上完成挑选、购买与提交收货点,方便又快捷。 试想,若没有烟草销售系统,本人家人想要购买烟草,还要独自前往药...
11月19日科技资讯|华为明日发布鸿蒙整体战略;京东宣告全面向技术转型;Kotlin 1.3.60 发布
「极客头条」—— 技术人员的新闻圈! CSDN 的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。扫描上方二维码进入 CSDN App 可以收听御姐萌妹 Style 的人工版音频哟。 一分钟速览新闻点! 6G 专家组成员:速率是 5G 的 10 至 100 倍,预计 2030 年商用 雷军:很多人多次劝我放弃WPS,能坚持下来并不是纯粹的商业决定 ...
C语言魔塔游戏
很早就很想写这个,今天终于写完了。 游戏截图: 编译环境: VS2017 游戏需要一些图片,如果有想要的或者对游戏有什么看法的可以加我的QQ 2985486630 讨论,如果暂时没有回应,可以在博客下方留言,到时候我会看到。 下面我来介绍一下游戏的主要功能和实现方式 首先是玩家的定义,使用结构体,这个名字是可以自己改变的 struct gamerole { char n
化繁为简 - 腾讯计费高一致TDXA的实践之路
导语:腾讯计费是孵化于支撑腾讯内部业务千亿级营收的互联网计费平台,在如此庞大的业务体量下,腾讯计费要支撑业务的快速增长,同时还要保证每笔交易不错账。采用最终一致性或离线补...
Python爬虫爬取淘宝,京东商品信息
小编是一个理科生,不善长说一些废话。简单介绍下原理然后直接上代码。 使用的工具(Python+pycharm2019.3+selenium+xpath+chromedriver)其中要使用pycharm也可以私聊我selenium是一个框架可以通过pip下载 pip install selenium -i https://pypi.tuna.tsinghua.edu.cn/simple/ 
Java学习笔记(七十二)—— Cookie
概述 会话技术: 会话:一次会话中包含多次请求和响应 一次会话:浏览器第一次给服务器发送资源请求,会话建立,直到有一方断开为止 功能:在一次会话的范围内的多次请求间,共享数据 方式: 客户端会话技术:Cookie,把数据存储到客户端 服务器端会话技术:Session,把数据存储到服务器端 Cookie 概念:客户端会话技术,将数据存储到客户端 快速入门: 使用步骤: 创建C
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
Java工作4年来应聘要16K最后没要,细节如下。。。
前奏: 今天2B哥和大家分享一位前几天面试的一位应聘者,工作4年26岁,统招本科。 以下就是他的简历和面试情况。 基本情况: 专业技能: 1、&nbsp;熟悉Sping了解SpringMVC、SpringBoot、Mybatis等框架、了解SpringCloud微服务 2、&nbsp;熟悉常用项目管理工具:SVN、GIT、MAVEN、Jenkins 3、&nbsp;熟悉Nginx、tomca
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆  每天早上8:30推送 作者| Mr.K   编辑| Emma 来源| 技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯
程序员该看的几部电影
##1、骇客帝国(1999) 概念:在线/离线,递归,循环,矩阵等 剧情简介: 不久的将来,网络黑客尼奥对这个看似正常的现实世界产生了怀疑。 他结识了黑客崔妮蒂,并见到了黑客组织的首领墨菲斯。 墨菲斯告诉他,现实世界其实是由一个名叫“母体”的计算机人工智能系统控制,人们就像他们饲养的动物,没有自由和思想,而尼奥就是能够拯救人类的救世主。 可是,救赎之路从来都不会一帆风顺,到底哪里才是真实的世界?
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东
@程序员,如何花式构建线程?
作者 |曾建责编 | 郭芮出品 | CSDN(ID:CSDNnews)在项目和业务的开发中,我们难免要经常使用线程来进行业务处理,使用线程可以保证我们的业务在相互处理之间可以保证原子性...
破14亿,Python分析我国存在哪些人口危机!
2020年1月17日,国家统计局发布了2019年国民经济报告,报告中指出我国人口突破14亿。 猪哥的朋友圈被14亿人口刷屏,但是很多人并没有看到我国复杂的人口问题:老龄化、男女比例失衡、生育率下降、人口红利下降等。 今天我们就来分析一下我们国家的人口数据吧! 一、背景 1.人口突破14亿 2020年1月17日,国家统计局发布了 2019年国民经济报告 ,报告中指出:年末中国大陆总人口(包括31个
强烈推荐10本程序员在家读的书
很遗憾,这个鼠年春节注定是刻骨铭心的,新型冠状病毒让每个人的神经都是紧绷的。那些处在武汉的白衣天使们,尤其值得我们的尊敬。而我们这些窝在家里的程序员,能不外出就不外出,就是对社会做出的最大的贡献。 有些读者私下问我,窝了几天,有点颓丧,能否推荐几本书在家里看看。我花了一天的时间,挑选了 10 本我最喜欢的书,你可以挑选感兴趣的来读一读。读书不仅可以平复恐惧的压力,还可以对未来充满希望,毕竟苦难终
Linux自学篇——linux命令英文全称及解释
man: Manual 意思是手册,可以用这个命令查询其他命令的用法。 pwd:Print working directory 显示当前目录 su:Swith user 切换用户,切换到root用户 cd:Change directory 切换目录 ls:List files 列出目录下的文件 ps:Process Status 进程状态 mk
Python实战:抓肺炎疫情实时数据,画2019-nCoV疫情地图
文章目录1. 前言2. 数据下载3. 数据处理4. 数据可视化 1. 前言 今天,群里白垩老师问如何用python画武汉肺炎疫情地图。白垩老师是研究海洋生态与地球生物的学者,国家重点实验室成员,于不惑之年学习python,实为我等学习楷模。先前我并没有关注武汉肺炎的具体数据,也没有画过类似的数据分布图。于是就拿了两个小时,专门研究了一下,遂成此文。 2月6日追记:本文发布后,腾讯的数据源多次变更u
智力题(程序员面试经典)
NO.1  有20瓶药丸,其中19瓶装有1克/粒的药丸,余下一瓶装有1.1克/粒的药丸。给你一台称重精准的天平,怎么找出比较重的那瓶药丸?天平只能用一次。 解法 有时候,严格的限制条件有可能反倒是解题的线索。在这个问题中,限制条件是天平只能用一次。 因为天平只能用一次,我们也得以知道一个有趣的事实:一次必须同时称很多药丸,其实更准确地说,是必须从19瓶拿出药丸进行称重。否则,如果跳过两瓶或更多瓶药
在家远程办公效率低?那你一定要收好这个「在家办公」神器!
相信大家都已经收到国务院延长春节假期的消息,接下来,在家远程办公可能将会持续一段时间。 但是问题来了。远程办公不是人在电脑前就当坐班了,相反,对于沟通效率,文件协作,以及信息安全都有着极高的要求。有着非常多的挑战,比如: 1在异地互相不见面的会议上,如何提高沟通效率? 2文件之间的来往反馈如何做到及时性?如何保证信息安全? 3如何规划安排每天工作,以及如何进行成果验收? ......
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!
2020年的1月,我辞掉了我的第一份工作
其实,这篇文章,我应该早点写的,毕竟现在已经2月份了。不过一些其它原因,或者是我的惰性、还有一些迷茫的念头,让自己迟迟没有试着写一点东西,记录下,或者说是总结下自己前3年的工作上的经历、学习的过程。 我自己知道的,在写自己的博客方面,我的文笔很一般,非技术类的文章不想去写;另外我又是一个还比较热衷于技术的人,而平常复杂一点的东西,如果想写文章写的清楚点,是需要足够...
别低估自己的直觉,也别高估自己的智商
所有群全部吵翻天,朋友圈全部沦陷,公众号疯狂转发。这两周没怎么发原创,只发新闻,可能有人注意到了。我不是懒,是文章写了却没发,因为大家的关注力始终在这次的疫情上面,发了也没人看。当然,我...
Java坑人面试题系列: 包装类(中级难度)
Java Magazine上面有一个专门坑人的面试题系列: https://blogs.oracle.com/javamagazine/quiz-2。 这些问题的设计宗旨,主要是测试面试者对Java语言的了解程度,而不是为了用弯弯绕绕的手段把面试者搞蒙。 如果你看过往期的问题,就会发现每一个都不简单。 这些试题模拟了认证考试中的一些难题。 而 “中级(intermediate)” 和 “高级(ad
Spring Boot 2.x基础教程:使用JdbcTemplate访问MySQL数据库
在第2章节中,我们介绍了如何通过Spring Boot来实现HTTP接口,以及围绕HTTP接口相关的单元测试、文档生成等实用技能。但是,这些内容还不足以帮助我们构建一个动态应用的服务端程序。不论我们是要做App、小程序、还是传统的Web站点,对于用户的信息、相关业务的内容,通常都需要对其进行存储,而不是像第2章节中那样,把用户信息存储在内存中(重启就丢了!)。 对于信息的存储,现在已经有非常非常多...
基于Python的人脸自动戴口罩系统
目录 1、项目背景 2、页面设计 3、器官识别 4、退出系统 1、项目背景 2019年新型冠状病毒感染的肺炎疫情发生以来,牵动人心,举国哀痛,口罩、酒精、消毒液奇货可居。 抢不到口罩,怎么办?作为技术人今天分享如何使用Python实现自动戴口罩系统,来安慰自己,系统效果如下所示: 本系统的实现原理是借助 Dlib模块的Landmark人脸68个关键点检测库轻松识别出人脸五官
这个世界上人真的分三六九等,你信吗?
偶然间,在知乎上看到一个问题 一时间,勾起了我深深的回忆。 以前在厂里打过两次工,做过家教,干过辅导班,做过中介。零下几度的晚上,贴过广告,满脸、满手地长冻疮。   再回首那段岁月,虽然苦,但让我学会了坚持和忍耐。让我明白了,在这个世界上,无论环境多么的恶劣,只要心存希望,星星之火,亦可燎原。   下文是原回答,希望能对你能有所启发。   如果我说,这个世界上人真的分三六九等,
节后首个工作日,企业们集体开晨会让钉钉挂了
By 超神经场景描述:昨天 2 月 3 日,是大部分城市号召远程工作的第一天,全国有接近 2 亿人在家开始远程办公,钉钉上也有超过 1000 万家企业活跃起来。关键词:十一出行 人脸...
Java基础知识点梳理
Java基础知识点梳理 摘要: 虽然已经在实际工作中经常与java打交道,但是一直没系统地对java这门语言进行梳理和总结,掌握的知识也比较零散。恰好利用这段时间重新认识下java,并对一些常见的语法和知识点做个总结与回顾,一方面为了加深印象,方便后面查阅,一方面为了学好java打下基础。 Java简介 java语言于1995年正式推出,最开始被命名为Oak语言,由James Gosling(詹姆
jQuery实现高仿QQ音乐
几个实现的效果看视频吧: bandicam 2020-02-05 16-28-20-127 动图很是不清楚 github地址奉上:https://github.com/tangmusenLiu/Large-warehouse https://github.com/tangmu
为什么听过很多道理,依然过不好这一生?
记录学习笔记是一个重要的习惯,不希望学习过的东西成为过眼云烟。做总结的同时也是一次复盘思考的过程。 本文是根据阅读得到 App上《万维钢·精英日课》部分文章后所做的一点笔记和思考。学习是一个系统的过程,思维模型的建立需要相对完整的学习和思考过程。以下观点是在碎片化阅读后总结的一点心得总结。
2020年全新Java学习路线图,含配套视频,学完即为中级Java程序员!!
新的一年来临,突如其来的疫情打破了平静的生活! 在家的你是否很无聊,如果无聊就来学习吧! 世上只有一种投资只赚不赔,那就是学习!!! 传智播客于2020年升级了Java学习线路图,硬核升级,免费放送! 学完你就是中级程序员,能更快一步找到工作! 一、Java基础 JavaSE基础是Java中级程序员的起点,是帮助你从小白到懂得编程的必经之路。 在Java基础板块中有6个子模块的学
B 站上有哪些很好的学习资源?
哇说起B站,在小九眼里就是宝藏般的存在,放年假宅在家时一天刷6、7个小时不在话下,更别提今年的跨年晚会,我简直是跪着看完的!! 最早大家聚在在B站是为了追番,再后来我在上面刷欧美新歌和漂亮小姐姐的舞蹈视频,最近两年我和周围的朋友们已经把B站当作学习教室了,而且学习成本还免费,真是个励志的好平台ヽ(.◕ฺˇд ˇ◕ฺ;)ノ 下面我们就来盘点一下B站上优质的学习资源: 综合类 Oeasy: 综合
如何优雅地打印一个Java对象?
你好呀,我是沉默王二,一个和黄家驹一样身高,和刘德华一样颜值的程序员。虽然已经写了十多年的 Java 代码,但仍然觉得自己是个菜鸟(请允许我惭愧一下)。 在一个月黑风高的夜晚,我思前想后,觉得再也不能这么蹉跎下去了。于是痛下决心,准备通过输出的方式倒逼输入,以此来修炼自己的内功,从而进阶成为一名真正意义上的大神。与此同时,希望这些文章能够帮助到更多的读者,让大家在学习的路上不再寂寞、空虚和冷。 ...
雷火神山直播超两亿,Web播放器事件监听是怎么实现的?
Web播放器解决了在手机浏览器和PC浏览器上播放音视频数据的问题,让视音频内容可以不依赖用户安装App,就能进行播放以及在社交平台进行传播。在视频业务大数据平台中,播放数据的统计分析非常重要,所以Web播放器在使用过程中,需要对其内部的数据进行收集并上报至服务端,此时,就需要对发生在其内部的一些播放行为进行事件监听。 那么Web播放器事件监听是怎么实现的呢? 01 监听事件明细表 名...
JAVA后端面试《Spring》
Spring1.Spring是什么?有什么好处?2.IOC是什么?有什么好处?具体过程?3.DI是什么?4.IOC和DI的关系?5.bean标签的属性有哪些?6.IOC创建对象有哪几种方式?7.Spring是如何实现IOC的?也就是如何创建对象的? 1.Spring是什么?有什么好处? 概念: SPring是一个支持控制反转(IOC)和面向切面编程(AOP)的容器框架。 好处: 两降低&gt;&...
相关热词 c# 为空 判断 委托 c#记事本颜色 c# 系统默认声音 js中调用c#方法参数 c#引入dll文件报错 c#根据名称实例化 c#从邮件服务器获取邮件 c# 保存文件夹 c#代码打包引用 c# 压缩效率
立即提问

相似问题