用beautifulsoup解析网页时获取的网页源码很多标签都未展开? 5C

源码
#coding= gbk
import requests
import urllib.request
from bs4 import BeautifulSoup

num = 0

url = 'https://www.zhihu.com/lives'
page = urllib.request.urlopen(url)
soup = BeautifulSoup(page, 'html.parser')
print(soup)
想爬取关于知乎live的一些内容,但是返回的网页源码div标签都未展开,也就无法搜索到文本内容,求教大佬!另外还问一下对于知乎这种要向下滑动才能显示更多的网页,要如何改写代码,读取更多的内容?
图片说明
图片说明

1个回答

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
关于Python中BeautifulSoup的解析网页元素。

如图,如何实用BeautifulSoup才能把链接爬出来呢? 附图源码: <div class="tpc_content do_not_catch"><a href='http://www.viidii.info/?http://www______kedou______share______tadpoles______online/share/36248&z' target='_blank'>點擊這里打開新視窗</a> | <a style="cursor:pointer" onclick="getElementById('iframe1').src='http://www.kedou.share.tadpoles.online/share/36248#iframeload'">以下內容被隱藏:www.kedou.share.tadpoles.online (我已了解這是外部網站,并<font color=red>同意加載</font>)</a><br><iframe src='about:blank' id='iframe1' FRAMEBORDER=0 ALLOWTRANSPARENCY=true SCROLLING=YES WIDTH="100%" HEIGHT=500 style='background-color:#EFEFEF;'></iframe></div> 谢谢,不胜感激。![图片](https://img-ask.csdn.net/upload/201612/05/1480942327_245469.png)

bs4.BeautifulSoup为什么获取不了完整的源代码

``` import bs4,requests,html.parser,smtplib res=requests.get('http://xk.csust.edu.cn/') need=bs4.BeautifulSoup(res.text,'html.parser') need.encode('UTF-8') print(need) elems = need.select('#imgCode') print(elems) ``` 我想要获取这个验证码的信息 bs4.BeautifulSoup第二个参数的三种我都试过了还是找不到 但是用chromeF12中是可以找到id="imgCode"的这一项 求解!!!!

python 中,使用 beautifulSoup 获得的网页文本与在浏览器上看到的,格式不一样?

比如有一段 html 源码: html='''<span id='sp1'>span1</span> <span id='sp2'>span2</span>''' 注意如上 html 源码中,sp1 与 sp2 之间有个换行,并且 sp2 之前还有几个空格. 保存最 htm 文件,使用浏览器(ie firefox chrome)渲染后,得到的网页文本是: span1 span2 #注意 span1 与 span2 之间有一个空格. 如果使用 beautifulSoup 获取网页文本,代码如下: from bs4 import BeautifulSoup as bs s=bs(html,'html5lib') web_text=s.get_text() print web_text 结果显示如下: span1 span2 或者:print s.get_text(strip=True),则结果显示如下: span1span2 #注意 span1 与 span2 之间没有空格 由此可见,使用 beautifulsoup 获取到网页文本与浏览器渲染后的网页文本,其格式是不一样的. 那么,要想使用 beautifulsoup 获取到和浏览器渲染后的网页文本的格式一样,该怎么操作呢? 希望方法具有普遍性,不仅仅是针对如上例子中的 htm 源码. 多谢!

python3 Lxml和BeautifulSoup解析网页出问题输出有问题, 求指教!

各位大神好: 下面这几句代码输出网页解析的结果为什么结果很难看: ``` import lxml.html broken_html = '<ul class=country><li>area<li>population</ul>' tree = lxml.html.fromstring(broken_html) cc = lxml.html.tostring(tree, pretty_print=True, method='html').decode() print(cc) ``` 下面是输出结果: ``` <ul class="country"> <li>area</li> <li>population</li> </ul> ``` 尽管闭合了标签,但是完全看不出嵌套关系了。上面的decode()是为了将前面的输出bytes类型转换成str类型。 而使用BeautifulSoup同样出错 ``` from bs4 import BeautifulSoup soup = BeautifulSoup(broken_html, 'html.parser') ccc = soup.prettify() print(ccc) ``` 结果,标签都补错了: ``` ”<ul class="country"> <li> area <li> population </li> </li> </ul>” ``` 第一次发帖,求各位大神给我解释下,多谢!

python beautifulsoup解析wap网页

之前用beautifulsoup解析wap页面很溜的,今天突然不行了,求教这是咋回事。 #!/usr/bin/python #-*-coding:utf-8-*- import urllib2 from bs4 import BeautifulSoup url1 = 'http://www.baidu.com/' url2 = 'http://wap.baidu.com' html = urllib2.urlopen(url).read() c1 = BeautifulSoup(html,from_encoding='utf8') c2 = c1.title print c2 #运行url1的时候能解析出Title #运行url2的时候结果是none 请问这个该咋处理,另外我昨天安装了html5lib,会不会是这个导致的?

[python]BeautifulSoup4爬虫解析网页中data-*标签的问题

![图片说明](https://img-ask.csdn.net/upload/201705/17/1495004162_275999.png) 我想要解析出图中的链接,通过先识别 li 定位。可是查看soup的文本,所有data-\* 都没有解析出来 代码如下 ``` keywords = input('输入关键词PLZ') res = requests.get('https://www.bing.com/search?q='+str(keywords)+'&qs=n&form=QBLH&scope=web&sp=-1&pq=abc&sc=8-5&sk=&cvid=3FE7B447AE744DD1AF25B5919EE1B675') try: res.raise_for_status() except Exception as ecp: print('There is an Exception:',ecp) soup = bs4.BeautifulSoup(res.text,'html.parser') ol = soup.find('ol',id='b_results') linkElement = soup.find_all(attrs={'data-bm':'7'}) ``` 结果linkElement为空

请问用BeautifulSoup如何获取p标签内的值

从网上爬下来了一道数学题,不知道该怎样获取里面的值了 ``` soup = BeautifulSoup(problem_content, 'html.parser') # 这个problem_content是个从网上爬下来的数学题,里面包含很多的HTML标签 # print soup # 全部是乱码,网上找资料说是没有\xa0这个编码 # print soup.prettify().replace(u'\xa0', '') # 安装文档形式输出,正常输出 # print soup.p # 输出的p标签内容全部是乱码 # print soup.encode('gb18030') # 除中文外全部是 乱码 new_soup = soup.prettify().replace(u'\xa0', '') # new_soup为unicode格式 s_soup = BeautifulSoup(new_soup, 'html.parser') # 再次将其转为bs4格式数据 cont = s_soup.p.encode('gb18030') # print type(cont)返回 <type 'str'> # print type(new_soup) 返回 <type 'unicode'> print cont ``` print cont返回值是: ``` <p> 如图所示,圆锥 $SO$ 的轴截面 $△$$SAB$ 是边长为$ 4 $的正三角形,$M$为母线 $SB$的中点,过直线 $AM$ 作平面 $β$ $⊥$ 面 $SAB$ ,设 $β$ <span> 与圆锥侧面的交线为椭圆 $C$,则椭圆 $C$ 的短半轴 </span> <span style="font-size:12px;line-height:1.5;"> 为( ) </span> </p> ``` 由于这个cont是个str类型的值,请问老师我该如何才能回去这个值<p>标签内部的值?用cont.string返回错误提示:cont没有string属性

Python中BeautifulSoup获取微博源代码不完整怎么办?

各位大神: 小弟是初学者,用Python3.7.0爬取微博中的“转发、评论和赞”的数据时,发现BeautifulSoup获取的内容与源代码不一致,请问是怎么回事? 源代码: ![图片说明](https://img-ask.csdn.net/upload/201902/27/1551230996_514571.png) 爬取结果: ![图片说明](https://img-ask.csdn.net/upload/201902/27/1551231276_765544.png)

爬虫网页使用Beautifulsoup遍历网页时 总是 没有'children'模块

import requests import bs4 from bs4 import BeautifulSoup import re def getHTMLText(url): try: r = requests.get(url, timrout = 30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "" def fillUnivList(ulist, html): soup = BeautifulSoup(html, "html.parser") for tr in soup.find('tbody').children: if isinstance(tr, bs4.element.Tag): tds = tr('td') ulist.append([tds[0].string,tds[1].string,tds[2].string]) def printUnivList(ulist, num): print("{:^10}\t{:^10}\t{:^10}".format("排名","大学名称","总分")) for i in range(num): u = ulist[i] print("{:^10}\t{:^10}\t{:^10}".format(u[0],u[1],u[2])) def main(): #num = int(raw_input("请输入您要查询的大学数:")) unifo = [] url = "http://www.gaokaopai.com/paihang-otype-2.html?f=1&ly=bd&city=&cate=&batch_type=" html = getHTMLText(url) fillUnivList(unifo, html) printUnivList(unifo,10) main() 错误提示:AttributeError: 'NoneType' object has no attribute 'children'

用BeautifulSoup4 解析html的内容

``` <div class="houseInfo"><a data-el="region" data-log_index="30" href="https://bj027381998/" target="_blank">怡然家园6号院 </a><span class="divide">/</span>2室1厅<span class="divide">/</span>95.73平米<span class="divide">/</span>南 北<span class="divide">/</span>精装<span class="divide">/</span>无电梯</div> ``` subtitle = tag.contents[0].string+tag.contents[2]=》解析只能得出:怡然家园6号院 2室1厅 后面的内容无法获取,求大神帮忙

python中的BeautifulSoup用.contents获取子标签

.contents说明文档中解释是list,我用soup.thead.tr.contents获取后的值为: l = [<th>时间</th>,<th>指标名称</th>] 当我读取它时好像执行的是pop操作这是为什么 rst = BeautifulSoup() rst.append(l[1]) print(len(l)) 输出为1,少了一个

python爬虫如何用beautifulsoup提取多层div标签下的内容

用request提取到的HTMLdiv标签未能展开,用findall方法,传入“div”“类名”做参数,也提取不到任何内容,求教!

求助,python 解析爬取的网页源码中的json部分

爬下来的网页源码有一部分是这样的 : ![图片说明](https://img-ask.csdn.net/upload/201603/11/1457684608_605734.jpg) 中间那一部分是json吧?要怎么才能解析成像浏览器那样的好继续抓取所要的信息? 说部分是因为有另外一些是正常的html,就中间这一部分想要的信息就这样两行超级长的延伸。。。也使用过json.load()来解析,不想显示错误“没有可以解析的json对象”。 这两行中还有一部分“}\u0026nick\u003d${nick}\u0026rn\u003d${rn}\u0026stats...”应该是unicode的编码,也不知道要怎么办。。 我是想要从淘宝上爬些衣服的图片下来,从首页开始,爬出其中分页的链接,然后拿到分页的源码后要解析出图片的url时出的问题。 下面是部分代码: url = 'https://www.taobao.com' header = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_3) AppleWebKit/601.4.4 (KHTML, like Gecko) Version/9.0.3 Safari/601.4.4'} cookie = {"cookies":'mt="ci=10_1";uc1="cookie14=UoWyia%2Bf0iS5lw%3D%3D&cookie16=VT5L2FSpNgq6fDudInPRgavC%2BQ%3D%3D&existShop=false&cookie21=U%2BGCWk%2F7pY%2FF&tag=7&cookie15=UIHiLt3xD8xYTw%3D%3D&pas=0"'} html = requests.get(url) #解析html,xml转义字符 html_parser = HTMLParser.HTMLParser() text = html_parser.unescape(html.text) # soup = BeautifulSoup(html.text) #用xpath来提取链接,如"打底羊毛衫"这个类别 selector = etree.HTML(text) sub_url = selector.xpath('//*[@id="J_Top"]/div/div[1]/div/div/div/div[3]/div[1]/div/div/div[1]/a[1]/@href') print sub_url[0] sub_html = requests.get(sub_url[0]) sub_text = html_parser.unescape(sub_html.text) # soup = BeautifulSoup(sub_html.text,"lxml") # print soup.prettify() print sub_text ``` ```

用python Beautifulsoup提取html标签下内容时,标签内的子标签内容如何提取?

比如要提取一个div标签下的内容 但是内容中包含了图片地址,网页链接等子标签,怎么把 这些内容提取出来?

Python BeautifulSoup获取属性值怎么?

代码如下: html=''' <img src = "//s3plus.meituan.net/v1/mss_e2821d7f0cfe4ac1bf9202ecf9590e67/cdn-prod/file:5788b470/image/loading_2.e3d934bf.png"alt = "hah"class ="poster-default"/> <img data-src = "https://p1.meituan.net/movie/20803f59291c47e1e116c11963ce019e68711.jpg@160w_220h_1e_1c"alt = "abc" class ="board-img"/>''' from bs4 import BeautifulSoup soup=BeautifulSoup(html,"lxml") print(soup.prettify()) print(soup.findAll(attrs='data-src')) ``` 输出的list为空 [] ``` 我想用beautifulsoup 来获取data-src这个属性的值,也就是这个 "https://p1.meituan.net/movie/20803f59291c47e1e116c11963ce019e68711.jpg@160w_220h_1e_1c" 各位大神,**如果 不用 beautifulsoup 的 CSS 选择器**,怎么获取?

【python】网站原html文档和requests+beautifulsoup得到的不一致

网站html部分截图: ![网站html截图](https://img-ask.csdn.net/upload/201901/25/1548355839_187964.png) 想爬取目录下的标题(例如截图中的“影像 论坛撩影”) 在shell中找标签过程如下: ``` >>> from bs4 import BeautifulSoup >>> import requests >>> url='http://www.qikan.com.cn/magdetails/4A07226A-70B4-41A8-B61A-3A45A4E09FEC/2019/1.html' >>> r=requests.get(url) >>> r.encoding 'utf-8' >>> soup=BeautifulSoup(r.text,'html.parser') >>> soup.find("div",attrs={"class":"catalog2"}) <div class="catalog2"> <strong>目录</strong> <dl> <dd><a href="/article/zjzk20190101.html" target="_blank">影像丨</a></dd></dl></div> ``` 发现 div class="catalog2" 标签下的内容和原网站不符 于是将 soup.prettify() 输出到txt中,发现输出如下(截取部分): ``` <div class="catalog2"> <strong> 目录 </strong> <dl> <dd> <a href="/article/zjzk20190101.html" target="_blank"> 影像丨 </a> </dd> </dl> </div> </div> </div> </div> </div> </div> </div> </form> </body> </html> 论坛掠影 <dt> <span style="display: "> <img src="http://img.qikan.com.cn/qkimages/zjzk/zjzk201901/72_72/zjzk20190101-1-s.jpg"/> </span> 第十七届中国经济论坛在人民日报社举行。 2018年12月29日,由人民日报社指导,《中国经济周刊》、中国信通院、工信部工业互联网产业联盟共同主办的第十七届中国经济论坛在人民日报社举行。来自政商学界的460 多位嘉宾出席论坛。 人民日报社副总... </dt> <dl> ``` 想询问为什么标签位置与原网页的不一致,应该怎么解决?

为什么用BeautifulSoup获取标签内容是None

soup里的内容 ![图片说明](https://img-ask.csdn.net/upload/201603/21/1458544141_888334.png) 我的代码 ``` for i in soup: print i.string ``` 为什么我获取的标签内容是None

selenium+beautifulsoup 抓取 html table

from bs4 import BeautifulSoup from selenium import webdriver import urllib2 import time driver = webdriver.Chrome() driver.maximize_window() driver.get("https://www.zillow.com/homes/recently_sold/Culver-City-CA/house,condo,apartment_duplex,townhouse_type/20432063_zpid/51617_rid/12m_days/globalrelevanceex_sort/34.048605,-118.340178,33.963223,-118.47785_rect/12_zm/") time.sleep(3) driver.find_element_by_class_name("collapsible-header").click() soup = BeautifulSoup(driver.page_source) region = soup.find("div",{"id":"hdp-price-history"}) table = region.find('table',{'class':'zsg-table yui3-toggle-content-minimized'}) print table 需要price/Tax history 的table但是通过class和id定位的结果是None,找不出问题在哪里了

用BeautifulSoup在并列标签完全相同怎样爬取第二个内容?

![图片说明](https://img-ask.csdn.net/upload/202005/10/1589096400_763935.png) ``` for houselist_div in houselist_divs: houselist_as = houselist_div.find_all('span',class_='withI') for i in range(len(houselist_as)): houselist = [] houselist.append(houselist_as[0].get_text()) houselist.append(houselist_as[1].get_text()) house.append(houselist) ['裕华-裕东', '西美五洲大厦'] ['裕华-裕东', '西美五洲大厦'] ['新华-水上公园', '天河商务'] ['新华-水上公园', '天河商务'] ['新华-石房大厦', '鹿诚商务中心'] ['新华-石房大厦', '鹿诚商务中心'] ```

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Intellij IDEA 实用插件安利

1. 前言从2020 年 JVM 生态报告解读 可以看出Intellij IDEA 目前已经稳坐 Java IDE 头把交椅。而且统计得出付费用户已经超过了八成(国外统计)。IDEA 的...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

魂迁光刻,梦绕芯片,中芯国际终获ASML大型光刻机

据羊城晚报报道,近日中芯国际从荷兰进口的一台大型光刻机,顺利通过深圳出口加工区场站两道闸口进入厂区,中芯国际发表公告称该光刻机并非此前盛传的EUV光刻机,主要用于企业复工复产后的生产线扩容。 我们知道EUV主要用于7nm及以下制程的芯片制造,光刻机作为集成电路制造中最关键的设备,对芯片制作工艺有着决定性的影响,被誉为“超精密制造技术皇冠上的明珠”,根据之前中芯国际的公报,目...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

百度工程师,获利10万,判刑3年!

所有一夜暴富的方法都写在刑法中,但总有人心存侥幸。这些年互联网犯罪高发,一些工程师高技术犯罪更是引发关注。这两天,一个百度运维工程师的案例传遍朋友圈。1...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《Oracle Java SE编程自学与面试指南》最佳学习路线图2020年最新版(进大厂必备)

正确选择比瞎努力更重要!

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

实时更新:计算机编程语言排行榜—TIOBE世界编程语言排行榜(2020年6月份最新版)

内容导航: 1、TIOBE排行榜 2、总榜(2020年6月份) 3、本月前三名 3.1、C 3.2、Java 3.3、Python 4、学习路线图 5、参考地址 1、TIOBE排行榜 TIOBE排行榜是根据全世界互联网上有经验的程序员、课程和第三方厂商的数量,并使用搜索引擎(如Google、Bing、Yahoo!)以及Wikipedia、Amazon、YouTube统计出排名数据。

立即提问
相关内容推荐