如何用Jsoup爬取网址中懒加载的图片地址?

RT,最近学习用Jsoup爬取极客公园网站的数据,但发现用这个开源库只能爬取到静态的数据,像是首页新闻的图片和作者的头像不能够爬取出来,想问下大神怎么爬取动态加载后的数据呢?
网址: https://www.geekpark.net/
想爬取的数据: 新闻列表下的文章图片和作者头像的信息,发现待爬图片网址的属性是 lazy="loaded",在网页的操作是,当网页请滑到相应的位置时,对应的图片加载出来。
不知道这个是不是动态的数据,请大神指导,谢谢!!

想爬取网址的截图如下
想获取的两个图片链接

用Jsoup获取到的document

1个回答

看一下视频教程,
有一个获取评论数的视频,对于这样的爬取还要在转化一次才行。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
java通过jsoup怎么爬取动态加载的 内容

要爬取的url:http://www.zdic.net/c/cipy/ci/?z=啊 要爬取的标签:![图片说明](https://img-ask.csdn.net/upload/201804/10/1523348192_354488.png) 但是在控制台的Elements里可以看到,如![图片说明](https://img-ask.csdn.net/upload/201804/10/1523348522_783648.png) 后来发现 这些数据来源于一个url请求:![图片说明](https://img-ask.csdn.net/upload/201804/10/1523348564_102493.png) 该怎么爬取这个zdiv这个标签的内容,,,

htmlunit+jsoup爬取知乎视频,获取的html字符串中缺少视频信息,如何解决?

大神帮忙看一下 今天使用htmlunit+jsoup爬取知乎网站的视频,发现爬取到的html中缺少视频的信息,无法进行下一步了 知乎视频网址:https://video.zhihu.com/video/1157743087110549504?autoplay=false&useMSE= 浏览器检查中查看到的视频信息 ![图片说明](https://img-ask.csdn.net/upload/201910/12/1570872018_377176.png) java代码 ``` @Test public void testttt() { final WebClient webClient = new WebClient(BrowserVersion.CHROME);//新建一个模拟谷歌Chrome浏览器的浏览器客户端对象 webClient.getOptions().setThrowExceptionOnScriptError(false);//当JS执行出错的时候是否抛出异常, 这里选择不需要 webClient.getOptions().setThrowExceptionOnFailingStatusCode(false);//当HTTP的状态非200时是否抛出异常, 这里选择不需要 webClient.getOptions().setActiveXNative(false); webClient.getOptions().setCssEnabled(false);//是否启用CSS, 因为不需要展现页面, 所以不需要启用 webClient.getOptions().setJavaScriptEnabled(true); //很重要,启用JS webClient.setAjaxController(new NicelyResynchronizingAjaxController());//很重要,设置支持AJAX HtmlPage page = null; try { page = webClient.getPage("https://video.zhihu.com/video/1157743087110549504?autoplay=false&useMSE=");//尝试加载上面图片例子给出的网页 // page = webClient.getPage("http://ent.sina.com.cn/film/");//尝试加载上面图片例子给出的网页 } catch (Exception e) { e.printStackTrace(); }finally { webClient.close(); } webClient.waitForBackgroundJavaScript(30000000);//异步JS执行需要耗时,所以这里线程要阻塞30秒,等待异步JS执行结束 String pageXml = page.asXml();//直接将加载完成的页面转换成xml格式的字符串 System.out.println(pageXml); //TODO 下面的代码就是对字符串的操作了,常规的爬虫操作,用到了比较好用的Jsoup库 // Document document = Jsoup.parse(pageXml);//获取html文档 // List<Element> infoListEle = document.getElementById("feedCardContent").getElementsByAttributeValue("class", "feed-card-item");//获取元素节点等 // infoListEle.forEach(element -> { // System.out.println(element.getElementsByTag("h2").first().getElementsByTag("a").text()); // System.out.println(element.getElementsByTag("h2").first().getElementsByTag("a").attr("href")); // }); } ``` 运行程序打印的html如下: ![图片说明](https://img-ask.csdn.net/upload/201910/12/1570872108_470794.png) 有大神遇到过这个问题吗?帮忙看一下

Android用okhttp+Jsoup爬取一个页面,无法得到iframe的值

直接用谷歌浏览器看可以看到这样一个iframe ![图片说明](https://img-ask.csdn.net/upload/201611/03/1478153804_342426.png) 但是直接去爬,得到的都是空的。 应该是动态加载的吧,但是我是初学者 前端网页都不了解 不知道该怎么去做。 最后面这个auid不知道该怎么得到。 我要的数据应该在这个里面 这个问题困扰我很久了,做的一个项目就差这一个功能了,不知道该如何下手。 应该是在代码里去post的时候不会自动加载 onResponse方法返回的是还没有加载完全的 网页,但为什么平时使用浏览器的时候会自动加载呢?

java 怎么爬取全部加载完成的页面

今天试了下jsoup爬取,结果发现ajax里面的还没加载完它就爬完了,导致ajax的动态 数据都爬不动;然后又试了下htmlunit,也不行;求教!!

关于使用jsoup抓取网页数据问题

主管让我使用jsoup,在谷歌上输入关键字,然后抓取搜索结果的标题,网址,描述。这些都成功了, 可是后面他又说要加上限制条件,限制为所有中文网页,过去一个月内的结果。后来百度了一下,加上了&tbs=qdr:m&lr=lang_zh-CN%7Clang_zh-TW这一串地址,也可以限制,但是他又说需要时间。就是如果你加上时间限制,它的搜索结果的前面会有时间,如图![图片说明](https://img-ask.csdn.net/upload/201609/27/1474958294_93097.png)

jsoup不能获取html的全部内容?

我用 ``` Document doc=Jsoup.connect("http://www.baidu.com").get(); System.out.println(doc); ``` 只能得出js代码,如图所示: ![图片说明](https://img-ask.csdn.net/upload/201902/24/1550992419_470168.jpg) 但是却可以通过doc.getElementById("ul"); 获取里面的标签值。 这是怎么回事呢?? ------------------------------------------------ 然后我用 ``` // 将string转成url对象 URL realUrl = new URL(url); URLConnection connection = realUrl.openConnection(); connection.connect(); in = new BufferedReader(new InputStreamReader(connection.getInputStream(),"utf-8")); String line; while ((line = in.readLine()) != null) { result += line; } ``` 这种方式可以获取到网页所有的html代码。 哪位大神能给小弟指点下怎么回事?谢谢啦。

JAVA爬取页面出现405错误

在做爬取留言的测试时,出来405,网页是:http://liuyan.people.com.cn/threads/list?fid=1079 在用开发工具看XHR有queryThreadList有完整的JSON数据,但直接访问http://liuyan.people.com.cn/threads/queryThreadsList?fid=1079&lastItem=0出现HTTP Status 405 – Method Not Allowed 源网页加载JSON数据: <!--加载--> <script type="text/javascript"> Threads.initThreadsListPage(); </script> <!--加载 end--> 代码如下: url="http://liuyan.people.com.cn/threads/queryThreadsList?fid=1079&lastItem=0"; Document doc = Jsoup.connect(url).get(); System.out.println("url:"+url+" doc:"+doc); 希望牛人提供帮助,如何获取完整留言的JSON,谢谢! JSON如下: {"result":"success","responseData":[{"tid":5656180,"userId":1840290,"fid":1079,"typeId":6,"domainId":9,"topicId":0,"nickName":"x***","subject":"第二次:乐化农民建

htmlunit爬取Ajax动态生成的网页获取不到ajax出来的数据

WebClient mWebClient = new WebClient(BrowserVersion.CHROME); mWebClient.getOptions().setUseInsecureSSL(true); mWebClient.getOptions().setCssEnabled(true); mWebClient.getOptions().setActiveXNative(true); mWebClient.getOptions().setJavaScriptEnabled(true); mWebClient.getOptions().setThrowExceptionOnScriptError(false); mWebClient.getOptions().setThrowExceptionOnFailingStatusCode(false); mWebClient.getOptions().setRedirectEnabled(true); mWebClient.getOptions().setTimeout(0); mWebClient.setJavaScriptTimeout(0); mWebClient.waitForBackgroundJavaScript(0); mWebClient.setAjaxController(new NicelyResynchronizingAjaxController()); final HtmlPage mHtmlPage = mWebClient.getPage("http://localhost:8080/#main/observationAnalysis/performance/performanceGlobal"); Thread.sleep(60000); ResponseUtils.renderText(response, mHtmlPage.asText()); ``` ```

为什么抓取不到还报空指针,希望各路大神能帮忙解决下

package com; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.io.UnsupportedEncodingException; import java.net.MalformedURLException; import java.net.URL; import java.net.URLConnection; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; /** * * 网页数据抓取工具类 * */ public class Damo { /** * 获取网页源代码 * @throws IOException * @throws IOException * */ public static String getHtmlResouceByUrl(String url,String encoding) { URL urlObj=null; URLConnection uc=null; InputStreamReader isr=null; BufferedReader reader=null; StringBuffer buffer=null; try { //建立网络连接 urlObj=new URL(url); //打开网络连接 try { uc=urlObj.openConnection(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } //建立文件输入流 try { isr=new InputStreamReader(uc.getInputStream(),encoding); } catch (UnsupportedEncodingException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } catch (IOException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } //建立缓存写入 reader = new BufferedReader(isr); //临时 String temp=null; try { while ((temp=reader.readLine())!=null) { // buffer.append(temp+"\n"); System.out.println(temp+"\n"); } } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } catch (MalformedURLException e) { // TODO Auto-generated catch block e.printStackTrace(); }finally{ if(isr!=null){ //关闭流 try { isr.close(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } } return buffer.toString(); } /* * 爬取互动值 */ public static List<HashMap<String, String>> getInFo(String url,String encoding){ //拿到源代码 String html = getHtmlResouceByUrl(url, encoding); //解析代码文件 Document document = Jsoup.parse(html); //获取代码的具体内容 Element element = document.getElementById("1"); //获取结果 Elements elements = document.getElementsByClass("f_card_lricon"); List<HashMap<String, String>> maps =new ArrayList<HashMap<String,String>>(); HashMap<String, String> map =null; for (Element el : elements) { map = new HashMap<String, String>(); //获取评论数 String comment=el.getElementsByClass("comment").text(); //获取标题 String comment1=el.getElementsByClass("f_card_h4").text(); map.put(comment, "f_card_lricon"); map.put(comment1,"f_card_h4"); maps.add(map); } return maps; } public static void main(String[] args) { // String webString=getHtmlResouceByUrl("http://news.baidu.com/","utf-8"); // String webString=getHtmlResouceByUrl("http://www.163.com/","gbk"); // System.out.println(webString); String urlString = "http://k.sina.cn/article_1707602817_65c7f381001002v4u.html?kfrome=auto&local=&subch=3&vt=4"; List<HashMap<String, String>> list =getInFo(urlString, "utf-8"); System.out.println(list); } } ![图片说明](https://img-ask.csdn.net/upload/201705/02/1493710691_335928.png)

Java_爬虫,如何抓取Js动态生成数据的页面?

很多网站是用js或Jquery 生成数据的,到后台获取到数据以后,用 document.write()或者("#id").html="" 的方式 写到页面中,这个时候用浏览器查看源码是看不到数据的。

如何使用java命令调用某个jar文件中的方法?

小弟前段时间制作了一个爬取某个新闻页面的类,并将其制作成了jar包,请问如何动态加载这个r包,请问下步如何实现?求帮助。 源码如下: ``` package Test01; import java.io.File; import java.lang.reflect.Method; import java.net.URL; import java.net.URLClassLoader; public class Demo2 { public static void main(String[] args) { URL[] urls = new URL[] {}; MyClassLoader classLoader = new MyClassLoader(urls, null); try { classLoader.addJar(new File("E:\\JoImages\\JsoupBaidu\\com.sdzw.test.spider.baidu.jar").toURI().toURL()); Class<?> testDAO = classLoader.loadClass("com.sdzw.test.dao.TestDAO"); Method method = testDAO.getDeclaredMethod("RunBaidu"); method.invoke(null, null); } catch (Exception e) { e.printStackTrace(); } } /** * URLClassLoader的子类 * 添加addJar方法 * @author Administrator * */ private static class MyClassLoader extends URLClassLoader { public MyClassLoader(URL[] urls) { super(urls); } public MyClassLoader(URL[] urls, ClassLoader parent) { super(urls, parent); } public void addJar(URL url) { this.addURL(url); } } } ``` 运行结果是这样的: ``` java.lang.reflect.InvocationTargetException at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at Test01.Demo2.main(Demo2.java:16) Caused by: java.lang.NoClassDefFoundError: org/jsoup/Jsoup at com.sdzw.test.dao.TestDAO.RunBaidu(TestDAO.java:15) ... 5 more Caused by: java.lang.ClassNotFoundException: org.jsoup.Jsoup at java.net.URLClassLoader$1.run(URLClassLoader.java:200) at java.security.AccessController.doPrivileged(Native Method) at java.net.URLClassLoader.findClass(URLClassLoader.java:188) at java.lang.ClassLoader.loadClass(ClassLoader.java:307) at java.lang.ClassLoader.loadClass(ClassLoader.java:252) at java.lang.ClassLoader.loadClassInternal(ClassLoader.java:320) ... 6 more ``` jar文件的源码是这样的: ``` package com.sdzw.test.dao; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class TestDAO { public static void RunBaidu(){ Document doc; String url="http://news.baidu.com/"; BaiduDAO dao =new BaiduDAO(); try { doc=Jsoup.connect(url).timeout(5000).get(); Elements mon=doc.select("#body a[mon]"); for(Element e: mon){ if(e.text().trim().length()>1&&e.attr("mon").length()>1){ String linkHref=e.attr("href"); String linkText=e.text().trim(); if(linkHref.startsWith("http://news.ifeng")){ dao.saveFengHuang(linkText, linkHref); }else if(linkHref.indexOf("baijia.baidu.com")!=-1){ System.out.println(linkHref); dao.saveBaijia(linkText, linkHref); }else if(linkHref.startsWith("http://news.xinhuanet.com")){ dao.savaXinhua(linkText, linkHref); } } } } catch (Exception e) { e.printStackTrace(); } } } ``` ``` public static void saveBaijia(String linkText,String linkHref) throws FileNotFoundException, IOException{ //将标题转换为合法标题 linkText=LinkTextSafe(linkText); //创建一个以标题为名称的txt文档,并将标题存放到文档中 dao.SaveFile("news/Baijia/"+linkText+".txt", linkText); //爬取页面中的指定内容,并将其存入相对应的文件当中 List<String> getContent = getContent(linkHref,"span.time", "div.article-author-time a", "div.article-detail p"); for(String content : getContent){ dao.SaveFile("news/Baijia/"+linkText+".txt", content); } } ```

如何抓取带动态cookie的网站

抓取http://211.141.74.198:8081/aiccips/ 在加载的时候首先会设置cookie ![图片说明](https://img-ask.csdn.net/upload/201610/31/1477925897_397733.png) 执行完图中的Js后在报文中添加了 ROBOTCOOKIEID=865978a1ac4 的cookie。 然后在执行location.reload()操作。在httpclient中我模拟了和浏览器一模一样的操作 但是还是没能成功获取到页面。_注_:图片上的代码需要禁用掉JavaScript才能看到, 或者使用抓包也能看到。

现在hao123网站数据采用异步加载的方式,有没有方法可以比较简单的抓取或解析出来

现在hao123网站数据采用异步加载的方式,用jsoup或httpclient都无法将页面内容取出来,是我没有用来jsoup或httpclient还是解析不了或抓不了,有没有什么方法可以解析。求大神指点。

Htmlcleaner+Xpath一些支持问题

用xpath爬取html与xml文件非常方便,java可以使用htmlcleaner来读取xpath. 但是htmlcleaner对xpath不是全部支持的。比如xpath轴,htmlcleaner就不识别,而且 模糊查询了,"||"多个入径,"::",还有很多方便的符合都不支持。这有什么解决的方法吗?

JAVA htmlunit 抓取不到 页面 元素

下面代码中 能获取到百度页面的Form 表单, 但是获取不到另外一个 网页的表单, 此时该如何处理? ps:获取另外一个网页的源码保存html后,用浏览器打开,能看到 form 表单。 package com.xttx.cn.fetchpro.fetchImp; import java.io.IOException; import java.net.URL; import java.util.List; import com.gargoylesoftware.htmlunit.BrowserVersion; import com.gargoylesoftware.htmlunit.CollectingAlertHandler; import com.gargoylesoftware.htmlunit.FailingHttpStatusCodeException; import com.gargoylesoftware.htmlunit.HttpWebConnection; import com.gargoylesoftware.htmlunit.NicelyResynchronizingAjaxController; import com.gargoylesoftware.htmlunit.WebClient; import com.gargoylesoftware.htmlunit.WebRequest; import com.gargoylesoftware.htmlunit.html.HtmlForm; import com.gargoylesoftware.htmlunit.html.HtmlPage; import com.xttx.cn.fetchpro.exception.PageNotFoundException; public class SimulationFetch { protected static WebClient webClient = null; public WebClient getWebClient() { return webClient; } public void setWebClient(WebClient webClient) { this.webClient = webClient; } static WebRequest request = null; public static void main(String[] args) throws FailingHttpStatusCodeException, IOException, PageNotFoundException, InterruptedException { // TODO Auto-generated method stub BrowserVersion.FIREFOX_24.setBrowserLanguage("zh-CN"); BrowserVersion.FIREFOX_24.setSystemLanguage("zh-CN"); BrowserVersion.FIREFOX_24.setUserLanguage("zh-CN"); BrowserVersion.FIREFOX_24.setUserAgent("Mozilla/5.0 (Windows NT 6.1; WOW64; rv:46.0) Gecko/20100101 Firefox/46.0"); BrowserVersion.FIREFOX_24.setBrowserVersion(46.0f); BrowserVersion.FIREFOX_24.setCpuClass("x64"); webClient = new WebClient(BrowserVersion.FIREFOX_24); webClient.setWebConnection(new HttpWebConnection(webClient)); webClient.getCache().clear(); webClient.getCookieManager().clearCookies(); webClient.getOptions().setJavaScriptEnabled(true); webClient.setJavaScriptTimeout(60*1000); webClient.getOptions().setCssEnabled(true); webClient.getOptions().setActiveXNative(true); webClient.getOptions().setPopupBlockerEnabled(true); webClient.getOptions().setRedirectEnabled(true); webClient.getOptions().setTimeout(10000); webClient.getOptions().setDoNotTrackEnabled(true); webClient.getCookieManager().setCookiesEnabled(true); webClient.getOptions().setThrowExceptionOnFailingStatusCode(true); webClient.getOptions().setThrowExceptionOnScriptError(false); webClient.getOptions().setUseInsecureSSL(true); webClient.getOptions().setSSLInsecureProtocol("TLSv1.2"); webClient.setAjaxController(new NicelyResynchronizingAjaxController()); webClient.setAlertHandler(new CollectingAlertHandler()); HtmlPage loginPageWithForm =(HtmlPage)webClient.getPage(new WebRequest(new URL("https://login.youzan.com/sso/index?service=kdt&from_source=pzshouye"))); List<HtmlForm> htmlForm0 = loginPageWithForm.getForms(); HtmlPage loginPageNoForm = (HtmlPage)webClient.getPage(new WebRequest(new URL("https://www.baidu.com/"))); HtmlForm htmlForm = loginPageNoForm.getForms().get(0); System.out.println("---"); } }

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

华为初面+综合面试(Java技术面)附上面试题

华为面试整体流程大致分为笔试,性格测试,面试,综合面试,回学校等结果。笔试来说,华为的难度较中等,选择题难度和网易腾讯差不多。最后的代码题,相比下来就简单很多,一共3道题目,前2题很容易就AC,题目已经记不太清楚,不过难度确实不大。最后一题最后提交的代码过了75%的样例,一直没有发现剩下的25%可能存在什么坑。 笔试部分太久远,我就不怎么回忆了。直接将面试。 面试 如果说腾讯的面试是挥金如土...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

win10暴力查看wifi密码

刚才邻居打了个电话说:喂小灰,你家wifi的密码是多少,我怎么连不上了。 我。。。 我也忘了哎,就找到了一个好办法,分享给大家: 第一种情况:已经连接上的wifi,怎么知道密码? 打开:控制面板\网络和 Internet\网络连接 然后右击wifi连接的无线网卡,选择状态 然后像下图一样: 第二种情况:前提是我不知道啊,但是我以前知道密码。 此时可以利用dos命令了 1、利用netsh wlan...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

!大部分程序员只会写3年代码

如果世界上都是这种不思进取的软件公司,那别说大部分程序员只会写 3 年代码,恐怕就没有程序员这种职业。

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

HTTP与HTTPS的区别

面试官问HTTP与HTTPS的区别,我这样回答让他竖起大拇指!

程序员毕业去大公司好还是小公司好?

虽然大公司并不是人人都能进,但我仍建议还未毕业的同学,尽力地通过校招向大公司挤,但凡挤进去,你这一生会容易很多。 大公司哪里好?没能进大公司怎么办?答案都在这里了,记得帮我点赞哦。 目录: 技术氛围 内部晋升与跳槽 啥也没学会,公司倒闭了? 不同的人脉圈,注定会有不同的结果 没能去大厂怎么办? 一、技术氛围 纵观整个程序员技术领域,哪个在行业有所名气的大牛,不是在大厂? 而且众所...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

美团面试,问了ThreadLocal原理,这个回答让我通过了

他想都想不到,ThreadLocal我烂熟于心

大牛都会用的IDEA调试技巧!!!

导读 前天面试了一个985高校的实习生,问了他平时用什么开发工具,他想也没想的说IDEA,于是我抛砖引玉的问了一下IDEA的调试用过吧,你说说怎么设置断点...

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

程序员是做全栈工程师好?还是专注一个领域好?

昨天,有位大一的同学私信我,说他要做全栈工程师。 我一听,这不害了孩子么,必须制止啊。 谁知,讲到最后,更确定了他做全栈程序员的梦想。 但凡做全栈工程师的,要么很惨,要么很牛! 但凡很牛的,绝不是一开始就是做全栈的! 全栈工程师听起来好听,但绝没有你想象的那么简单。 今天听我来给你唠,记得帮我点赞哦。 一、全栈工程师的职责 如果你学习编程的目的只是玩玩,那随意,想怎么学怎么学。...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐