JSOUP爬虫爬取需授权的网址, 10C

1.访问这个一个需授权的网址,浏览器打开需要输入登录名+密码,
2.但是每次方法抓取的时候都会报401 想问 大神们有其他方法吗?谢谢

3个回答

http header的数据是不是漏了,检查cookie,refer,useragent等值。 分清post还是get,若是post的参数得补全

浏览器打开需要输入登录名+密码,是在网页里输入还是弹出一个对话框输入?
前者的话,你可以先访问登录网页,然后post用户名密码,得到cookie附加上去再访问你要抓取的网页。
后者,这是http basic验证,将用户名密码作为http请求发过去就可以了。
401错误就是没有权限,就是这个问题。

没有权限就获取权限,用抓包工具抓取到登录接口,在用代码发送post请求到这个登录接口,实现登录,一般就可以获取权限

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
关于Jsoup网络爬虫遇到的问题
我用这个语句 Elements element = doc.getElementsByClass("recommend_list"); 取不到数据 但是用 Elements element = doc.getElementsByClass("bang_nav"); 却能取到数据,这是为什么 截图如下 ![图片说明](https://img-ask.csdn.net/upload/201710/24/1508836957_18031.png)
Jsoup爬取视频弹幕信息
本人想用Jsoup爬取B站视频的弹幕内容,但是用 Document doc = Jsoup.connect(url0).get(); 获取页面信息的时候发现得到的是网页源代码而不是网页元素。 请问要怎么解决这个问题?
Jsoup爬虫页面的,ip被封闭,无法得到全部信息,该如何解决
Jsoup爬取页面元素,爬的次数多了,后来爬取就得不到想要的元素了,该如何解决?
关于Jsoup爬取数据,有没有大神教一下~
这段时间朋友偶然提起爬虫,我就想试试,然后用了Jsoup进行爬取,过了入门,我就在想,怎么用Jsoup爬取一个网站最近一周发布的链接呢。 我的问题总结就是:怎么用Jsoup根据时间和文章标题关键字进行筛选爬取。
java通过jsoup怎么爬取动态加载的 内容
要爬取的url:http://www.zdic.net/c/cipy/ci/?z=啊 要爬取的标签:![图片说明](https://img-ask.csdn.net/upload/201804/10/1523348192_354488.png) 但是在控制台的Elements里可以看到,如![图片说明](https://img-ask.csdn.net/upload/201804/10/1523348522_783648.png) 后来发现 这些数据来源于一个url请求:![图片说明](https://img-ask.csdn.net/upload/201804/10/1523348564_102493.png) 该怎么爬取这个zdiv这个标签的内容,,,
如何用Jsoup爬取网址中懒加载的图片地址?
RT,最近学习用Jsoup爬取极客公园网站的数据,但发现用这个开源库只能爬取到静态的数据,像是首页新闻的图片和作者的头像不能够爬取出来,想问下大神怎么爬取动态加载后的数据呢? 网址: https://www.geekpark.net/ 想爬取的数据: 新闻列表<article-item>下的文章图片<img-cover>和作者头像<img-box>的信息,发现待爬图片网址的属性是 lazy="loaded",在网页的操作是,当网页请滑到相应的位置时,对应的图片加载出来。 不知道这个是不是动态的数据,请大神指导,谢谢!! 想爬取网址的截图如下 ![想获取的两个图片链接](https://img-ask.csdn.net/upload/201809/29/1538234830_153852.png) ![用Jsoup获取到的document](https://img-ask.csdn.net/upload/201809/29/1538234867_764462.png)
Jsoup爬虫抓取网页数据
String url = rule.getUrl(); System.out.println("url============"+url); url============http://www.11315.com/search Connection conn = Jsoup.connect(url); System.out.println("conn============"+conn); Jsoup.connect(url); 不能执行
爬虫jsoup对robots.txt支持吗?
爬虫jsoup对robots.txt支持吗?可以不抓取Disallow规定的目录下的网页吗?
htmlunit+jsoup爬取知乎视频,获取的html字符串中缺少视频信息,如何解决?
大神帮忙看一下 今天使用htmlunit+jsoup爬取知乎网站的视频,发现爬取到的html中缺少视频的信息,无法进行下一步了 知乎视频网址:https://video.zhihu.com/video/1157743087110549504?autoplay=false&useMSE= 浏览器检查中查看到的视频信息 ![图片说明](https://img-ask.csdn.net/upload/201910/12/1570872018_377176.png) java代码 ``` @Test public void testttt() { final WebClient webClient = new WebClient(BrowserVersion.CHROME);//新建一个模拟谷歌Chrome浏览器的浏览器客户端对象 webClient.getOptions().setThrowExceptionOnScriptError(false);//当JS执行出错的时候是否抛出异常, 这里选择不需要 webClient.getOptions().setThrowExceptionOnFailingStatusCode(false);//当HTTP的状态非200时是否抛出异常, 这里选择不需要 webClient.getOptions().setActiveXNative(false); webClient.getOptions().setCssEnabled(false);//是否启用CSS, 因为不需要展现页面, 所以不需要启用 webClient.getOptions().setJavaScriptEnabled(true); //很重要,启用JS webClient.setAjaxController(new NicelyResynchronizingAjaxController());//很重要,设置支持AJAX HtmlPage page = null; try { page = webClient.getPage("https://video.zhihu.com/video/1157743087110549504?autoplay=false&useMSE=");//尝试加载上面图片例子给出的网页 // page = webClient.getPage("http://ent.sina.com.cn/film/");//尝试加载上面图片例子给出的网页 } catch (Exception e) { e.printStackTrace(); }finally { webClient.close(); } webClient.waitForBackgroundJavaScript(30000000);//异步JS执行需要耗时,所以这里线程要阻塞30秒,等待异步JS执行结束 String pageXml = page.asXml();//直接将加载完成的页面转换成xml格式的字符串 System.out.println(pageXml); //TODO 下面的代码就是对字符串的操作了,常规的爬虫操作,用到了比较好用的Jsoup库 // Document document = Jsoup.parse(pageXml);//获取html文档 // List<Element> infoListEle = document.getElementById("feedCardContent").getElementsByAttributeValue("class", "feed-card-item");//获取元素节点等 // infoListEle.forEach(element -> { // System.out.println(element.getElementsByTag("h2").first().getElementsByTag("a").text()); // System.out.println(element.getElementsByTag("h2").first().getElementsByTag("a").attr("href")); // }); } ``` 运行程序打印的html如下: ![图片说明](https://img-ask.csdn.net/upload/201910/12/1570872108_470794.png) 有大神遇到过这个问题吗?帮忙看一下
关于java中网络爬虫,jsoup相关的知识
关于java中网络爬虫,jsoup相关的知识。有时候在审查元素里面/源代码里面看不到需要获取的列表链接,在这个netword里面能找到。这种location属性的值我们怎么才能获取到呢?求解 ![图片说明](https://img-ask.csdn.net/upload/201509/11/1441959912_738249.jpg)
jsoup爬去的图文顺序解析
如图所示,上面的文字和下面的图片要顺序解析出来,有可能图文是掺杂着的,都需要顺序解析,怎么解决呢?求大佬给个思路 (https://img-ask.csdn.net/upload/201803/26/1522057432_315667.jpg)
Jsoup爬取数据超时,已设置timeout
``` package cn.xls.util; import cn.xls.pojo.City; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; import java.io.IOException; import java.util.ArrayList; import java.util.List; /** * @program: * @description: 获取城市信息 * @author: l */ public class CityInfoUtil { public static List<City> getProvinceData(String requestUrl) { List<City> lists = new ArrayList<City>(); try { Document document = Jsoup.connect(requestUrl).timeout(50000).maxBodySize(0).get(); //获取所有的省份 Elements provinceList = document.select("tr[class='provincetr']").select("td").select("a"); //遍历省份 for (Element element : provinceList) { //拼接当前省份下的城市地址 String url1 = requestUrl.replace("index.html", element.attr("href")); Document document1 = Jsoup.connect(url1).timeout(50000).maxBodySize(0).get(); //获取该省份下所有城市(第一列为城市区号,第二列为城市名) Elements citys = document1.select("tr[class='citytr']").select("td:eq(1)").select("a"); String province = element.html(); System.out.println("当前省份 : " + province); System.out.println("当前省份下有 : " + citys.size() + " 个城市"); //遍历城市 int cityCount = 0; for (Element element1 : citys) { // System.out.println("城市 : " + element1.html()); //拼接当前城市下的区域地址 String url2 = requestUrl.replace("index.html", element1.attr("href")); Document document2 = Jsoup.connect(url2).timeout(50000).maxBodySize(0).get(); //获取该城市下所有区域(第一列为区域区号,第二列为区域名) Elements areas = document2.select("tr[class=countytr] td:eq(1)").select("a"); String city = element1.html(); System.out.println("当前城市 : " + (++cityCount) + city); System.out.println("当前城市下有 : " + areas.size() + " 个区"); for (Element element2 : areas) { System.out.println("区域 : " + element2.html()); } } System.out.println("-----------"); } } catch (IOException e) { e.printStackTrace(); } return lists; } //测试 public static void main(String[] args) { //List<City> lists = getProvinceData("http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2017/index.html"); List<City> list1 = getProvinceData("http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2018/index.html"); } } ``` 测试时老是打印了一个七八个城市的数据后就超时,请问该怎么解决啊?刚从网上学的jsoup,请大佬们多多指点
关于java的jsoup爬取数据问题
本人想做一个java爬取美团网的爬虫,但是其中通过class来获取对应element元素时获取不到是什么原因,如图![图片说明](https://img-ask.csdn.net/upload/201901/07/1546865718_871273.png) 这个是美图网通过浏览器查看里面的dom ![图片说明](https://img-ask.csdn.net/upload/201901/07/1546865942_39631.png) 这是控制台打印的。 求大佬帮忙解答问题。
京东爬虫jsoup获取不到数据问题
用jsoup获取进洞页面,但好像除了标题,其他的像卖点价格都为空,这个是什么情况啊
求解为何jsoup抓取时报503
elemt=Jsoup.connect("http://61.142.33.204/default4.aspx") .userAgent("Mozilla/5.0 (Windows NT 6.1; WOW64; rv:56.0) Gecko/20100101 Firefox/56.0") .header("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8") .header("Accept-Language","zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3") .header("Accept-Encoding", "gzip, deflate") .header("Connection","keep-alive") .header("Upgrade-Insecure-Requests", "1") .get();
JAVA爬虫 爬取 https://www.zhipin.com/?ka=header-home 出现问题
JAVA爬虫 爬取 https://www.zhipin.com/?ka=header-home 出现问题 ,自己使用了ip代理 ``` public static Elements getJsoupDocGet(String url) throws IOException { Document doc = null; Random random = new Random(); int i = 0; while (i < 10 && doc == null) { try { trustEveryone(); IpProxy ipProxy = getRandomIP(); System.out.println(ipProxy.getIp()+" "+ipProxy.getPort()); System.setProperty("http.maxRedirects", "50"); System.getProperties().setProperty("proxySet", "true"); System.getProperties().setProperty("http.proxyHost", ipProxy.getIp()); System.getProperties().setProperty("http.proxyPort", ipProxy.getPort()); doc = Jsoup.connect(url) .userAgent(getUserAgent(ua)) .header("Accept-Encoding", "gzip, deflate,br") .header("Accept-Language", "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3") .header("User-Agent", "Mozilla/31.0 (compatible; MSIE 10.0; Windows NT; DigExt)") .header("Content-Type", "application/x-www-form-urlencoded") .header("Cache-Control","no-cache" ) .header("Pragma", "no-cache") .header("Upgrade-Insecure-Requests", "1") .header("Connection", "Keep-alive") .header("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8") .ignoreContentType(true) .ignoreHttpErrors(true) .timeout(1000 * 60) .cookie("auth", "token") .post(); if (doc != null) { System.out.println("代理成功"); //System.out.println(doc.toString()); return doc.select("body"); } } catch (Exception e) { } i++; } if (doc == null) { doc = Jsoup.connect(url).header("Accept", "*/*").header("Accept-Encoding", "gzip, deflate") .header("Accept-Encoding", "gzip, deflate") .header("Accept-Language", "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3") .header("User-Agent", "Mozilla/31.0 (compatible; MSIE 10.0; Windows NT; DigExt)") .header("Content-Type", "application/x-www-form-urlencoded") .header("Cache-Control","no-cache" ) .header("Pragma", "no-cache") .header("Upgrade-Insecure-Requests", "1") .header("Connection", "Keep-alive") .header("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8") .timeout(1000 * 60) .userAgent(getUserAgent(ua)) .cookie("auth", "token") .post(); } return doc.select("body"); } ``` 爬取网站时出现了下面的问题 但是有浏览器可以正常看,且代码也是完整的 ``` 代理成功 <body> <div style="font-size: 12px;"> 请稍后... </div> <input type="hidden" id="page_key_name" value="security_bridge"> <script> var _T=_T||[];!function(){var b,a=document.createElement("script");a.src="https://static.zhipin.com/library/js/analytics/ka.js",b=document.getElementsByTagName("script")[0],b.parentNode.insertBefore(a,b)}(),function(){var e,f,g,h,a=function(a,b){var c,d,e,f;"object"!=typeof a&&(a=[a]),c=document.getElementsByTagName("head").item(0)||document.documentElement,d=new Array,e=a.length-1,f=function(g){d[g]=document.createElement("script"),d[g].setAttribute("type","text/javascript"),d[g].setAttribute("charset","UTF-8"),d[g].onload=d[g].onreadystatechange=function(){this.onload=this.onreadystatechange=null,this.parentNode.removeChild(this),g!=e?f(g+1):"function"==typeof b&&b()},d[g].setAttribute("src",a[g]),c.appendChild(d[g])},f(0)},b=function(a){var b=new RegExp("(^|&)"+a+"=([^&]*)(&|$)"),c=window.location.search.substr(1).match(b);return null!=c?unescape(c[2]):null},c={get:function(a){var b,c=new RegExp("(^| )"+a+"=([^;]*)(;|$)");return(b=document.cookie.match(c))?unescape(b[2]):null},set:function(a,b,c,d,e){var g,f=a+"="+encodeURIComponent(b);c&&(g=new Date(c).toGMTString(),f+=";expires="+g),f=d?f+";domain="+d:f,f=e?f+";path="+e:f,document.cookie=f}};window.location.href,e=decodeURIComponent(b("seed"))||"",f=b("ts"),g=b("name"),h=decodeURIComponent(b("callbackUrl")),e&&f&&g&&a("security-js/"+g+".js",function(){var a=(new Date).getTime()+2304e5,b=".zhipin.com",d=(new ABC).z(e,parseInt(f));window.location.host.indexOf(".weizhipin.com")>-1&&(b=".weizhipin.com"),c.set("__zp_stoken__",d,a,b,"/");try{_T.sendEvent("security_bridge_"+d)}catch(g){}h?window.location.href=h:window.history.back()})}(); </script> </body> ``` 求大佬给出解答方式,求救救,自己在网上搜的设置ip代理代码,应该没错,别的网页可以,只有自己爬取的网页有问题
Jsoup爬取数据超时,已设置timeout?
package cn.xls.util; import cn.xls.pojo.City; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; import java.io.IOException; import java.util.ArrayList; import java.util.List; /** * @program: * @description: 获取城市信息 * @author: l */ public class CityInfoUtil { public static List<City> getProvinceData(String requestUrl) { List<City> lists = new ArrayList<City>(); try { Document document = Jsoup.connect(requestUrl).timeout(50000).maxBodySize(0).get(); //获取所有的省份 Elements provinceList = document.select("tr[class='provincetr']").select("td").select("a"); //遍历省份 for (Element element : provinceList) { //拼接当前省份下的城市地址 String url1 = requestUrl.replace("index.html", element.attr("href")); Document document1 = Jsoup.connect(url1).timeout(50000).maxBodySize(0).get(); //获取该省份下所有城市(第一列为城市区号,第二列为城市名) Elements citys = document1.select("tr[class='citytr']").select("td:eq(1)").select("a"); String province = element.html(); System.out.println("当前省份 : " + province); System.out.println("当前省份下有 : " + citys.size() + " 个城市"); //遍历城市 int cityCount = 0; for (Element element1 : citys) { // System.out.println("城市 : " + element1.html()); //拼接当前城市下的区域地址 String url2 = requestUrl.replace("index.html", element1.attr("href")); Document document2 = Jsoup.connect(url2).timeout(50000).maxBodySize(0).get(); //获取该城市下所有区域(第一列为区域区号,第二列为区域名) Elements areas = document2.select("tr[class=countytr] td:eq(1)").select("a"); String city = element1.html(); System.out.println("当前城市 : " + (++cityCount) + city); System.out.println("当前城市下有 : " + areas.size() + " 个区"); for (Element element2 : areas) { System.out.println("区域 : " + element2.html()); } } System.out.println("-----------"); } } catch (IOException e) { e.printStackTrace(); } return lists; } //测试 public static void main(String[] args) { //List<City> lists = getProvinceData("http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2017/index.html"); List<City> list1 = getProvinceData("http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2018/index.html"); } }
JAVA + jsoup + httpUnit 爬虫报错
String sinaLoginUrl="http://apps.evozi.com/apk-downloader"; WebClient client=new WebClient(); client.getOptions().setCssEnabled(false); client.getOptions().setJavaScriptEnabled(true);//设置成true就报错 HtmlPage loginPage = client.getPage(sinaLoginUrl); HtmlButton loginButton= (HtmlButton) loginPage.getElementById("download_apk"); HtmlPage result = loginButton.click(); System.out.println(result.getUrl().toString()); 错误信息: com.gargoylesoftware.htmlunit.ScriptException: TypeError: Cannot find function addEventListener in object [object HTMLDocument]. (http://ajax.googleapis.com/ajax/libs/jquery/2.1.1/jquery.min.js#2) 是否不认识jquery的标签导致的呢,请教各位
jsoup爬取网页信息问题。。。。
“<p> <font>哈哈哈</font></p>“ 上面元素对象.html();输出会带有字体font,而text();返回的只有内容,但是是String类型的。一个串。 多个<p>元素是不好分割。 请问如何去掉p下的font元素,或者如何判断呢? 我用了选择器p:not(font),并不能不查询出不带font的p元素。 总之就是如何去掉父元素下的子元素(不是属性呦)
相见恨晚的超实用网站
相见恨晚的超实用网站 持续更新中。。。
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载 点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。 ...
字节跳动视频编解码面经
三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时想着能进去就不错了,管他哪个岗呢,就同意了面试...
开源一个功能完整的SpringBoot项目框架
福利来了,给大家带来一个福利。 最近想了解一下有关Spring Boot的开源项目,看了很多开源的框架,大多是一些demo或者是一个未成形的项目,基本功能都不完整,尤其是用户权限和菜单方面几乎没有完整的。 想到我之前做的框架,里面通用模块有:用户模块,权限模块,菜单模块,功能模块也齐全了,每一个功能都是完整的。 打算把这个框架分享出来,供大家使用和学习。 为什么用框架? 框架可以学习整体...
源码阅读(19):Java中主要的Map结构——HashMap容器(下1)
HashMap容器从字面的理解就是,基于Hash算法构造的Map容器。从数据结构的知识体系来说,HashMap容器是散列表在Java中的具体表达(并非线性表结构)。具体来说就是,利用K-V键值对中键对象的某个属性(默认使用该对象的“内存起始位置”这一属性)作为计算依据进行哈希计算(调用hashCode方法),然后再以计算后的返回值为依据,将当前K-V键值对在符合HashMap容器构造原则的基础上,放置到HashMap容器的某个位置上,且这个位置和之前添加的K-V键值对的存储位置完全独立,不一定构成连续的存储
c++制作的植物大战僵尸,开源,一代二代结合游戏
此游戏全部由本人自己制作完成。游戏大部分的素材来源于原版游戏素材,少部分搜集于网络,以及自己制作。 此游戏为同人游戏而且仅供学习交流使用,任何人未经授权,不得对本游戏进行更改、盗用等,否则后果自负。目前有六种僵尸和六种植物,植物和僵尸的动画都是本人做的。qq:2117610943 开源代码下载 提取码:3vzm 点击下载--&gt; 11月28日 新增四种植物 统一植物画风,全部修...
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
Python——画一棵漂亮的樱花树(不同种樱花+玫瑰+圣诞树喔)
最近翻到一篇知乎,上面有不少用Python(大多是turtle库)绘制的树图,感觉很漂亮,我整理了一下,挑了一些我觉得不错的代码分享给大家(这些我都测试过,确实可以生成) one 樱花树 动态生成樱花 效果图(这个是动态的): 实现代码 import turtle as T import random import time # 画樱花的躯干(60,t) def Tree(branch, ...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
Python 基础(一):入门必备知识
Python 入门必备知识,你都掌握了吗?
深度学习图像算法在内容安全领域的应用
互联网给人们生活带来便利的同时也隐含了大量不良信息,防范互联网平台有害内容传播引起了多方面的高度关注。本次演讲从技术层面分享网易易盾在内容安全领域的算法实践经验,包括深度...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发...
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 演示地点演示 html代码如下` music 这个年纪 七月的风 音乐 ` 然后就是css`*{ margin: 0; padding: 0; text-decoration: none; list-...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
通俗易懂地给女朋友讲:线程池的内部原理
餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看...
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
Python 编程实用技巧
Python是一门很灵活的语言,也有很多实用的方法,有时候实现一个功能可以用多种方法实现,我这里总结了一些常用的方法,并会持续更新。
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
"狗屁不通文章生成器"登顶GitHub热榜,分分钟写出万字形式主义大作
前言 GitHub 被誉为全球最大的同性交友网站,……,陪伴我们已经走过 10+ 年时间,它托管了大量的软件代码,同时也承载了程序员无尽的欢乐。 上周给大家分享了一篇10个让你笑的合不拢嘴的Github项目,而且还拿了7万+个Star哦,有兴趣的朋友,可以看看, 印象最深刻的是 “ 呼吸不止,码字不停 ”: 老实交代,你是不是经常准备写个技术博客,打开word后瞬间灵感便秘,码不出字? 有什么
推荐几款比较实用的工具,网站
1.盘百度PanDownload 这个云盘工具是免费的,可以进行资源搜索,提速(偶尔会抽风????) 不要去某站买付费的???? PanDownload下载地址 2.BeJSON 这是一款拥有各种在线工具的网站,推荐它的主要原因是网站简洁,功能齐全,广告相比其他广告好太多了 bejson网站 3.二维码美化 这个网站的二维码美化很好看,网站界面也很...
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
相关热词 c# plc s1200 c#里氏转换原则 c# 主界面 c# do loop c#存为组套 模板 c# 停掉协程 c# rgb 读取图片 c# 图片颜色调整 最快 c#多张图片上传 c#密封类与密封方法
立即提问