求指教Python爬虫大众点评,一直无法解决,麻烦各位大神不腻赐教

图片说明

            就这种不知道是js加载的还是什么,通过某种技术加密的爬虫就没办法解决了,请教各位大神指教下这种怎么解决,能给个代码示例就最好了,谢谢

2个回答

哎,都被你们这帮人爬坏了,想想也是心塞。

其实为了反爬,大众点评也是下了很大功夫,但是刚刚我看了一下,还是不到位。它是采用的类似于图片一样的class代替原先的明文,这样可以加大你们分析数据的障碍。
不仅仅是你框起来的三个,上面所有的数字都进行了相同的处理。我列一下今天的规律:
0 ----> kx-vAWZ
1 ---->
2 ----> kx-ojVa
3 ----> kx-ckCO
4 ----> kx-kjJp
5 ----> kx-3TvL
6 ----> kx-JYFA
7 ----> kx-cTJe
8 ----> kx-OwG9
9 ----> kx-2AG3

总结:
1.其中1没有进行处理,我猜测是因为处理之后的数字间距会失衡,导致不能进行编码。所以需要注意一下这种特殊情况的处理
2.这种规律不确定有效性有多长,所以你还需要专门添加定时任务检查上面的对应关系,一旦检查出来不匹配,立即更新策略
3.据我了解点评网检测到对方是爬虫后,并不一定会直接IP添加到黑名单,会给你发一坨假数据,所以第二步的操作必须要做

gammey
gammey 回复troy_He: 自己做个dict,设定kv,例如"kx-vAWZ":0,这样。然后把趴下来的class再在里面找。
一年多之前 回复
troy_He
troy_He 回复caozhy: 那老师这种class的怎么爬下来做替换呢
一年多之前 回复
caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 233333333
一年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Python爬虫在Django中的使用问题

新入门Django,现在已经写好了一个Python爬虫,直接用Python跑测试没问题, ------在Django项目中加入了一个新的爬虫app,用model创建了表格,和展示爬虫的html ------但是runserver, 以后查看db.sqlite3里面对应的表已经创建,但是里面没有存爬到的内容, ------ 请大神们指教该怎么办, 代码如下 Spider.py, 爬虫并存入model.py 创建的**Website**表 ``` #!/usr/bin/python # -*- coding: utf-8 -*- # import data into mysql(sqlite3), must have these four lines defination: import os # # 我所创建的project名称为learn_spider;里面的app名称为website os.environ.setdefault("DJANGO_SETTINGS_MODULE", "blogproject.settings") # import django # django.setup() # urllib2 package: open resource by URL; re package: use regular expression to filter the objects import urllib.request, re import urllib.parse # BeautifulSoup: abstract data clearly from html/xml files from bs4 import BeautifulSoup # import tables from models.py from .models import Website # urlopen()方法需要加read()才可视源代码,其中decode("utf-8")表示以utf-8编码解析原网页,这个编码格式是根据网页源代码中<head>标签下的<meta charset="utf-8">来决定的。 ul = "https://baike.baidu.com/item/Python" req = urllib.request.Request(ul) html_python = urllib.request.urlopen(req).read().decode("utf-8") #html_python = urllib.request.urlopen('https://baike.baidu.com/item/Python').read().decode("utf-8") soup_python = BeautifulSoup(html_python, "html.parser") # print soup #这里用到了正则表达式进行筛选 item_list = soup_python.find_all('a', href=re.compile("item")) for each in item_list: print (each.string) # use quote to replace special characters in string(escape encode method) urls = "https://baike.baidu.com/item/" + urllib.parse.quote(each.string.encode("utf-8")) print (urls) html = urllib.request.urlopen(urls).read().decode("utf-8") soup = BeautifulSoup(html, "html.parser") if soup.find('div', 'lemma-summary') == None: text = "None" else: text = soup.find('div', 'lemma-summary').get_text() print (text) Website.objects.get_or_create(name=each.string, url=urls, text=text) text_python = soup_python.find('div', 'lemma-summary').text Website.objects.get_or_create(name="Python", url="https://baike.baidu.com/item/Python", text=text_python) ``` model.py 创建Website 表用于存储爬到的内容 ``` # -*- coding: utf-8 -*- from __future__ import unicode_literals from django.db import models # Create your models here. class Website(models.Model): name = models.CharField(max_length=100) url = models.CharField(max_length=100) text = models.TextField() def __unicode__(self): return self.name ``` view.py 提取表中已爬取的内容 ``` from __future__ import unicode_literals from django.shortcuts import render # Create your views here. from .models import Website def show(request): # 这里直接通过QuerySet API获取所有的object,默认返回类型为tuple(元组) queryset = Website.objects.all() # 传入三个渲染参数 return render(request, 'news/nws.html', {'QuerySet': queryset}) ```

python爬虫问题出错原因求助

import requests from bs4 import BeautifulSoup import bs4 def getHTMLText(url): try: r = requests.get(url, timeout=30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "" def fillUnivList(ulist, html): soup = BeautifulSoup(html, "html.parser") for tr in soup.find('tbody').children: if isinstance(tr, bs4.element.Tag): tds = tr('td') ulist.append([tds[0].string, tds[1].string, tds[3].string]) def printUnivList(ulist, num): print("{:^10}\t{:^6}\t{:^10}".format("排名","学校名称","总分")) for i in range(num): u=ulist[i] print("{:^10}\t{:^6}\t{:^10}".format(u[0],u[1],u[2])) def main(): uinfo = [] url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2017.html' html = getHTMLText(url) fillUnivList(uinfo, html) printUnivList(uinfo, 20) # 20 univs main() 出错为:Traceback (most recent call last): File "D:/python02/01/11.py", line 34, in <module> main() File "D:/python02/01/11.py", line 33, in main printUnivList(uinfo, 20) # 20 univs File "D:/python02/01/11.py", line 26, in printUnivList print("{:^10}\t{:^6}\t{:^10}".format(u[0],u[1],u[2])) TypeError: unsupported format string passed to NoneType.__format__ 第一次爬虫,不是很能理解出错原因。求指教

助人为乐,求python爬虫高手指教

不知道是软件问题还是怎末的。scrapy爬取没问题,但要保存时弹出Unhandled error in Deferred。![图片说明![![图片说明](https://img-ask.csdn.net/upload/201712/29/1514558462_857484.png)图片说明](https://img-ask.csdn.net/upload/201712/29/1514558363_592549.png)](https://img-ask.csdn.net/upload/201712/29/1514558365_391944.png) 主要文件如图,我觉得没问题。应该是软件配置,求解决。 ![图片说明](https://img-ask.csdn.net/upload/201712/29/1514558947_922649.png) 另加下载模板问题

再写初级爬虫时遇到一个关于for循环的问题,求指教!?

def getMassage(message,picc,html): try: soup = BeautifulSoup(res.text,'html.parser') pictures = soup.select('img') for picture in pictures: pic = picture['src'] wile = picture['width'] +' '+picture['height'] name = picture['alt'] print(pic) picc = [pic] message = [pic,wile,name] print(picc) return message return picc except: print('图片信息获取错误') 为什么print(pic)放在这里可以打印出来很多的链接,但是如果取消缩进,和picc对齐的话只可以打印出一个链接?小白求各位指教

python 爬虫问题,求大神指教

![图片说明](https://img-ask.csdn.net/upload/201911/13/1573653434_852895.jpg)![图片说明](https://img-ask.csdn.net/upload/201911/13/1573653444_433802.jpg) 求大神指教一个爬虫问题,给出爬取前十页代码最好。

python爬虫如何抓取包含JavaScript的网页中的信息

这里本科生一枚。。做本研要求抓取一些数据碰到了一些问题求指教> < 我想要抓取汽车之家上关于供应商的一些数据,然后在车型详情页里找到了关于供应商的框架源代码如下(只截取有用部分): <script type="text/javascript"> //属性 document.domain = "autohome.com.cn"; var page=1; var parameters = { isPage:0, pageCount:0, kindId:-1, vId:23867, pId: 110000, cId: 110100, sId: 0, cityUrl: '/frame/cms/GetProvinceCityList?SpecId=23867&SeriesId=0&roid1=2', url: "/frame/spec/{vId}/{pId}/{cId}/{sId}/{orderType}/{pageIndex}/{pageSize}?isPage={isPage}&seriesId={seriesId}&source={source}&kindId={kindId}" , kindUrl:"/frame/cms/GetKindBySpec?specId={vId}&provinceId={pId}&cityId={cId}&countyId={sId}", panel:"#dealer-box", pageSize:5, pageIndex: 1, orderType :0, seriesId:66, source:"defalut" }; $("[name='orderBy']").click(function() { parameters.orderType = $(this).attr('data-order'); $("#orderCan .current").attr("class", "linkname"); $(this).attr("class", "linkname current"); //parameters.pageIndex = 1; var firstPage = $("#dealerListPager a[data=1]").eq(0); if (firstPage.length == 1) { firstPage.click(); } else { load(); } return false; }); seajs.config({version:"1460100712877"}); var $$; seajs.use(['jquery','pop'], function ($) { $$=$; }); $(function(){ jQuery("#orderCan a").each(function(){ if($(this).attr("data-order")==parameters.orderType) { $("#orderCan .current").attr("class","linkname"); $(this).attr("class","linkname current"); } }) }) </script> <script type="text/javascript" src="http://x.autoimg.cn/dealer/bbs/js/DealerArea20160413.js?t=2016041421"></script> 里面包含的信息应该怎么抓取呢?我是通过selenium来进入网页的框架,这些js应该怎么解析?我尝试着用前面的那些parameter凑出来URL,但是输入到浏览器中就会跳转到汽这个网站的首页,用urllib2打开的话会报错Error 10060,但是网什么的也都没有问题,是我的IP被封了还是需要一个什么特殊的代理?? 本科期间只学过python的两门课,对java没什么了解,求帮助呀QAQ谢谢大家啦

requests库爬虫报错import ssl也没用?

requests库爬虫报错import ssl也没用 ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1108) 代码 ``` import requests import re # urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: # unable to get local issuer certificate (_ssl.c:1045)> import ssl ssl._create_default_https_context = ssl._create_unverified_context # 伪装浏览器 hd={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36",} # 需要开Fiddler才能使用这个ip+端口 px={"http":"http://127.0.0.1:8888"} rst=requests.get('http://www.aliwx.com.cn/',headers=hd,proxies=px) title=re.compile('<title>(.*?)</title>',re.S).findall(rst.text) print('rst: ',rst) print('title: ',title) ``` 详细说明:在看阿里云的爬虫课程实操时出现这个问题,我试过了这个取消全局验证的方法但是仍旧没用,提示信息就是这样,猜测是我的ip和端口有问题?但是之前的操作都和老师是一样的,有大佬知悉请指教一下 ![图片说明](https://img-ask.csdn.net/upload/202003/23/1584937982_542732.png)

python监听器的问题,求大神指教

python监听到客户端的请求之后,主动do_Post发送一条请求给客户端,收到客户端的请求之后将客户端的应答结果打包给源请求返回去 返回原请求的代码如下 if not self.wfile.closed: self.send_response(200) if not self.wfile.closed: print (strs) self.send_header("Content-Length", str(len(strs))) self.end_headers() self.wfile.write(strs) strs是一个网页内容,报错如下 ---------------------------------------- Exception happened during processing of request from ('127.0.0.1', 18521) Traceback (most recent call last): File "D:\Install\Python27\lib\SocketServer.py", line 284, in _handle_request_noblock self.process_request(request, client_address) File "D:\Install\Python27\lib\SocketServer.py", line 310, in process_request self.finish_request(request, client_address) File "D:\Install\Python27\lib\SocketServer.py", line 323, in finish_request self.RequestHandlerClass(request, client_address, self) File "D:\Install\Python27\lib\SocketServer.py", line 639, in __init__ self.handle() File "D:\Install\Python27\lib\BaseHTTPServer.py", line 343, in handle self.handle_one_request() File "D:\Install\Python27\lib\BaseHTTPServer.py", line 331, in handle_one_request method() File "D:\javaProject\hftx\httpserver2_hftx.py", line 47, in do_POST self.wfile.write(strs) File "D:\Install\Python27\lib\socket.py", line 316, in write data = str(data) # XXX Should really reject non-string non-buffers UnicodeEncodeError: 'ascii' codec can't encode characters in position 136-137: ordinal not in range(128) 求大神指教

在编写静态网页爬虫,检查元素时发现在标签里面href所指的链接不全怎么办呀,怎么获得完整的url?

实际的网页url时这样的http://www.mof.gov.cn/xinwenlianbo/shanxicaizhengxinxilianbo/201901/t20190128_3134160.htm 但是在网页上是这样的《a href = ../../xinwenlianbo/shanxicaizhengxinxilianbo/201901/t20190128_3134160.htm》 ABCD 《a》 里面为什么会出现那两个杠杠和点点呀?要怎么补全呢?有很多的链接都是这个样子,出现了杠杠和点点,前面的部分还不太一样,这种情况要怎么处理呢?求指教! 上面是尖括号,因为尖括号敲上去之后不显示标签对里面的信息,不得已改成了书名号=。=

python3模拟登录百度贴吧

python3模拟登录百度贴吧,如题,应该怎么弄呢?我网上搜索看到基本很多都要用到token,具体百度登录需要什么参数不是很清楚。麻烦各位指教下,谢谢了

python'模拟登陆网站一直返回登陆界面

import urllib.request import urllib.parse import http.cookiejar def gethtml(url): cj = http.cookiejar.CookieJar() cookie_jar = urllib.request.HTTPCookieProcessor(cj) opener = urllib.request.build_opener(cookie_jar) urllib.request.install_opener(opener) page = urllib.request.urlopen('*******') for index, cookie in enumerate(cj): print ('[',index, ']',cookie) data = { 'username':'****', 'password':'****', 'execution':'e1s1', 'lt':'LT-68105-mdbC4YmMWgjyDwVV5bI3jOWfo0FCcb-1440307068488', '_eventId':'submit', 'rmShown':'1' } postdata = urllib.parse.urlencode(data).encode('utf-8') headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.2357.130 Safari/537.36', 'Referer':'******'} req = urllib.request.Request(url,data=postdata,headers=headers) response = urllib.request.urlopen(req) return response.read() def getgrade(url): html = gethtml(url).decode('utf-8') print(html) if __name__ == '__main__': url = '******' getgrade(url) 第一个print语句可以打印出两行cookie 第二个print html一直打印的登陆界面,求高手指教。。

# 浏览器可以看见json数据,但是写Python代码确爬不到怎么办?

## # ## # 写一个鸟哥笔记的爬虫代码 在浏览器中看见了json的返回报文 但是就是爬不到数据 求大神指教! ![图片说明](https://img-ask.csdn.net/upload/201912/20/1576771852_814228.png) 下面是json数据 ![图片说明](https://img-ask.csdn.net/upload/201912/20/1576771902_619142.png)

爬虫中加入请求头导致报错:'str' object has no attribute 'items

在写爬虫时为了规避反爬虫机制,加入了Chrome浏览器请求头.但是在 response = request.Request(url,headers=headers) 语句中加入headers=headers,运行程序时就会报错:'str' object has no attribute 'items.如果只用response = request.Request(url)就不会出现异常而得到正确的爬取结果.求指教,谢谢!!![图片说明](https://img-ask.csdn.net/upload/201910/14/1571064760_958800.png)![图片说明](https://img-ask.csdn.net/upload/201910/14/1571064782_395685.png)

python2.7.3安装libxml2,导入import lxml.html报错,求大神指教

系统是red hat ,自带的是2.6.6版本的python,但最近需要使用scrapy需要安装2.7.3版本的 ,通过yum install 安装的libxml2,安装成功后import lxml没有报错,但import lxml.html 时就报错了,报错信息如下: >>> import lxml.html Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/usr/local/lib/python2.7/site-packages/lxml/html/__init__.py", line 12, in <module> from lxml import etree File "lxml.etree.pyx", line 89, in init lxml.etree (src/lxml/lxml.etree.c:140164) TypeError: encode() argument 1 must be string without null bytes, not unicode 求各位python大神指导...

python 传参----求指教!!!

我要写一个python脚本对很对文件进行分析,,但是又不能把每个文件名直接写到脚本里面,,问别人说是有一个什么传参函数,,不知道怎么弄,小白求指教!!!

python词云库方面的疑问,小白求指教

我是大二的小白 零基础 现在在自学python 在中国慕课网跟着视频学敲代码在词云库遇到了如下问题。![图片说明](https://img-ask.csdn.net/upload/201812/31/1546264622_166889.png)图1是视频的代码 图二是输出 图三是我跟着敲 图四我运行的结果。不知道是为什么 希望前辈们指导一下

python利用jieba分词出现乱码问题,求指教

用一段新闻作分词,先用正则表达式去除标点符号re.sub(r,'',pos_news[0]),其中pos_news[0]是一段新闻。 print 之后是去除标点的一段新闻。 print " ".join(jieba.cut(re.sub(r,'',pos_news[0])))打出来乱码: 涵 閬 涓 婁簡 杩 欎 唤 鐙 壒 鐨 勭 ょ 墿 濞 绀 句 氬 悇 鐣 鍟 璧 蜂 簡 搴 鐑 堢 殑 鍙 但是如果直接print " ".join(jieba.cut(pos_news[0])) 是正常的分词后的新闻 “ 我 经常 和 孩子 们 说 , 要 记住 每 一个 帮助 过 我们 的 人 , 日后 有 能力 了 要 记得 报答 人家 ! ” 走访 结束 后 , 赵继 ( 化名 ) 母亲 的话 依然 在 e 租宝 志愿者 的 耳畔 回绕 。 不知道为什么我去除标点后分词就是乱码。。。NLP小白求指教!

新手求指教:骰子可能性小程序(Python编程)

骰子可能性小程序(Python编程) 一个玩家,3个骰子 1. 如何得到(4,2,1)组合 1.1. 假设:第一次掷骰子,得到(1,4,6),保留(1,4), 将6拿起,重新投掷,如果得到2,就保留;如果不是,就继续投掷,如果得到2,就得到组合(4,2,1);如果不是,重新开始下一局。 1.2. 假设:第一次掷骰子,得到(6,5,3),全部拿起3个骰子,重新投掷,如果得到(4,2,5),就保留(4,2);将(5)拿起,重新投掷,如果得到1,就得到组合(4,2,1);如果不是,重新开始下一局。 1.3. (4,2,1)的顺序无所谓,可以是(4,2,1)(1,2,4), (1,4,2), (2,1,4), (2,4,1), (4,1,2)等6种组合。 1.4. 如果得到421组合,就打印“421组合!!!你赢了”,如果没有,就打印“你输了”。 1.5. 每局最多3次投掷(包含3次),就是说可能是一次,可能是两次,可能是三次,根据情况而定。不管输赢,都得开始新的一局,打印“按ENTER继续”,否则打印“按QUIT结束” 2. 记录局数,以及输赢。 3. 模拟100000局,计算赢率,即赢的机会百分比。 4. 所有骰子组合: 4.1. 三个骰子的组合为:6*6*6 = 216种可能组合 4.2. 得到421的可能:124, 142, 214, 241, 412, 421六个组合。6 / 216 = 1 / 36。

毕业设计中初次接触python遇见的问题求大神指教

将温度数据上传到Yeelink上失败了 程序![图片说明](https://img-ask.csdn.net/upload/201705/04/1493865882_464190.png) 错误![图片说明](https://img-ask.csdn.net/upload/201705/04/1493865896_424160.png)

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

C++11:一些微小的变化(新的数据类型、template表达式内的空格、nullptr、std::nullptr_t)

本文介绍一些C++的两个新特性,它们虽然微小,但对你的编程十分重要 一、Template表达式内的空格 C++11标准之前建议在“在两个template表达式的闭符之间放一个空格”的要求已经过时了 例如: vector&lt;list&lt;int&gt; &gt;; //C++11之前 vector&lt;list&lt;int&gt;&gt;; //C++11 二、nullptr ...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

【阿里P6面经】二本,curd两年,疯狂复习,拿下阿里offer

二本的读者,在老东家不断学习,最后逆袭

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!...

作者 | 伍杏玲出品 | CSDN(ID:CSDNnews)格子衬衫、常掉发、双肩包、修电脑、加班多……这些似乎成了大众给程序员的固定标签。近几年流行的“跨界风”开始刷新人们对程序员的...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐