python爬虫手机验证怎样解决

python写的爬虫,登陆需要手机验证,有没有大神有什么解决方法,具体点的,,求助

1个回答

这个没用过,可以试试非手机账号登陆

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python爬虫 滑动验证码

![图1输入验证码时候的图片](https://img-ask.csdn.net/upload/201710/31/1509451479_489211.png) ![图2带缺口的图片](https://img-ask.csdn.net/upload/201710/31/1509451510_257471.png) ![图3缺口图片](https://img-ask.csdn.net/upload/201710/31/1509451475_56992.png) 在爬虫的时候碰到这么个验证码。按照正常的思路如果找到完整的图片然后和图2进行RGB的差值运算就能找到图片缺口的位置。但是现在的情况是没有完整的图片只有带缺口的图片和缺口处的图片。该怎么找到缺口的位置呢。

Python爬虫过程中如何保持一致的cookie

Python爬虫时与服务器的三次交互:1、提取验证码,2、登录,3、目标网页的爬虫 1、在看别人程序时,有的在登录和目标网页爬虫过程中使用cookiejar保存cookie,但这样如何保证获取的验证码与登录所需的相匹配 2、需要保证这三次的过程cookie相同么?以及如何保证? 纠结好久了,万分感谢~

求指教Python爬虫大众点评,一直无法解决,麻烦各位大神不腻赐教

![图片说明](https://img-ask.csdn.net/upload/201811/12/1542016501_269808.jpg) 就这种不知道是js加载的还是什么,通过某种技术加密的爬虫就没办法解决了,请教各位大神指教下这种怎么解决,能给个代码示例就最好了,谢谢

Python爬虫时,有验证码的情况怎么处理?

怎么在登录的时候输入验证码,并且 POST 提交。 一般是首先进入到验证码网页读取验证码,人来手动识别输入,然后再提交 但是这样的话,显示的验证码是前一个,等提交的时候,需要验证的验证码已经刷新了,于是就验证不了了,会不会存在这种情况?

python爬虫手动输入验证码应该用到什么库和技术?

各位技术大牛,小弟初学python遇到验证码的问题。当页面翻页到下一页时需要进行验证码识别验证才能打开页面。本人想实现自动翻页到下一页时等待手工输入验证码提交,然后再自动爬取数据或者设置某个按键(如空格键)利用按键启动单页的爬虫程序。初步学习了selenium库没有找到自动与手动相互切换的方法,请各位大神提供一些经验或者技术贴给小弟一些提示。 我的目标网页是http://www.bjcourt.gov.cn/cpws/index.htm?st=1&q=&sxnflx=0&prompt=&dsrName=&ajmc=&ajlb=&jbfyId=&zscq=&ay=&ah=&cwslbmc=&startCprq=&endCprq=&page=11 只有翻页到11页开始每次翻页需要验证码输入。 初次提问,表达不清楚的地方请大家原谅。还需要我提供什么信息或者想进一步交流可以私信我或者直接留言。 先提前谢谢各位能够在百忙之中抽出时间阅读我的问题,如果有老哥愿意帮帮忙,更是感激不尽。 补充:还有一个问题,在另一个目标爬取过程中,手动切换到下一页并没有验证码的验证过程,但爬取时收到的源代码显示网页本身是被JS处理过的需要验证码验证。这种问题可以使用selenium解决吗。 网页url:http://www.bjcourt.gov.cn/zxxx/indexOld.htm?st=1&zxxxlx=100013001&bzxrlx=&bzxrxm=&zrr=&frhqtzz=&jbfyId=&ah=&dqxh=6&page=21

python 爬虫 关于URL路径问题

我想问有没有大佬知道怎么用socket去连接一个具体的URL地址,我用 socket.connect((address,80)),address只能是www.baidu.com这样的地址,而不是 http://xxxxx/xxxxxx/ 这样带具体路径的地址,不然就会出错“getaddrinfo failed”。 **前提是别用其他lib**

当爬虫遇上手机验证码该如何解决?

这两天用Java selenium + phantomjs 写了个模拟登录京东,爬个人信息、订单信息等内容,今天把代码传到服务器后,发现需要手机验证码了,大概是异地登陆才会出现的情况,在此想请教下各位大牛,如何通知到客户端需要输入手机验证码,再将验证码返回到服务端,继续完成爬取数据操作呢? 话说类似于京东、淘宝等电商网站,需要登录后才能查看个人信息的网站,除了selenium还有什么更好的选择吗?

关于爬虫碰到的滑动验证码问题

![图1带缺口的验证码图片](https://img-ask.csdn.net/upload/201710/31/1509429617_729716.jpg) ![图2缺口处的图片](https://img-ask.csdn.net/upload/201710/31/1509429596_329246.jpg) 最近在弄爬虫的时候碰到滑动验证码了?个人表示很无奈啊!希望大神指导怎么确定图1中缺口的位置 查过一些资料,但大多都是将带缺口的验证码图片和完整的图片进行对比,通过计算RGB的差值得到缺口的位置。 目前的问题是我得不到完整的图片,只能得到带缺口的图片和缺口处的图片。求大神给我思路!!!!

关于Python爬虫访问网站的两个问题

![图片说明](https://img-ask.csdn.net/upload/201608/27/1472293270_653619.png) 1.在用一边正则表达式吗? ![图片说明](https://img-ask.csdn.net/upload/201608/27/1472293278_955726.png) 2.![图片说明](https://img-ask.csdn.net/upload/201608/27/1472293306_71215.png)

python爬虫问题求解,为什么总是验证码错误?

``` #coding=utf-8 from bs4 import BeautifulSoup import urllib2 import sys import time import requests from PIL import Image reload(sys) sys.setdefaultencoding('utf-8') time=time.localtime() session=requests.session() user_agent='Mozilla/5.0 (Windows NT 10.0; WOW64; rv:46.0) Gecko/20100101 Firefox/46.0' headers={'User-Agent':user_agent} cap_url='http://www.jsgsj.gov.cn:58888/mini/netWebServlet.json?randImg=true&tmp='+str(time) html=session.get(cap_url,headers=headers) img=html.content cookies=html.cookies with open('yanzhenma.jpeg','wb') as imgfile: imgfile.write(img) im = Image.open('yanzhenma.jpeg') im.show() yzm=raw_input() url_company='http://www.jsgsj.gov.cn:58888/mini/netWebServlet.json?codeCheck=true&corpName=苏州&yzm='+str(yzm) html=session.get(url=url_company,headers=headers,cookies=cookies) page=(html.text) print page ```

python 爬虫,爬取google搜索结果,爬一段时间就被噤掉了,怎么破?

已经进行了一些伪装,但是还是不够,希望有经验的哥们给个指点 def google_search(keyword,page): proxy_handler1 = urllib2.ProxyHandler({"https":"https://..........1:8080"}) proxy_handler2 = urllib2.ProxyHandler({"https":"https://..........2:8080"}) proxys = [proxy_handler1,proxy_handler2] proxy_choice = random.randint(0, 1) proxy_handler = proxys[proxy_choice] cookie_handler = urllib2.HTTPCookieProcessor(cookielib.CookieJar()) opener = urllib2.build_opener(proxy_handler, cookie_handler, urllib2.HTTPHandler) urllib2.install_opener(opener) user_agents = ['Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20130406 Firefox/23.0', 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:18.0) Gecko/20100101 Firefox/18.0', 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/533+ \ (KHTML, like Gecko) Element Browser 5.0', 'IBM WebExplorer /v0.94', 'Galaxy/1.0 [en] (Mac OS X 10.5.6; U; en)', 'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)', 'Opera/9.80 (Windows NT 6.0) Presto/2.12.388 Version/12.14', 'Mozilla/5.0 (iPad; CPU OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) \ Version/6.0 Mobile/10A5355d Safari/8536.25', 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) \ Chrome/28.0.1468.0 Safari/537.36', 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.0; Trident/5.0; TheWorld)'] index = random.randint(0,9) user_agent = user_agents[index] headers = { "User-Agent":user_agent, #"Mozilla/5.0 (X11; Linux x86_64; rv:38.0) Gecko/20100101 Firefox/38.0", "Referer":"https://www.google.com", "Host":"www.google.com", "Connection":"keep-alive", "Accept-Language":"en-US,en;q=0.5", #"Accept-Encoding":"gzip, deflate", "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8" } url = 'https://www.google.com' + GOOGLE_POSTFIX + '/search?' values = { 'q':keyword, 'start':page*10, 'hl':'en' } data = urllib.urlencode(values) req = urllib2.Request(url+data, headers=headers) html = '' try: rsp = urllib2.urlopen(req) html = rsp.read() except urllib2.HTTPError, e: print 'The server couldn\'t fulfill the request.' print 'Error code: ', e.code except urllib2.URLError, e: print 'We failed to reach a server.' print 'Reason: ', e.reason except ssl.SSLError,e: print 'The read opertaion timed out' except Exception,e: print Exception,e else: pass return html

爬虫(python):为什么验证码总是验证失败(内有描述)?

#这是一个试图模拟12306登陆的程序,只到验证码部分 import urllib.request as U import urllib.parse as P import http.cookiejar as C import ssl import chardet as cd ssl._create_default_https_context = ssl._create_unverified_context #无视证书的有效性 opener = U.build_opener(U.HTTPCookieProcessor(C.CookieJar())) U.install_opener(opener) #创建一个访问者(具有cookie功能) req = U.Request("https://kyfw.12306.cn/passport/captcha/captcha-image64?login_site=E&module=login&rand=sjrand&1581337391968&callback=jQuery19109972447551572461_1581326959299&_=1581326959322") req.headers["User-Agent"] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362" res = opener.open(req) #申请验证码 url = "data:image/jpg;base64," + res.read().decode("utf-8").split('({"image":"')[1].split('","result_message"')[0] #12306分为申请验证码和生成两部分,这是根据两部分的URL规律,生成的验证码图片的URL req = U.Request(url) req.headers["User-Agent"] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362" res = opener.open(req) code_img = res.read() with open("D:\\py\\测试_练习综合体\\py练习\\imagecode12306.png","wb") as f: f.write(code_img) #获取验证码 pass_code = input("请输入验证码(坐标):") #根据图片获取验证码坐标 data = {"callback":"jQuery19109972447551572461_1581326959299","answer":pass_code,"rand":"sjrand","login_site":"E","_":"1581326959323"} data = P.urlencode(data).encode("utf-8") req = U.Request("https://kyfw.12306.cn/passport/captcha/captcha-check?callback=jQuery19109972447551572461_1581326959299&answer=188%2C49%2C30%2C39&rand=sjrand&login_site=E&_=1581326959323") req.headers["User-Agent"] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.18362" res = opener.open(req,data = data) html = res.read().decode("utf-8") #验证码验证 #疑问:为什么验证码验证总是失败了(通过html获得结果)

python3爬虫登陆需要验证码时的相关问题

最近学习python的爬虫,用的是lxml库。 然后如果要用爬虫登陆带验证码的网站,需要通过-检查-network-(登陆的信息)-from data,来构造爬虫。然后,from-data里面的信息是以字典的形式储存的,但是如下图:![图片说明](https://img-ask.csdn.net/upload/201905/13/1557736848_710314.jpg) 这个from-data里面,有两个名字一样的健,只是对应的值不一样,但是根本没有办法构造名字相同的两个键值对,这种情况要怎么操作,求助。。。。

python爬虫,使用selenium爬取某宝数据,爬虫代码能正常运行,但是控制台只打印了一个商品的信息

1、 环境:pycharm 浏览器:chrome 描述:使用selenium爬取某宝数据,爬虫代码能正常运行(可以对元素进行定位,可以下拉滑动条、可以通过修改url去到下一页),但是控制台只打印了一个商品的信息,其余爬取的信息没有被打印出来 2、代码如下: ``` """ 爬取淘宝商品步骤: 1、打开谷歌浏览器,访问淘宝网站:找到淘宝的 url 2、定位搜索框和搜索按钮(F12,使用元素选择器进行定位,复制 XPath),要完成的动作→输入要搜索的商品,然后点击搜索按钮 3、在登陆界面停留 10 秒,手机扫码登陆(需手动),高级一点的方法可以自送输入账号密码登陆 4、进入搜索结果页面,模仿人浏览商品时的动作→下拉滑动条到页面的最后,拉5次,拉的过程有暂停 """ from selenium import webdriver # 需要一款浏览器,访问淘宝网址 import time import re # 找到 输入框 找到 按钮 # 元素(输入框、按钮等) 定位 def search_product(): driver.find_element_by_xpath('//*[@id="q"]').send_keys(kw) driver.find_element_by_xpath('//*[@id="J_TSearchForm"]/div[1]/button').click() # # 强行阻止程序运行 10s的时间 time.sleep(5) # 获取搜索结果页面的总页码 token = driver.find_element_by_xpath('//*[@id="mainsrp-pager"]/div/div/div/div[1]').text token = int(re.compile('(\d+)').search(token).group(1)) return token # 元素定位 他没有前提吗?你的网速比较慢,如果元素没有加载完毕,那么你能够去定位没有加载的数据吗?没有加载出来 # 也就是说,这个加载的过程 是因为我拉动了下滑条! # 步骤:登录 拉动下滑条 采集数据 下一页 拉动下滑条 再采集数据,按这个循环! def drop_down(): # 一次拉一部分,拉的时候有暂停 range 得出 1 3 5 7 9 五个数 for x in range(1, 11, 2): time.sleep(0.5) # j 代表滑动条的五个位置:1/10、3/10、5/10、7/10、9/10 j = x/10 # 下面的 js 是 JavaScript 的语法,可以当作万能公式解决大部分网站问题 js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j driver.execute_script(js) def get_product(): # 首先获取所有的 div ,然后遍历所有的 div ,得到一个div 再去一个 div 里面寻找需要的数据 # // 代表任意位置(任意一个位置的属性属于 class="items" 的 div) # //div[@]/div[@] 代表要获取的 div 的路径 divs = driver.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq item-ad "]') for div in divs: # . 代表当前目录, .// 当前目录下的任意 div标签 下的 a标签 下的 img标签 下的 src info = div.find_element_by_xpath('.//div[@class="row row-2 title"]').text price = div.find_element_by_xpath('.//div[@class="price g_price ' 'g_price-highlight"]/strong').text + '元' deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text image = div.find_element_by_xpath('.//div[@class="pic"]/a/img').get_attribute('src') # name = div.find_element_by_xpath('.//div[@class="shop"/a/span[1]').text address = div.find_element_by_xpath('.//div[@class="row row-3 g-clearfix"]/div[@class="location"]').text # 定义一个字典 product = {'标题': info, '价格': price, '订单量': deal, '图片': image, '地址': address} print(product) # 淘宝的反爬很严重,所以尽量不要模拟多次点击下一页 # 采用改 url 的方法可以避免反爬:通过分析淘宝页面的 url→https://s.taobao.com/search?q=Python&s=88 # 可以得知下一页就是在 url 后面的值 +44。即第4页的 url 为 https://s.taobao.com/search?q=Python&s=132 def next_page(): token = search_product() drop_down() get_product() num = 1 while num != token: driver.get('https://s.taobao.com/search?q={}&s={}'.format(kw, 44*num)) num += 1 # time.sleep(4) 。这个方法延迟太慢了,改用下面的只能等待方法 # 隐视等待,智能等待,最高等待时间为10s,如果超过10s,抛出异常 driver.implicitly_wait(10) # 无限循环进入网页,可能造成网页卡顿!导致数据加载不出来,解决方法是加一个延迟,等数据先加载出来再操作 drop_down() get_product() if __name__ == '__main__': kw = input('请输入你想查询的商品:') driver = webdriver.Chrome() driver.get('https://www.taobao.com/') next_page() # 这个程序可以无限制地爬取内容,淘宝无法检测出来而反爬 ``` 3、代码能正常运行,打印信息如下: ![图片说明](https://img-ask.csdn.net/upload/202003/28/1585363085_99864.jpg) 4、求各位大神帮忙解决一下T-T

python 简单的爬虫登陆问题没有验证码怎么破 与验证码怎么破

我学校的oj登陆页面 求爬虫模拟登陆源码 其他不需要 python27新手一枚

爬虫遇到没有访问权限一般都是因为什么引起的

![图片说明](https://img-ask.csdn.net/upload/202001/03/1578025840_389137.png) 已经模拟登录成功了,就是在发送请求的时候出现无访问权限. 请问是因为cookie的原因才会导致这个的吗

请问我的Python爬虫代码 哪里出现了问题?(要求:爬取猫眼电影top100榜单的信息)

代码如下: ``` import requests from requests.exceptions import RequestException import time from bs4 import BeautifulSoup def get_one_page(url): try: headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'} response = requests.get(url,headers=headers) if response.status_code==200: return response.text return None except RequestException: return None def page(offset): url='http://maoyan.com/board/6?offset='+str(offset) return url for j in range(10): html_doc = get_one_page(page(j*10)) soup = BeautifulSoup(html_doc,'lxml') i = 1 for dd in soup.select("dd"): print(dd.find("i","board-index board-index-"+str(i+j*10)).get_text() +dd.find("p","name").get_text() +dd.find("p","star").get_text().strip() +dd.find("p","releasetime").string +dd.find("p","score").get_text()+'\n') i = i + 1 time.sleep(1) ``` 运行反馈结果为: ``` Traceback (most recent call last): File "<ipython-input-8-95f75b1c7bd0>", line 1, in <module> runfile('H:/程序语言学习用文件夹/Spider/beautifulSoup.py', wdir='H:/程序语言学习用文件夹/Spider') File "C:\Users\pc1\Anaconda3\lib\site-packages\spyder\utils\site\sitecustomize.py", line 705, in runfile execfile(filename, namespace) File "C:\Users\pc1\Anaconda3\lib\site-packages\spyder\utils\site\sitecustomize.py", line 102, in execfile exec(compile(f.read(), filename, 'exec'), namespace) File "H:/程序语言学习用文件夹/Spider/beautifulSoup.py", line 29, in <module> soup = BeautifulSoup(html_doc,'lxml') File "C:\Users\pc1\Anaconda3\lib\site-packages\bs4\__init__.py", line 192, in __init__ elif len(markup) <= 256 and ( TypeError: object of type 'NoneType' has no len() ```

Python爬虫,我用bs4的find方法为什么反回的是空值?怎么解决(已解决)?

代码如下: ``` import time import random import requests import urllib from bs4 import BeautifulSoup headers=("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36") opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) class UserAgent(): def _get_UA(self,html): soup = BeautifulSoup(html, "html.parser") ip_get = [] ip_list = soup.find_all("tr") for i in range(1,len(ip_list)): ip_both = ip_list[i].find_all("td") front = ip_both[1].text+':' ip_get.append(front+ip_both[2].text) time.sleep(random.randint(15,20)) return ip_get def _get_html(self,html): if html==None: this_html=urllib.request.urlopen('https://www.xicidaili.com/nn/1') else: soup = BeautifulSoup(html,"html.parser") next_page_url = soup.find("a",class_="next_page") print(next_page_url) html = urllib.request.urlopen('https://www.xicidaili.com'+next_page_url) this_html = html return this_html ``` 错误出在_get_html方法中else里面的代码,传入的地址没有问题,我用浏览器可以正常打开地址https://www.xicidaili.com/nn/1 主运行代码如下: ``` n = User_Agent.UserAgent() ip_html = n._get_html(None) fake_ip = n._get_UA(ip_html) ip_html = n._get_html(ip_html) ``` 还有报错是这么说的: ``` Traceback (most recent call last): File "E:\java4412\spider_demo\book_spider\main.py", line 21, in <module> None ip_html = n._get_html(ip_html) File "E:\java4412\spider_demo\book_spider\User_Agent.py", line 35, in _get_html html = urllib.request.urlopen('https://www.xicidaili.com'+next_page_url) TypeError: Can't convert 'NoneType' object to str implicitly ``` 有哪位大牛帮我看看这代码哪里不对么?本小白已经要疯了。。。。。 =========================分割线================================================================= 问题已解决 原因是我原先一直用一个固定header 我找了一个别人收集的User_Agent集合,在代码中随机更换header。 更改后的代码如下: ``` class UserAgent(): def _get_UA(self,soup): headers=("User-Agent",Headers.getheaders()) opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) # soup = BeautifulSoup(html, "html.parser") ip_get = [] ip_list = soup.find_all("tr") for i in range(1,len(ip_list)): ip_both = ip_list[i].find_all("td") front = ip_both[1].text+':' ip_get.append(front+ip_both[2].text) time.sleep(random.randint(15,20)) return ip_get def _get_html_first(self): headers=("User-Agent",Headers.getheaders()) opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) this_html=urllib.request.urlopen('https://www.xicidaili.com/nn/1') soup = BeautifulSoup(this_html,"html.parser") return soup def _get_soup(self,soup): headers=("User-Agent",Headers.getheaders()) opener=urllib.request.build_opener() opener.addheaders=[headers] urllib.request.install_opener(opener) next_page_url = soup.find("a",class_="next_page").get('href') print(next_page_url) html = urllib.request.urlopen('https://www.xicidaili.com'+next_page_url) soup = BeautifulSoup(html,'html.parser') return soup ``` 进行了一定的修改,可以正确运行。其中的_print()_是我为验证结果打的。

爬取淘宝信息的时候,请求次数过多会出现滑块验证。

自从淘宝搜索需要登陆之后 就觉得会出现限制账号 爬取淘宝信息的时候,请求次数过多会出现滑块验证。 并且滑动滑块后,会提示出错 让需要多次重试, 疑似账号被限制。 各位大佬有没有什么办法 绕开登陆能直接搜索也行 ![图片说明](https://img-ask.csdn.net/upload/201901/15/1547537812_371637.png)![图片说明](https://img-ask.csdn.net/upload/201901/15/1547537833_275164.png)

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Linux面试题(2020最新版)

文章目录Linux 概述什么是LinuxUnix和Linux有什么区别?什么是 Linux 内核?Linux的基本组件是什么?Linux 的体系结构BASH和DOS之间的基本区别是什么?Linux 开机启动过程?Linux系统缺省的运行级别?Linux 使用的进程间通信方式?Linux 有哪些系统日志文件?Linux系统安装多个桌面环境有帮助吗?什么是交换空间?什么是root帐户什么是LILO?什...

Linux命令学习神器!命令看不懂直接给你解释!

大家都知道,Linux 系统有非常多的命令,而且每个命令又有非常多的用法,想要全部记住所有命令的所有用法,恐怕是一件不可能完成的任务。 一般情况下,我们学习一个命令时,要么直接百度去搜索它的用法,要么就直接用 man 命令去查看守冗长的帮助手册。这两个都可以实现我们的目标,但有没有更简便的方式呢? 答案是必须有的!今天给大家推荐一款有趣而实用学习神器 — kmdr,让你解锁 Linux 学习新姿势...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

史上最全的 python 基础知识汇总篇,没有比这再全面的了,建议收藏

网友们有福了,小编终于把基础篇的内容全部涉略了一遍,这是一篇关于基础知识的汇总的文章,请朋友们收下,不用客气,不过文章篇幅肯能会有点长,耐心阅读吧爬虫(七十)多进程multiproces...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

85后蒋凡:28岁实现财务自由、34岁成为阿里万亿电商帝国双掌门,他的人生底层逻辑是什么?...

蒋凡是何许人也? 2017年12月27日,在入职4年时间里,蒋凡开挂般坐上了淘宝总裁位置。 为此,时任阿里CEO张勇在任命书中力赞: 蒋凡加入阿里,始终保持创业者的冲劲,有敏锐的...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

新一代神器STM32CubeMonitor介绍、下载、安装和使用教程

关注、星标公众号,不错过精彩内容作者:黄工公众号:strongerHuang最近ST官网悄悄新上线了一款比较强大的工具:STM32CubeMonitor V1.0.0。经过我研究和使用之...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

大学一路走来,学习互联网全靠这几个网站,最终拿下了一把offer

大佬原来都是这样炼成的

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

什么时候跳槽,为什么离职,你想好了么?

都是出来打工的,多为自己着想

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你期望月薪4万,出门右拐,不送,这几个点,你也就是个初级的水平

先来看几个问题通过注解的方式注入依赖对象,介绍一下你知道的几种方式@Autowired和@Resource有何区别说一下@Autowired查找候选者的...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

立即提问
相关内容推荐