关于python网络爬虫网页失效的处理提问 10C

小弟在做网络爬虫抓取网站上所有的图片,但是有些图片的链接是失效的。我用的request连接这些网站,在把request得到的东西写入到本地电脑中。可是碰到无效网站时,request就会报错,后续就进行不下去了,怎么处理这个问题呢图片说明

image_file=open(im_name,'wb')
imgs=requests.get(im_iter)  #im_iter是我用正则表达式截出来的图片链接
image_file.write(imgs.content)
image_file.close()

这是小弟保存图片的代码

2个回答

try:
    可能出错的语句
except :
    pass

多找一下是不是空格多了

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Python爬虫过程中如何保持一致的cookie

Python爬虫时与服务器的三次交互:1、提取验证码,2、登录,3、目标网页的爬虫 1、在看别人程序时,有的在登录和目标网页爬虫过程中使用cookiejar保存cookie,但这样如何保证获取的验证码与登录所需的相匹配 2、需要保证这三次的过程cookie相同么?以及如何保证? 纠结好久了,万分感谢~

python爬虫url去重问题

就是如何快速比对出爬虫已经爬过的网站,从大量的url中,使爬虫爬的站是惟一的,不会出现重复爬一个站?

小白用python编写的爬虫小程序突然失效,是ip被封还是其他问题,求教?

# 编写的python小程序,爬取豆瓣评论,昨天还可以用,今天就失效了,试过很多种解决方法,都没有成功,求教? ## 可能的问题是ip被封或者cookies? 主程序 ``` # -*- coding: utf-8 -*- import ReviewCollection from snownlp import SnowNLP from matplotlib import pyplot as plt #画饼状图 def PlotPie(ratio, labels, colors): plt.figure(figsize=(6, 8)) explode = (0.05,0) patches,l_text,p_text = plt.pie(ratio,explode=explode,labels=labels,colors=colors, labeldistance=1.1,autopct='%3.1f%%',shadow=False, startangle=90,pctdistance=0.6) plt.axis('equal') plt.legend() plt.show() def main(): #初始url url = 'https://movie.douban.com/subject/30176393/' #保存评论文件 outfile = 'review.txt' (reviews, sentiment) = ReviewCollection.CollectReivew(url, 20, outfile) numOfRevs = len(sentiment) print(numOfRevs) #print(sentiment) positive = 0.0 negative = 0.0 accuracy = 0.0 #利用snownlp逐条分析每个评论的情感 for i in range(numOfRevs): # if sentiment[i] == 1: # positive += 1 # else: # negative += 1 print(reviews[i]+str(i)) sent = SnowNLP(reviews[i]) predict = sent.sentiments #print(predict,end=' ') if predict >= 0.5: positive += 1 if sentiment[i] == 1: accuracy += 1 else: negative += 1 if sentiment[i] == 0: accuracy += 1 #计算情感分析的精度 print('情感预测精度为: ' + str(accuracy/numOfRevs)) # print(positive,negative) #绘制饼状图 #定义饼状图的标签 labels = ['Positive Reviews', 'Negetive Reviews'] #每个标签占的百分比 ratio = [positive/numOfRevs, negative/numOfRevs] # print(ratio[0],ratio[1]) colors = ['red','yellowgreen'] PlotPie(ratio, labels, colors) if __name__=="__main__": main() ``` 次程序 ``` #!/usr/bin/python # -*- coding: utf-8 -*- from bs4 import BeautifulSoup import requests import csv import re import time import codecs import random def StartoSentiment(star): ''' 将评分转换为情感标签,简单起见 我们将大于或等于三星的评论当做正面评论 小于三星的评论当做负面评论 ''' score = int(star[-2]) if score >= 3: return 1 else: return 0 def CollectReivew(root, n, outfile): ''' 收集给定电影url的前n条评论 ''' reviews = [] sentiment = [] urlnumber = 0 headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.75 Safari/537.36','Connection': 'close','cookie': 'll="108303"; bid=DOSjemTnbi0; _pk_ses.100001.4cf6=*; ap_v=0,6.0; __utma=30149280.1517093765.1576143949.1576143949.1576143949.1; __utmb=30149280.0.10.1576143949; __utmc=30149280; __utmz=30149280.1576143949.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1844590374.1576143949.1576143949.1576143949.1; __utmc=223695111; __utmz=223695111.1576143949.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utmt=1; __yadk_uid=iooXpNnGnHUza2r4ru7uRCpa3BXeHG0l; dbcl2="207917948:BFXaC6risAw"; ck=uFvj; _pk_id.100001.4cf6=4c11da64dc6451d3.1576143947.1.1576143971.1576143947.; __utmb=223695111.2.10.1576143949'} proxies = { "http":'http://121.69.46.177:9000',"https": 'https://122.136.212.132:53281'}#121.69.46.177:9000218.27.136.169:8085 122.136.212.132:53281 while urlnumber < n: url = root + 'comments?start=' + str(urlnumber) + '&limit=20&sort=new_score&status=P' print('要收集的电影评论网页为:' + url) # try: html = requests.get(url, headers = headers, proxies = proxies,timeout = 15) # # except Exception as e: # break soup = BeautifulSoup(html.text.encode("utf-8"),'html.parser') #通过正则表达式匹配评论和评分 for item in soup.find_all(name='span',attrs={'class':re.compile(r'^allstar')}): sentiment.append(StartoSentiment(item['class'][0])) #for item in soup.find_all(name='p',attrs={'class':''}): # if str(item).find('class="pl"') < 0: # r = str(item.string).strip() # reviews.append(r) comments = soup.find_all('span','short') for comment in comments: # print(comment.getText()+'\n') reviews.append(comment.getText()+'\n') urlnumber = urlnumber + 20 time.sleep(5) with codecs.open(outfile, 'w', 'utf-8') as output: for i in range(len(sentiment)): output.write(reviews[i] + '\t' + str(sentiment[i]) + '\n') return (reviews, sentiment) ``` ![图片说明](https://img-ask.csdn.net/upload/201912/12/1576149313_611712.jpg) 不设置参数proxies时错误如下:![图片说明](https://img-ask.csdn.net/upload/201912/12/1576149408_985833.jpg) 求教解决方法,感谢!!!!

爬虫在爬网页时遇到超时,能让爬虫自动重新登录吗

爬网页时,有时连接超时,有时网页返回的html不全导致爬取失败,这时候怎么写能让爬虫重新登录呢,

python爬取动态网址时如何获取发送的参数

有个网址是动态的,我需要爬取的数据存储在json数据格式中, 这个用json模块读取没毛病, 但是存在这么一个问题,就是向这个数据url提交访问请求时, 有加密的参数,比如queryID,serverIP,status这三个参数,删去这几个参数去访问是被对方服务器禁止的, 而且通过正常浏览器访问的话,这个页面会在一分钟左右失效不可访问 去找cookies,没在cookies中找到与这三个参数有关联,我没法构造出这个数据页面的url 想问问各位大牛,向某个网站请求的时候,这些动态的参数一般会存储在哪里?怎么获取这种动态添加的参数? 感激不尽! ![图片说明](https://img-ask.csdn.net/upload/201704/06/1491487040_282833.png) ![图片说明](https://img-ask.csdn.net/upload/201704/06/1491487055_236999.png)

爬虫的结构很乱,这是为什么

这是网页里的代码 ![图片说明](https://img-ask.csdn.net/upload/202003/03/1583238191_651826.png) 这是爬虫打印出来的结构,很乱。。,为什么 ![图片说明](https://img-ask.csdn.net/upload/202003/03/1583238198_90116.png)

Python使用urllib2 urlopen打开网页不正确

``` #!/usr/bin/python # -*- coding: utf-8 -*- import urllib; import urllib2; import os; import sys; import shutil; def searchVT(): VTMainUrl = 'https://www.virustotal.com/en/#search'; headers = { 'accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'content-type':'application/x-www-form-urlencode', 'referer':'https://www.virustotal.com/', 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.101 Safari/537.36'}; postDict = {'query' : '18092AC0F4F694C60762DC98C9F66BC3',}; postData = urllib.urlencode(postDict); req = urllib2.Request(VTMainUrl, postData, headers); try: respHtml = urllib2.urlopen(req).read(); except urllib2.URLError,e: if hasattr(e,"reason"): print "Failed to reach the server" print "The reason:",e.reason elif hasattr(e,"code"): print "The server couldn't fulfill the request" print "Error code:",e.code print "Return content:",e.read() else: pass #其他异常的处理 file_object = open('thefile.txt', 'w') file_object.write(respHtml) file_object.close( ) print respHtml; return respHtml; if __name__=="__main__": searchVT(); ``` 最近使用urllib2 urlopen尝试打开VT网页并进行使用MD5查询,但是不知道为什么返回的网页为空,求大神赐教~

在做爬虫时cookie问题,地址重定向获取不到cookie

![图片说明](https://img-ask.csdn.net/upload/201808/15/1534336044_401851.png) 如图,我在做爬虫得时候前面登陆验证可以正常访问,但是访问第四个地址的时候正常应该给我返回cookie 我才能用返回得cookie去访问第五次地址。 图片是我fiddler抓包信息 第五次访问的时候不是在第四次response里获取得cookie信息 我该如何获取这个cookie ,只有拿到正确的cookie我才能通过第五次访问 取到正常数据。

尝试爬取学校微信公众号,但是连token都取不出来。。。求救。。。

最近在学爬虫,准备拿学校微信公众号试试手,但是发现token取不出来。。。 用Print大法,发现token总是为0 。。。,这是什么情况。。。 部分代码如下 ``` def get_content(query): url = 'https://mp.weixin.qq.com' header = { "HOST": "mp.weixin.qq.com", "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.119 Safari/537.36" } with open('cookie.txt', 'r', encoding='utf-8') as f: cookie = f.read() cookies = json.loads(cookie) response = requests.get(url=url, cookies=cookies) print(response.url) res = requests.get(response.url) token = re.findall(r'token=(\d+)', res.text) print(token) ``` 这张图是我把res.text保存下来后看的,发现token里为空![](https://img-ask.csdn.net/upload/201903/02/1551512730_642070.jpg) 但是我自己进平台主页看源码里,其实是有token的![图片说明](https://img-ask.csdn.net/upload/201903/02/1551512835_628505.jpg) 难道说我其实没有登陆进去吗?怎么看自己是不是已经登陆成功了呢。。。

python 怎么让一个自定义函数或者类 重新运行.?

学习爬虫.. 写了一个抓取免费代理的检查函数...# def 代理() : 如果代理可以用.就返回结果 用到 真实请求里.. 但是遇到代理失效了....需要重新爬取免费代理.然后在继续爬 思路步骤如下 ``` 1. 执行 代理抓取 def proxy(): 2. 获取到的可用代理 传递到爬虫 def request_x(): 使用 3. 如果爬虫代理失效 后 ,重新执行 代理抓取 def proxy() 4. 重新添加 新的代理 提供使用.. . . . . ``` 现在卡在了第3步 ..代理抓取的函数已经执行return完毕了啊.. 需要重新执行.

给以前写的一个python程序,用pyqt5加了gui但多进和无响应

之前学python时写了个爬虫。就是捉些商品的标题,介绍,价格,还有买家评论。 今天想学学pyqt5,于是想直接给这爬虫加个gui好了。 运行后,主窗体无响应。 觉得可能是爬虫的问题,太耗时。 于是在pyqt5里的按钮方法里,加了个进程。 当点按钮时,打开一个新进程执行爬虫。 爬虫虽然能正常运行,但gui还是会无响应。 不明白这是怎么回事? 谢谢 ``` class MyWindow(QMainWindow, Ui_MainWindow): def __init__(self, parent=None): super(MyWindow, self).__init__(parent) self.setupUi(self) self.pushButton_2.clicked.connect(self.aa) def aa(self): p = Process(target=pa) p.start() p.join() if __name__ == '__main__': app = QApplication(sys.argv) m = MyWindow() m.show() sys.exit(app.exec_()) ```

python3中使用xpath无法定位,为什么一直返回空列表?

这几天在学习xpath的时候发现无法正确定位,返回的div_list都是空列表,但response信息是有正确返回的。可是怎么检查也没发现错误,希望大佬们麻烦看看,谢谢。 python版本3.6. ``` def select_html(self,response): #筛选网页信息 html = etree.HTML(response) #分组 div_list = html.xpath("//div[@id='content-left']/div") print(div_list) for line in div_list: data = {} data['content'] = line.xpath(".//div[@class='content']/span/text()") data['stats'] = line.xpath(".//div[@class='stats']/span[@class='stats-vote']/i/text()") data['comment_number'] = line.xpath(".//span[@class='stats-comments']/a/i/text()") data['img'] = 'https:'+ line.xpath(".//div[@class='thumb']/a/img/@src") ``` 爬的是糗事百科的内容,下面是糗事百科的html截图: ![图片说明](https://img-ask.csdn.net/upload/201901/11/1547197771_747866.png) 另附上糗百原址: https://www.qiushibaike.com/hot/page/

关于python在开发新浪sae时遇到定时任务返回404的问题

起因:想玩一下微信公众号,于是到新浪云搭了SAE。根据网上大牛们的博客,实现了根据消息被动回复功能,于是想进一步实现一些其他的功能,比如说每天定时从我们学校的网站爬取一些新闻存到数据库,然后根据用户的信息来推送。 解决思路:现在本地写好了爬虫脚本,没遇到什么大问题。于是决定将它放到新浪云上看能不能定时的跑起来。查看了新浪SAE的开发者文档,对于定时任务的概述,它是这样写的: “定时任务服务可以用来定期触发您的应用执行一些后台任务,像定期清理和备份 MySQL 表中的数据、发送邮件通知等。定时任务的执行以 HTTP 方式触发,触发后真正执行的是您在应用中定义的 HTTP 回调函数。 任务执行的方式是 HTTP 调用(GET 方法),执行时间最长为 1800 秒 。 任务执行存在一定的时间误差,最大不超过 10 秒 。 任务不分应用版本,但只对默认版本生效,当切换代码默认版本时对应版本的定时任务会被激活。 任务的时间间隔粒度为分钟。 普通应用最大可以并发执行 12 个定时任务。多出的任务将不能被执行。” 对于配置定时任务的说明如下: “您也可以在应用的配置文件 config.yaml 中添加任务。任务的执行状态可在定时任务的 Web 管理页面看到。 编辑 config.yaml 文件,增加 cron 段,例如: ``` cron: - description: cron_test url: /cron/make schedule: "*/5 * * * *" ``` 上面的示例添加了一个定时任务,该任务每 5 分钟调用 http:// 应用名.sinaapp.com/cron/make 一次。” 初次接触web.py,对于前端的认识也不是很全面,我暂且把“应用”理解为某一个页面下能执行某段任务的代码,于是为了搞清楚定时任务是如何工作的,我决定尝试一下在定时任务里清空数据库里的一张表。我是这样写的: 我新建了一个updateDaily.py,里面包含了一个UpdateDB类,用来清空数据库的某张表: ``` # -*- coding: utf-8 -*- import os from connectDB import connectMYSQL import web class updateDB: def __init__(self): self.query = connectMYSQL() self.app_root = os.path.dirname(__file__) self.templates_root = os.path.join(self.app_root, 'templates') self.render = web.template.render(self.templates_root) def GET(self): sql = "truncate table board_data;" self.query.execute(sql) return "hello world" ``` 其中connectDB是我写的一个连接Mysql数据库的模块,调用connectMySQL类下的execute函数可以直接执行sql语句,这个模块经测试可以成功返回查询语句的结果。 之后,我在index.wsgi中调用以上编写的模块,并且增加一个url,具体代码如下: ``` # -*- coding: utf-8 -*- import os import sae import web from connectToWechat import WechatInterface from updateDaily import updateDB urls = ('/weixin', 'WechatInterface', '/update', 'updateDB',) app_root = os.path.dirname(__file__) templates_root = os.path.join(app_root, 'templates') render = web.template.render(templates_root) app = web.application(urls, globals()).wsgifunc() application = sae.create_wsgi_app(app) ``` 如果我对于web.py模块的理解没错的话,当我定时任务调用“ http://应用名.applinzi.com/update”时,我数据库下的那张表就会被清空,并在网页上返回hello world。 最后,修改配置表config.yaml,增加以下代码: ``` cron: - url: /update schedule: "0 4 * * *" description: "每天凌晨四点执行一次" ``` (实际上我在调试的时候是设置一分钟执行一次) 最后上传代码,可以看到新浪云SAE的定时任务页面已经有了我所配置的任务,但是每一次的执行结果都是返回404,然后数据库中的表并没有被清空。 定时任务的页面如下: 而定时任务的日志记录如下: “[ 2016-11-07 04:00:16 ] status="404 Not Found" url="/update" response="not found" yq124” 检查了很多遍,调试了很多次,都没有发现问题在哪里,求各位大牛指点一下迷津啊。 提问:既然在定时任务的页面上可以看到我配置的定时任务,说明定时任务的配置是没问题的,再看到Index.wsgi里的URL,我只实现了两个功能,一个是在/weixin路径下实现微信公众号接口的token认真,这是没问题的,另外一个/update路径下实现的定时任务功能,但是触发这个页面的时候返回的是404,这让我百思不得其解,因为我在本地测试过,这种写法是可以返回"hello world"的,但是怎么到了新浪云上就失效了呢?跪求各位大牛指点迷津啊。

这里为啥不能使用find_all爬去呢?

![图片说明](https://img-ask.csdn.net/upload/202003/27/1585294051_145959.png) 如图,这里有2个span标签,id都一样。 我想爬去第二个span标签的内容。 当我使用total=bs.find_all(id='total-comments')[1].text时,回报超出范围的错。 改为使用total=bs.find(id='total-comments').text就可以正常提取。 小白刚刚学爬虫,不是很明白为什么不能用find_all()[]的形式?

xpath提取B站的点赞数,提取不到数值是怎么回事?

![图片说明](https://img-ask.csdn.net/upload/202003/14/1584153999_834191.png) 如果提取@title的话结果输出“点赞数0”,如果提取span标签则输出为空。

怎么导入自定义函数里的 值?

最近学习pyhton爬虫 比如我采集马蜂窝..需要用代理不然会被封.. 我就找了个免费代理.但是免费代理有些是失效的.. 所以我就写了一个 代理检测的 .py文件.. 目的是把这个返回的 ip 用在 采集.py 的文件里.. ![图片说明](https://img-ask.csdn.net/upload/201907/29/1564397957_114577.png) 这是引用的位置 ![图片说明](https://img-ask.csdn.net/upload/201907/29/1564398024_994336.png) 额 ,就这个没搞懂... 请问是怎么解决的呢..谢谢!

我想请教一下拼多多 anti_content 怎么解析

![图片说明](https://img-ask.csdn.net/upload/201809/25/1537860476_7303.png) 这个url,是拼多多搜索页的。只能使用两次,就会失效 https://api.pinduoduo.com/search?page=1&size=50&sort=default&requery=0&list_id=search_uNlSQR&q=%E6%89%8B%E6%9C%BA&anti_content=0aieJxNkE1r3DAQhqXdtIUeey8IypYEWlsftiynLCEJpYVkT01Jb0a2x2vF8kdlLWT7j3vof6hKNmUP7zA8885oNBghtHiDFlijJS5DjqugOgjQH9z8br2f5vM47sfSWIj2eth2UO%2FGqBr7eAbtqrZwMO%2Bsj1rf24sD6mC%2FXn2WK5Wv1NW%2FJL9eXV2%2BP1RnV61bM%2FvR7Z9RD%2F4ZFfPo%2FBEvvNNV97%2FBQQOumPQWikH3sH4yHmNTrxmlghUsFZlKs4SnXIji%2Fq7U31myeSiPzfPwZEbh%2F1uEXuN2iU7IEr26QO%2BwIYpxljCpadowCVo2lEKdpFJLnehMKUTww9s8SagQigsqeZbxj4d3VUqzPEMvcLfAKEyzJCtBKahzYAxkU3IpeQOc6pLrjAKj4ex90IBO8Ij3IU4hvsQ%2FlwhvkMXObMZfxlodpxElpz8Y%2B0RuzbB7JI9KFjI5I5fTZOEeyhvj47BEJCQ5vfl6t7n9QKzpgHyBqhvPyHXrxh5iqSIaibB8xKgk33SjnTm0%2FQV74JSf&pdduid=8922052805969

Selenium+Chromedriver headless 无法下载文件怎么办?

如果不用 headless 则可以下载,使用 headless 则不行,有什么办法解决这个问题? 版本都是目前最新的:Selenium:3.141 Chromedriver:2.45 Chrome: 71.0.3578.80 配置如下: ``` chrome_options = webdriver.ChromeOptions() chrome_options.add_argument('--headless') chrome_options.add_argument("--disable-gpu") prefs = {'profile.default_content_settings.popups': 0, 'download.default_directory': 'E:/File/'} chrome_options.add_experimental_option('prefs', prefs) browser = webdriver.Chrome(executable_path='./chromedriver.exe', chrome_options=chrome_options) ```

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你打算用Java 8一辈子都不打算升级到Java 14,真香

我们程序员应该抱着尝鲜、猎奇的心态,否则就容易固步自封,技术停滞不前。

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

一文带你入门Java Stream流,太强了

两个星期以前,就有读者强烈要求我写一篇 Java Stream 流的文章,我说市面上不是已经有很多了吗,结果你猜他怎么说:“就想看你写的啊!”你看你看,多么苍白的喜欢啊。那就“勉为其难”写一篇吧,嘻嘻。 单从“Stream”这个单词上来看,它似乎和 java.io 包下的 InputStream 和 OutputStream 有些关系。实际上呢,没毛关系。Java 8 新增的 Stream 是为...

都前后端分离了,咱就别做页面跳转了!统统 JSON 交互

文章目录1. 无状态登录1.1 什么是有状态1.2 什么是无状态1.3 如何实现无状态1.4 各自优缺点2. 登录交互2.1 前后端分离的数据交互2.2 登录成功2.3 登录失败3. 未认证处理方案4. 注销登录 这是本系列的第四篇,有小伙伴找不到之前文章,松哥给大家列一个索引出来: 挖一个大坑,Spring Security 开搞! 松哥手把手带你入门 Spring Security,别再问密...

立即提问
相关内容推荐