怎么实现一个页面爬取多张图片?

假设这是我爬取的页面:http://www.rosiyy.com/xiaoyan/rosi1559.html
图片说明图片说明
但是要爬取的页面有多个图片,求大神有什么思路?图片说明

以下是我的全部代码

 # coding:utf-8
import requests
from lxml import html
import os
import time
import sys

reload(sys)
sys.setdefaultencoding('utf-8')

def getPage(pageNum):
    baseUrl = 'http://www.rosiyy.com/tag/%E8%82%89%E4%B8%9D-5.html'.format(pageNum)
    selector = html.fromstring(requests.get(baseUrl).content)
    urls = []
    for i in selector.xpath('//div[@class="photo"]/a/@href'):
        urls.append(i)
    return urls

def getPiclink(url):
    sel = html.fromstring(requests.get(url).content)
    total = sel.xpath('//div[@class="archives_page_bar"]/a[last()-1]/text()')[0]
    title = sel.xpath('//h2/text()')[0]
    jpgList = []
    for i in range(int(total)):
        link = '{}/{}'.format(url,i+1)
        s = html.fromstring(requests.get(link).content)
        jpg = s.xpath('//div[@class="post postimg"]/p/a/img/@src')[0]
        jpgList.append(jpg)
    return title, jpgList

def downloadPic((title, piclist)):
    k = 1
    count = len(piclist)
    dirName = u"【%sP】 %s" %(str(count), title)
    os.mkdir(dirName)
    for i in piclist:
        filename = '%s/%s/%s.jpg' %(os.path.abspath('.'), dirName, k)
        print u'Download:%s 第%s张' %(dirName, k)
        with open(filename, "wb") as jpg: 
            jpg.write(requests.get(i).content)
            time.sleep(0.5)
        k += 1


if __name__ == '__main__':   
    pageNum = input(u'page:')
    for link in getPage(pageNum):
        downloadPic(getPiclink(link))

1个回答

a1123612483
滑稽仔 我想要一页多图的实现 多页爬取可以实现
大约 3 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
想用python 爬取一个网页上面的图片,初学者不太知道如何入手。

请教要实现爬取图片这个目的,大体的步骤应该是什么。用什么模块更方便一些?大体的框架应该是什么样

跪求大神帮忙写一个非常简单的爬虫程序,爬取网页上的表格信息!

跪求大神帮忙写一个非常简单的爬虫程序,爬取网页上的表格信息! 网页网址为:https://mp.weixin.qq.com/s/li7BbNrZy-eOm79D6Eh-mA 网页上的内容特别简单,就是一个一个的表格,表格里面都是固定的房产出租售的信息,希望能用爬虫爬取出来,然后汇总导出到excel表格中。 ![图片说明](https://img-ask.csdn.net/upload/201908/01/1564636661_814719.png) 希望大神有空了能帮忙给写一些代码,非常感谢!

爬取子类型名称 并 实现跳转到子类型的网页

Hi 大家好啊: 我在写一个挖掘 “某网站上产品价格” 的程序。 之前在各路高手的帮助下,已经能捕捉到同一型号下 不同子型号的功能了 如 下面2张图片这样: (获取网页中 某类型产品 下 4个不同的子类型 名称信息) ![图片说明](https://img-ask.csdn.net/upload/201909/18/1568784373_803840.png) (返回值如下:) ![图片说明](https://img-ask.csdn.net/upload/201909/18/1568784498_31047.png) 目前,我的代码是这样的: ``` from bs4 import BeautifulSoup import requests url='https://www.lenovo.com/au/en/search?text=M720' # 这个是搜索 M720 时候的 返回网站 headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36'} # ok 至少 header 是没有问题的,可以进得去 def get_machine_infro(): wb_data = requests.get(url,headers=headers) #使用 url 和 header 打开网页 soup=BeautifulSoup(wb_data.text,'lxml') machin=soup.select('.o-productCard__content h3 a') # 网页源代码 机型处 前面的 网页码 注意 这个要选择那个唯一的 #machin=soup.select('.o-productCard__content') for i in range(len(machin)): print(machin[i].text) # 打印处 网页中全部的 机型名称 get_machine_infro() ``` 现在 我想更进一步: 去分别查看这些“子型号”产品下面的具体信息。 也许,可以是类似我们通过点击“Learn more” 按钮所实现的那种跳转(如下面的图片), 或者其他的方法...? ![图片说明](https://img-ask.csdn.net/upload/201909/18/1568784673_175671.png) 请问 要实现这种 针对 代码中已经获取的这些“子类型“跳转到相应的子页面的功能 我们应该如何实现呢? 谢谢各位大佬不吝赐教

利用Scrapy-Splash爬取淘宝搜索页面被重定向至登录页面

在Splash上用一下代码模拟打开搜索页面: ``` function main(splash, args) args = { url = "https://s.taobao.com/search?q=iPad", wait = 5, page = 5 } splash.images_enabled = false splash:set_user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36" assert(splash:go(args.url)) assert(splash:wait(args.wait)) return {png = splash:png()} end ``` 不管有没有设置请求头,都是要**等很久很久**,然后被重定向到**淘宝的登录界面**,实在是想不出来到底是怎么回事了。。。 ![图片说明](https://img-ask.csdn.net/upload/201909/12/1568266170_563233.png) ![图片说明](https://img-ask.csdn.net/upload/201909/12/1568266176_609890.png)

怎么把爬取到的数据放到自己的网页上实现同步数据?

怎么把爬取到的数据放到自己的网页上实现同步数据?再实现数据分析处理 ![图片说明](https://img-ask.csdn.net/upload/201901/28/1548662090_784980.png) ![图片说明](https://img-ask.csdn.net/upload/201901/28/1548662121_659361.png)![图片说明](https://img-ask.csdn.net/upload/201901/28/1548662162_682989.jpg)

如何利用scrapy爬取带标签的网页内容并保存到自己的服务器上?

如何利用scrapy爬取整个网页的内容并将内容保存到自己的服务器上? 现在我想到了两种方式: 1、直接把scrapy爬取到的字符串通过SQLAlchemy保存到mysql数据库。 这种方式我试过但是不知道是不是容量受限制的原因没有保存成功。(爬取到的其他字段都能保存成功,只有这个保存带标签的网页内容的字段没有保存成功。) 2、在自己的服务器上搭建一个ftp服务器。 将爬取到的网页保存到自己的服务器,在mysql中只保存网页在ftp中的路径。 这种方式还没试过,有点不知道怎么操作。 此外还有一个问题需要解决,爬取到的网页中会有一些图文混排的内容,对于这些图片应该怎么处理呢?我想把网页中引用的图片的url改成自己服务器上的地址, 这个操作应该怎么进行呢。 (现在脑子里很乱,请各位大神指教,上代码、提供思路或者推荐参考资料都行。拜托大家了,感谢感谢,撒花撒花~)

PHP爬虫如何爬取图片?

有这样一个网站http://ironcreek.net/phpsyntaxtree/ 提交串字符串后会得到一个png图片 请问怎么用php代码把它爬下来呢 我尝试用post把字符串post 上去,但是不知道接下来怎么做了 ``` <?php //初始化 $curl = curl_init(); //设置抓取的url curl_setopt($curl, CURLOPT_URL, 'http://ironcreek.net/phpsyntaxtree/?'); //设置头文件的信息作为数据流输出 curl_setopt($curl, CURLOPT_HEADER, 1); //设置获取的信息以文件流的形式返回,而不是直接输出 curl_setopt($curl, CURLOPT_RETURNTRANSFER, 1); //设置post方式提交 curl_setopt($curl, CURLOPT_POST, 1); //设置post数据 $post_data = array( "data" => "[a]" ); curl_setopt($curl, CURLOPT_POSTFIELDS, $post_data); //执行命令 curl_close($curl); print_r($data); ?> ``` 另外,当我进入http://ironcreek.net/phpsyntaxtree/? 这个网址的时候,它会自动显示上一次的字符串,请问这个是网站保存在cookie里的吗? 这个网站的源码可以在https://github.com/FrankTianTT/phpSyntaxTree上找到 谢谢

python爬取跳页url不变的网页表格数据

小白一个,刚学python爬虫1天,因为跟朋友夸下海口说简单的都会,但我这个就不会了。 具体需求:python爬取跳页url不变的网页表格数据。 url:http://gs.amac.org.cn/amac-infodisc/res/pof/fund/index.html 爬取表格所有页的数据: ![图片说明](https://img-ask.csdn.net/upload/201907/16/1563265385_266418.png) 求求大神救救孩纸* _*

PYTHON 爬取金十数据 点击加载更多后 返回的网页打不开 报错 502

![图片说明](https://img-ask.csdn.net/upload/201908/11/1565511943_211499.png) 点击加载 更多后 ,通过Network 查找后,找到对应的Resquest url 如下图 ![图片说明](https://img-ask.csdn.net/upload/201908/11/1565512195_752408.png) url 可以确定是正确的 动态加载的数据通过 Preview 可以查看到 ![图片说明](https://img-ask.csdn.net/upload/201908/11/1565512340_153776.png) 但是,返回的url:( https://flash-api.jin10.com/get_flash_list?max_time=2019-08-10+05%3A57%3A32&channel=-8200) 打不开 运行爬虫后 显示 HTTP Error 502: Bad Gateway 求大神指导,该如何解决? ![图片说明](https://img-ask.csdn.net/upload/201908/11/1565512523_373476.png)

python 爬虫 用xpath抓取多行文本,如何实现多重遍历?

萌新学习python爬虫,在爬取网贷之家平台信息的时候,通过xpath将某一平台的网友印象三个关键词保存在一个数组中,输出到excel中。 现在我希望能够把该页面上25个平台信息都爬取到并保存,请问xpath怎么写循环?这里的25个信息代码结构是一模一样的,只有li从[1]-[25]。谢谢 ``` import requests import pandas as pd from lxml import etree from fake_useragent import UserAgent ua = UserAgent() headers['User-Agent']=ua.random url = 'https://www.wdzj.com/dangan/search?filter=e1&currentPage=1' response = requests.get(url,headers = headers).text s = etree.HTML(response) file_yinxiang = [] file_yinxiang1 = s.xpath('//*[normalize-space(@id)="showTable"]/ul/li[1]/div[2]/a/div[5]/span/text()')#实现li从1-25的循环 file_yinxiang.append(file_yinxiang1) df = pd.DataFrame(file_yinxiang) df.to_excel('wdzj_p2p.xlsx') ``` 网上查了很多资料,并不是很清楚,目前不循环是这个结果: ![图片说明](https://img-ask.csdn.net/upload/201903/18/1552887724_381412.png) 这是网页上我要爬取的内容: ![图片说明](https://img-ask.csdn.net/upload/201903/18/1552887858_653935.png)

使用Python抓取下一页网页数据

怎么抓取一个无论怎么跳转其url都不变的网页?通过Requests和BeautifulSoup能实现吗? [http://www.szairport.com/frontapp/HbxxServlet?iscookie=C](http://www.szairport.com/frontapp/HbxxServlet?iscookie=C "") 另外其下一页的跳转指令是js写的,我该怎么通过这条指令跳转下一页,命令如下: ``` [<a href="javascript:void(0);" onclick="page.moveNext()">下一页</a>] ``` 另附上我修改的代码; ``` import requests import re import BeautifulSoup import json a={"start":150,"limit":20} r=requests.post("http://www.szairport.com/frontapp/HbxxServlet",data=json.dumps(a)) soup=BeautifulSoup.BeautifulSoup(r.text) print soup ```

scrapy如何循环抓取所有类似的页面

我是刚刚开始学习爬虫,模仿网上一个例子自己写了一个,想循环抓取所有页面新闻标题和链接,但是只能抓取到起始页面的。 这是抓取的起始页面 ![图片说明](https://img-ask.csdn.net/upload/201602/27/1456543523_760923.png) 从下面可以看到列表有很多,我想抓取所有的新闻条目,每一页的地址仅一个数字不同 ![图片说明](https://img-ask.csdn.net/upload/201602/27/1456543630_463064.png) spider文件夹下的关键代码如下所示 ``` # -*- coding:utf-8 -*- from scrapy.spiders import Spider from scrapy.selector import Selector from ahutNews.items import AhutnewsItem from scrapy.spiders import Rule from scrapy.linkextractors import LinkExtractor class AhutNewsSpider(Spider): name = 'ahutnews' allowed_domains="ahut.edu.cn" start_urls=['http://news.ahut.edu.cn/list.jsp?a7t=314&a7p=2&a7c=20&urltype=tree.TreeTempUrl&wbtreeid=1002'] rules=( Rule(LinkExtractor(allow=r"/list.jsp\?a7t=314&a7p=*"), callback="parse",follow=True), ) def parse(self, response): hxs = Selector(response) titles = hxs.xpath('//tr[@height="26"]') items = [] for data in titles: item = AhutnewsItem() title=data.xpath('td[1]/a/@title').extract() link=data.xpath('td[1]/a/@href').extract() item['title'] = [t.encode('utf-8') for t in title] item['link'] = "news.ahut.edu.cn" + [l.encode('utf-8') for l in link][0] items.append(item) return items ```

实现点击网页上的一个按钮,弹出路径选择框,然后导出所有多媒体文件(图片,音视频)到选择的目录下

我页面中只写了: ``` <button id="exportMedias" type="button" class="btn btn-default">一键导出</button> ``` js代码部分要怎么实现点击网页上的这个按钮,弹出路径选择框,然后导出所有多媒体文件(图片,音视频)到选择的目录下

在python爬虫中使用for循环填入网页id并嵌套函数爬取信息时,无法正确爬取

使用了三个网页ID:38635、38636、38627来测试,输出dic的结果为三个同样的字典(都对应38635), ``` headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'} url='https://db.yaozh.com/hmap?grade=%E5%85%A8%E9%83%A8&p={}&pageSize=30&province=%E5%B9%BF%E4%B8%9C%E7%9C%81&type=%E5%85%A8%E9%83%A8' info_url_model='https://db.yaozh.com{}' for x in ['/hmap/38625.html', '/hmap/38626.html', '/hmap/38627.html']: #test info_url=info_url_model.format(x) #填入医院urlID detail = requests.get(info_url, headers=headers) # 取得内容页面内容 detail.encodint = 'utf-8' soup2 = BeautifulSoup(detail.text, 'html.parser') a = soup2.select('.toFindImg') for b in soup2.find_all(lambda tag: tag.name == 'span' and tag.get('class') == ['toFindImg']): item_list.append(b.text) for i in range(len(item_list)): #去掉空格 item_list[i] = item_list[i].replace(' ', '') #去掉空格 item_list[i] = item_list[i].replace('\n', '') #去掉换行符 dic = dict(zip(item_name, item_list)) # 生成字典 print(dic) ```

python爬虫获取源码与网页不同

使用requests和bs4库 静态爬取页面[2017年数据](http://www.zuihaodaxue.com/zuihaodaxuepaiming2017.html "") Soup获得部分源码如图 ![图片说明](https://img-ask.csdn.net/upload/201709/29/1506692129_124729.png) 对应网页源码如图 ![图片说明](https://img-ask.csdn.net/upload/201709/29/1506692155_28545.png) 可见,该tr中第一个&lt;td&gt1&lt;/td&gt;;在Soup中变成了&lt;td&gt;1&lt;td&gt; ,而末尾处也多了一个&lt;/td&gt; 该问题发生在每一个tr中,但爬取[2016年数据](http://www.zuihaodaxue.com/zuihaodaxuepaiming2016.html "")并没有出现该问题。 代码照抄教程,应该不存在问题

利用JAVA爬虫如何实现Web网页的保存

给定一个网站地址(如http://www.souhu.com,程序运行时,输入网站地址,下载本网站的页面及页面包含的相关的其他资源文件(超链接,图片文件,样式文件,脚本文件),并保存在本地文件中,实现整个网站的离线浏览。

请求一个url,用java抓取所有网页链接以及内容。

# 比如用这个当实例:http://roll.news.sina.com.cn/news/gnxw/gdxw1/index.shtml。(新手,望多多关照)

R语言爬虫页面时页面内有show more按钮,抓取页面问题

在google学术搜索( https://scholar.google.com) 上,搜索出某个作者的文献信息(如图): ![图片说明](https://img-ask.csdn.net/upload/201709/13/1505275468_228856.png) ![图片说明](https://img-ask.csdn.net/upload/201709/13/1505275556_465180.png) 开始只显示20条文献信息,底部有一个show more按钮,点击一下多显示20条,想求教如何爬取所有的文献信息 希望大神帮忙写一下这一部分的代码或给出具体的思路(要用什么函数等等) 谢谢各位大神!!!

需求一个简单的python Gui 界面。

做了一个输入关键词和种类名爬数据库,并可以画出多张图片的python小代码, 但是想给这些东西整到一个gui小界面上,entry可以输入内容然后用作爬取数据库, button执行,在右侧显示生成图片。 大概是这样![图片说明](https://img-ask.csdn.net/upload/201807/06/1530842820_579433.png) 这种小界面用python该怎么做啊? 求大神来个带解释的界面代码给瞅瞅。

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

为什么本科以上学历的人只占中国人口的5%,但感觉遍地都是大学生?

中国大学生占总人口不到5% 2017年,中国整体的本科率仅有5.9%;如果算上研究生,这一比例可以进一步上升到6.5% 为什么在国家统计局推出的这份年鉴中,学历的最高一阶就是到研究生,而没有进一步再统计博士生的数量的。 原因其实并不难理解,相比全国和各省整体人口体量,博士生的占比非常之低,属于绝对意义上的小概率样本。 这一点,我们从上表中的各省研究生占比情况也可以看出端倪。除北京、天津、上海三...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

记录下入职中软一个月(外包华为)

我在年前从上一家公司离职,没想到过年期间疫情爆发,我也被困在家里,在家呆着的日子让人很焦躁,于是我疯狂的投简历,看面试题,希望可以进大公司去看看。 我也有幸面试了我觉得还挺大的公司的(虽然不是bat之类的大厂,但是作为一名二本计算机专业刚毕业的大学生bat那些大厂我连投简历的勇气都没有),最后选择了中软,我知道这是一家外包公司,待遇各方面甚至不如我的上一家公司,但是对我而言这可是外包华为,能...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

6年开发经验女程序员,面试京东Java岗要求薪资28K

写在开头: 上周面试了一位女程序员,上午10::30来我们部门面试,2B哥接待了她.来看看她的简历: 个人简历 个人技能: ● 熟悉spring mvc 、spring、mybatis 等框架 ● 熟悉 redis 、rocketmq、dubbo、zookeeper、netty 、nginx、tomcat、mysql。 ● 阅读过juc 中的线程池、锁的源...

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

大牛都会用的IDEA调试技巧!!!

导读 前天面试了一个985高校的实习生,问了他平时用什么开发工具,他想也没想的说IDEA,于是我抛砖引玉的问了一下IDEA的调试用过吧,你说说怎么设置断点...

都前后端分离了,咱就别做页面跳转了!统统 JSON 交互

文章目录1. 无状态登录1.1 什么是有状态1.2 什么是无状态1.3 如何实现无状态1.4 各自优缺点2. 登录交互2.1 前后端分离的数据交互2.2 登录成功2.3 登录失败3. 未认证处理方案4. 注销登录 这是本系列的第四篇,有小伙伴找不到之前文章,松哥给大家列一个索引出来: 挖一个大坑,Spring Security 开搞! 松哥手把手带你入门 Spring Security,别再问密...

立即提问
相关内容推荐