python爬虫,使用selenium爬取某宝数据,爬虫代码能正常运行,但是控制台只打印了一个商品的信息

1、
环境:pycharm
浏览器:chrome
描述:使用selenium爬取某宝数据,爬虫代码能正常运行(可以对元素进行定位,可以下拉滑动条、可以通过修改url去到下一页),但是控制台只打印了一个商品的信息,其余爬取的信息没有被打印出来

2、代码如下:

"""
爬取淘宝商品步骤:
1、打开谷歌浏览器,访问淘宝网站:找到淘宝的 url
2、定位搜索框和搜索按钮(F12,使用元素选择器进行定位,复制 XPath),要完成的动作→输入要搜索的商品,然后点击搜索按钮
3、在登陆界面停留 10 秒,手机扫码登陆(需手动),高级一点的方法可以自送输入账号密码登陆
4、进入搜索结果页面,模仿人浏览商品时的动作→下拉滑动条到页面的最后,拉5次,拉的过程有暂停
"""
from selenium import webdriver
# 需要一款浏览器,访问淘宝网址
import time
import re
# 找到 输入框 找到 按钮
# 元素(输入框、按钮等) 定位


def search_product():
    driver.find_element_by_xpath('//*[@id="q"]').send_keys(kw)
    driver.find_element_by_xpath('//*[@id="J_TSearchForm"]/div[1]/button').click()
    # # 强行阻止程序运行 10s的时间
    time.sleep(5)
    # 获取搜索结果页面的总页码
    token = driver.find_element_by_xpath('//*[@id="mainsrp-pager"]/div/div/div/div[1]').text
    token = int(re.compile('(\d+)').search(token).group(1))
    return token
# 元素定位 他没有前提吗?你的网速比较慢,如果元素没有加载完毕,那么你能够去定位没有加载的数据吗?没有加载出来
# 也就是说,这个加载的过程 是因为我拉动了下滑条!
# 步骤:登录 拉动下滑条 采集数据 下一页 拉动下滑条 再采集数据,按这个循环!


def drop_down():
    # 一次拉一部分,拉的时候有暂停 range 得出 1 3 5 7 9 五个数
    for x in range(1, 11, 2):
        time.sleep(0.5)
        # j 代表滑动条的五个位置:1/10、3/10、5/10、7/10、9/10
        j = x/10
        # 下面的 js 是 JavaScript 的语法,可以当作万能公式解决大部分网站问题
        js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j
        driver.execute_script(js)


def get_product():
    # 首先获取所有的 div ,然后遍历所有的 div ,得到一个div 再去一个 div 里面寻找需要的数据
    # // 代表任意位置(任意一个位置的属性属于 class="items" 的 div)
    # //div[@]/div[@] 代表要获取的 div 的路径
    divs = driver.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq item-ad  "]')
    for div in divs:
        # . 代表当前目录, .// 当前目录下的任意 div标签 下的 a标签 下的 img标签 下的 src
        info = div.find_element_by_xpath('.//div[@class="row row-2 title"]').text
        price = div.find_element_by_xpath('.//div[@class="price g_price '
                                          'g_price-highlight"]/strong').text + '元'
        deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text
        image = div.find_element_by_xpath('.//div[@class="pic"]/a/img').get_attribute('src')
        # name = div.find_element_by_xpath('.//div[@class="shop"/a/span[1]').text
        address = div.find_element_by_xpath('.//div[@class="row row-3 g-clearfix"]/div[@class="location"]').text
        # 定义一个字典
        product = {'标题': info, '价格': price, '订单量': deal, '图片': image, '地址': address}
        print(product)


# 淘宝的反爬很严重,所以尽量不要模拟多次点击下一页
# 采用改 url 的方法可以避免反爬:通过分析淘宝页面的 url→https://s.taobao.com/search?q=Python&s=88
# 可以得知下一页就是在 url 后面的值 +44。即第4页的 url 为 https://s.taobao.com/search?q=Python&s=132
def next_page():
    token = search_product()
    drop_down()
    get_product()
    num = 1
    while num != token:
        driver.get('https://s.taobao.com/search?q={}&s={}'.format(kw, 44*num))
        num += 1
        # time.sleep(4) 。这个方法延迟太慢了,改用下面的只能等待方法
        # 隐视等待,智能等待,最高等待时间为10s,如果超过10s,抛出异常
        driver.implicitly_wait(10)
        # 无限循环进入网页,可能造成网页卡顿!导致数据加载不出来,解决方法是加一个延迟,等数据先加载出来再操作
        drop_down()
        get_product()


if __name__ == '__main__':
    kw = input('请输入你想查询的商品:')
    driver = webdriver.Chrome()
    driver.get('https://www.taobao.com/')
    next_page()

# 这个程序可以无限制地爬取内容,淘宝无法检测出来而反爬


3、代码能正常运行,打印信息如下:
图片说明

4、求各位大神帮忙解决一下T-T

1个回答

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python+selenium爬取ie浏览器数据,怎么等待数据下载完成,文件下载窗口弹出

用python+selenium爬取ie10浏览器的数据,点击download之后,数据加载需要一定的时间,数据需要一两分钟才能下载成功并弹出“是否打开或保存文件”的窗口,目前是用time.sleep(),然后用autolt3写的脚本处理文件下载窗口的。 问题是:所爬取的网站不稳定,有时下载的时间长,有时很短的时间就下载好了,time.sleep太死板,也想过用selenium的wait,但是找不到文件下载窗口的源代码,不知道要wait什么元素,求大神指点迷津,非常感谢~

Python 爬虫爬取一个网站的时候成功,但爬取多个网站就404

![图片说明](https://img-ask.csdn.net/upload/202003/21/1584758718_98632.png) ![图片说明](https://img-ask.csdn.net/upload/202003/21/1584758742_33180.png) ![图片说明](https://img-ask.csdn.net/upload/202003/21/1584758754_204806.png) 第一张图我是把txt文件中第一个网址拿出来,然后保存图片成功,但是当我读取txt文件,准备开始批量爬取的时候(图二),状态码为404,单独爬取一个网站的时候没问题,一放在多个网站中就报错,怎么办?

selenium爬取招聘网站一直刷新主页,代码为什么爬不出来,超时怎么解决?

``` from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC import time from selenium.common.exceptions import TimeoutException from pyquery import PyQuery as pq browser = webdriver.Firefox() wait = WebDriverWait(browser, 10) def search(): try: browser.get( 'https://www.simplyhired.com/') #网站url browser.implicitly_wait(10) input = wait.until( EC.presence_of_element_located((By.CSS_SELECTOR, "input.id_f_keywords:nth-child(1)"))#搜索框 ) submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-block')))#按钮 input.send_keys("Information Management")#搜索框中输入 submit.click() get_products() browser.implicitly_wait(10) except TimeoutException: # 当网卡超时时,重新执行 return search() def next_page(): try: next_page = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, 'a.next-pagination')))#下一页按钮 next_page.click() except TimeoutException: # 当网卡超时时,重新执行 return search() def get_products(): wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#content .jobs')))#获取id为content下class为jobs的所有card js-job active html = browser.page_source print(html)#将html代码打印出来 def mian(): print("第", 1, "页:") search() for i in range(2, 20): time.sleep(3) print("第", i, "页:") get_products() if __name__ == '__main__': mian() ``` 拜托哪位大神能教教我呀,小白一个

关于Python 网络数据爬虫爬取不到数据

起初是用xpath进行数据爬虫 ``` headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.120 Safari/537.36"} response = requests.get('https://www.gia.edu/CN/report-check?_=2&reportno=7348210118',headers=headers) contents = etree.HTML(response.text) ``` ![图片说明](https://img-ask.csdn.net/upload/202006/01/1590995454_874344.jpg) 发现数据不对,页面上的数据是通过JS加载出来的。 ![图片说明](https://img-ask.csdn.net/upload/202006/01/1590995569_967317.jpg) 后来通过分析数据来源,找到了数据加载是在这个JS文件中完成,并且数据是在页面中ID为xmlcontent的标签内容中,但是xmlcontent标签是设置的隐藏。 网上查阅资料说是用selenium可以获取隐藏标签 ``` driver = webdriver.PhantomJS(executable_path=r'D:\python_tools\phantomjs-2.1.1-windows\bin\phantomjs.exe') driver.get('https://www.gia.edu/CN/report-check?reportno=6335838911') xmlcontent = driver.find_element_by_id('xmlcontent') print(xmlcontent.get_attribute('innerHTML')) ``` 但是貌似效果不理想,初学者往各位大佬指点~~~

Python爬虫爬取豆瓣电影

Python新手,最近学习Python做了一个爬取豆瓣电影的小项目,在爬取导演、主演的时候结果不是理想,请问分别爬取导演、主演的程序怎么写? 下面是网页的程序: <div class="bd"> <p class=""> 导演: 弗兰克·德拉邦特 Frank Darabont&nbsp;&nbsp;&nbsp;主演: 蒂姆·罗宾斯 Tim Robbins /...<br> 1994&nbsp;/&nbsp;美国&nbsp;/&nbsp;犯罪 剧情 </p>

请python 爬虫高手(selenium技术)帮忙解决几个问题,谢谢。

环境:python36,selenium 3.3.1,phantomjs2.1.1 描述:我利用python中selenium模块的phantomjs对网页进行拍照,其中有几个小bug,请高手支支招,如下问题: 1.某些网站会有反爬机智,导致拍照失败:如图![图片说明](https://img-ask.csdn.net/upload/201806/15/1529054567_754613.jpg) 导致的原因我认为是标红框的地方,是否可以更改,把这个删掉?或者其他办法。 2.在截图中,有些浮动的广告,需要点击关闭,selenium虽然有点击的功能,但是如何判断它是广告呢? 3.在连接网站时,有时会报错,报错内容是timeout,但是我手动打开连接却很快就能打开,应该如何解决呢? 以上3个问题困扰小弟好长时间,请高手支招,谢谢~~~

python如何提高爬虫效率

任务背景是需要从一个linux服务器上下载文件,我拥有该服务器的访问权限但仅限于读。 目前的解决方法是我把所有需要下载的数据地址都保存在了本地的文件中,一行一条数据地址,通过paramiko包连接服务器然后使用多线程的方式进行爬取。每个线程启动时向其传入一个下载地址列表,因为每个线程的下载地址列表都不重复,因此不需要考虑线程之间的通信。详细代码如下: ``` # filename是存储在本地的地址列表文件,n是最大线程数 def download(filename, n): files = open(filename, 'rb').readlines() numbers = range(n) stop = len(files) / len(numbers) def thread_download(n): sftp = login() directory = files[n*stop : (n+1)*stop] for line in directory: # 该函数的功能是将服务器中的文件下载至本地,第一个参数是具体地址,第二个参数是连接句柄 download_from_server(line.strip(), sftp) threads = [] for i in numbers: threads.append(threading.Thread(target=thread_download, args=(i, ))) threads[i].start() time.sleep(0.1) # 暂停0.1s是为了防止并发数太多 for i in numbers: threads[i].join() ``` 现在有两个问题: (1)我一般把n设置为300,程序启动时下载速度很快,能够达到每分钟100多份文件,虽然也能看到一些线程崩溃,但数量不多;但是大概10分钟后程序下载速度只有20多份文件,是因为很多线程已经挂掉了嘛,还是线程之间通过同一个账户访问存在阻塞?为什么速度下降幅度这么大? (2)除了使用多台机器和提高网速外,还能考虑什么方式提高爬虫效率?

python环境,利用selenium爬取京东手机“每种套餐”价格问题

本人零基础,大龄搬砖男自学python,所以请忽略各种拼写,命名等小细节。而且目前还不会正则表达式,所以用了xpath的方法,循环点击各套餐,然后读取价格标签的text来获取价格。但是因为不同的产品,套餐种类可能不同,例如有点手机品牌有颜色、容量、运行商,版本等套餐。为了考虑多产品的兼容性,折磨了半天时间,想到用递归的思路进行实现 目前,遇到一个问题,就是递归的终止条件问题,目前总是卡在最后一个套餐,没有读取完就结束了。请前辈支招: ``` from bs4 import BeautifulSoup from selenium import webdriver driver = webdriver.Chrome() driver.get("https://item.jd.com/100000287115.html#crumb-wrap") driver.maximize_window() html = driver.page_source soup=BeautifulSoup(html,'lxml') select = soup.find("div",id="choose-attrs") #查找选择框 selectstyle = select.find_all("div",class_="li p-choose") #选择的类型有多少种,比如颜色,型号,容量等 selectstyletotal = len(selectstyle) #大类数量 print(selectstyletotal) def sonnum(n): #n为大类编号从1开始 '''求当前大类下面有多少个型号''' selectsun = selectstyle[n-1].find_all("div", class_="item") countsun = len(selectsun) # 查找当前类下,有多少个型号 return countsun for i in range(1,selectstyletotal+1): print("当前为第{}类,改类有{}个型号".format(i,sonnum(i))) def showprice(n): '''递归选择,并显示价格''' if n == 1: for a in range(1, sonnum(n) + 1): driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(a) + ']').click() select_txt = driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(a) + ']').text price = driver.find_element_by_xpath( "/html/body/div[8]/div/div[2]/div[4]/div/div[1]/div[2]/span[1]/span[2]").text # price_data.append(select_txt+"价格为"+price) print("选中{},价格为{}".format(select_txt, price)) for i in range(1,sonnum(n)+1): try: driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(i) + ']').click() select_txt = driver.find_element_by_xpath( '//*[@id="choose-attr-' + str(n) + '"]/div[2]/div[' + str(i) + ']').text print("选中{}".format(select_txt)) showprice(n-1) price = driver.find_element_by_xpath( "/html/body/div[8]/div/div[2]/div[4]/div/div[1]/div[2]/span[1]/span[2]").text except: continue print("价格为{}".format(price)) showprice(selectstyletotal) ``` 运行结果如下:始终有1个套餐未点击完毕,大神支招啊, ''' ![图片说明](https://img-ask.csdn.net/upload/201811/04/1541340185_122754.png) 谢谢?

python爬虫selenium+phantomjs获取JS动态网页

网页有大量数据在不断加载,如何连续获取这些内容,使用time.sleep()修改不同时间,但是得到的结果还是一样的,只有几个数据,这个问题怎么解决啊,求打救

python爬取跳页url不变的网页表格数据

小白一个,刚学python爬虫1天,因为跟朋友夸下海口说简单的都会,但我这个就不会了。 具体需求:python爬取跳页url不变的网页表格数据。 url:http://gs.amac.org.cn/amac-infodisc/res/pof/fund/index.html 爬取表格所有页的数据: ![图片说明](https://img-ask.csdn.net/upload/201907/16/1563265385_266418.png) 求求大神救救孩纸* _*

如何使用python爬虫获取css伪元素例如:::before?

求助大神,在爬取网站的时候,网站对于部分文字使用伪元素::before进行了替换,导致无法爬取需要的数据。 例如:<span class="略">::before</span> ::before中隐藏了content后的汉字。 请问该如何处理? 十分感谢!

<python>python爬取智联json页面,但是爬回来的数据不全?

1.智联一页有大概100条数据,但是爬回来只有20条 代码: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557194839_124865.png) https://img-ask.csdn.net/upload/201905/07/1557194839_124865.png 主函数: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557194939_248256.png) depth是爬取的页数,1页的时候只能在数据库看到20条记录,当把depth改成10的时候可以看到1000条信息,但是之后depth再增加(如改成20,30等)数据也不会再增加了,一直是1000条信息 ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557195117_222005.png) 我觉得不是存储的问题,因为第一个爬取的函数返回来的页面就已经少了,只有20条,麻烦帮忙看一下这个爬取函数有什么问题,谢谢啦

python 实现爬取网页的审查元素,求大神路过

网页源代码只有 JavaScript,没有我想要的数据。只能通过审查元素看到,怎样才能抓取审查元素的内容 暂时用的是selenium,但只能看源代码。求大神路过

python 爬虫 输出数字却显示为乱码

查看网页代码发现数字被转码了,导致python输出结果全是乱的。代码如下: ``` # coding:utf-8 from selenium import webdriver browser = webdriver.Chrome() # chrome_options = webdriver.ChromeOptions() # chrome_options.add_argument('--headless') # browser = webdriver.Chrome(chrome_options=chrome_options) # browser = webdriver.PhantomJS() # browser.maximize_window() # 最大化窗口,可以选择设置 browser.get('http://data.eastmoney.com/kzz/default.html') element = browser.find_element_by_css_selector('#dt_1') # 提取表格内容td td_content = element.find_elements_by_tag_name("td") lst = [] for td in td_content: lst.append(td.text) print(lst) ``` 网页乱码定位图片如下已上传!![图片说明](https://img-ask.csdn.net/upload/202002/29/1582983786_812107.jpg)

爬虫爬取aqistudy网站问题

### 一、概述 先贴上网站首页地址:https://www.aqistudy.cn/historydata/ 需要抓取对应city下的逐月数据,最终需要爬取的网站示例如下:https://www.aqistudy.cn/historydata/monthdata.php?city=%E5%8C%97%E4%BA%AC 我所使用到的代码可以参考这一篇:https://www.jianshu.com/p/87ab84828a5d 爬取这个网站的初衷只是想练习一下爬虫,并且网上有大量关于爬取该网站的示例,我选用的是python+scrapy+selenium的方法。但是 **参考目前网上的爬取方法并不可行**,主要的问题如下: ### 二、主要问题 #### 2.1.开发者模式下调试最终页面会被网站识别 ![图片说明](https://img-ask.csdn.net/upload/202003/18/1584524701_300942.png) 解决方法我已经找到,参考 https://www.liuyixiang.com/post/109399.html 主要问题在于页面上的endebug函数,对它进行对应处理后就可以进行调试。 #### 2.2.使用chromedriver模拟登陆同样会被识别 在有头模式下对最终网站模拟登陆仍会弹出上述页面(无头也尝试过),说明网站依然监测到了爬虫。我对之前的endebug函数进行了JS反混淆,但是仍看不出反混淆后的代码是如何识别到chromedriver的,或者它和2.1有什么共性因素而被识别出来(不确定是否是这样做,初学者多多包涵)。 如果对网站的JS加载进行停用,如下对middlewares设置,那么不会弹出非法调试的页面,但是需要爬取的AQI等数据无法完全加载出来。 ``` class AreaSpiderMiddleware(object): def process_request(self, request, spider): prefs = { 'profile.default_content_setting_values': { 'images': 2, 'javascript': 2 # 2即为禁用的意思 } } chrome_options = Options() chrome_options.add_experimental_option('prefs', prefs) # 禁止加载图片,JS chrome_options.add_argument("--disable-extensions"); chrome_options.add_experimental_option('excludeSwitches', ['enable-automation']) self.driver = webdriver.Chrome(chrome_options=chrome_options) if request.url != 'https://www.aqistudy.cn/historydata/': self.driver.get(request.url) js = "window.endebug = () => true;return endebug()" # 执行js self.driver.execute_script(js) time.sleep(1) html = self.driver.page_source self.driver.quit() return scrapy.http.HtmlResponse(url=request.url, body=html.encode('utf-8'), encoding='utf-8', request=request) ``` 所以我目前能想到的是可否参照2.1的方法对网页加载运行到endebug时进行暂停,然后再重写JS方法,但是具体方法不知道怎么写。 或者针这种情况是否有更好的策略,希望有大神指点下,感谢!!!

python爬虫手动输入验证码应该用到什么库和技术?

各位技术大牛,小弟初学python遇到验证码的问题。当页面翻页到下一页时需要进行验证码识别验证才能打开页面。本人想实现自动翻页到下一页时等待手工输入验证码提交,然后再自动爬取数据或者设置某个按键(如空格键)利用按键启动单页的爬虫程序。初步学习了selenium库没有找到自动与手动相互切换的方法,请各位大神提供一些经验或者技术贴给小弟一些提示。 我的目标网页是http://www.bjcourt.gov.cn/cpws/index.htm?st=1&q=&sxnflx=0&prompt=&dsrName=&ajmc=&ajlb=&jbfyId=&zscq=&ay=&ah=&cwslbmc=&startCprq=&endCprq=&page=11 只有翻页到11页开始每次翻页需要验证码输入。 初次提问,表达不清楚的地方请大家原谅。还需要我提供什么信息或者想进一步交流可以私信我或者直接留言。 先提前谢谢各位能够在百忙之中抽出时间阅读我的问题,如果有老哥愿意帮帮忙,更是感激不尽。 补充:还有一个问题,在另一个目标爬取过程中,手动切换到下一页并没有验证码的验证过程,但爬取时收到的源代码显示网页本身是被JS处理过的需要验证码验证。这种问题可以使用selenium解决吗。 网页url:http://www.bjcourt.gov.cn/zxxx/indexOld.htm?st=1&zxxxlx=100013001&bzxrlx=&bzxrxm=&zrr=&frhqtzz=&jbfyId=&ah=&dqxh=6&page=21

python下用selenium的webdriver包如何获得下一页新打开页面的html源代码呢

python下用selenium的webdriver包已经打开下一页了可是并不能获取当前的页面源代码 还是之前打开的页面的代码,求支招。。

用python爬虫登陆网页时网页的重定向问题

用python爬虫登陆一个网站 用urlopen打开后 打印获得的内容发现返回的一直是登陆界面 检查了cookie,表单内容的编码都是正确的 在网页上登陆后抓包发现返回的是一个302重定向 这个重定向是导致返回内容一直是登陆界面的原因吗?如果是的话应该怎么处理?

Python爬虫针对某网站自动签到思路

目标网站:yangjuan.cc 点击自动签到后,分析不出网站使用的方式完成签到操作。希望能和大佬们进行探讨,完成操作,希望只使用Scrapy不适用Selenium。

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

C++(数据结构与算法)78:---分而治之

一、分而治之的思想 分而治之方法与软件设计的模块化方法非常相似 分而治之通常不用于解决问题的小实例,而要解决一个问题的大实例。一般步骤为: ①把一个大实例分为两个或多个更小的实例 ②分别解决每个小实例 ③把这些小实例的解组合成原始大实例的解 二、实际应用之找出假币 问题描述 一个袋子有16个硬币,其中只有一个是假币,这个假币比其他的真币重量轻(其他所有真币的重量都是相同的)...

springboot+jwt实现token登陆权限认证

一 前言 此篇文章的内容也是学习不久,终于到周末有时间码一篇文章分享知识追寻者的粉丝们,学完本篇文章,读者将对token类的登陆认证流程有个全面的了解,可以动态搭建自己的登陆认证过程;对小项目而已是个轻量级的认证机制,符合开发需求;更多精彩原创内容关注公主号知识追寻者,读者的肯定,就是对作者的创作的最大支持; 二 jwt实现登陆认证流程 用户使用账号和面发出post请求 服务器接受到请求后使用私...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

win10暴力查看wifi密码

刚才邻居打了个电话说:喂小灰,你家wifi的密码是多少,我怎么连不上了。 我。。。 我也忘了哎,就找到了一个好办法,分享给大家: 第一种情况:已经连接上的wifi,怎么知道密码? 打开:控制面板\网络和 Internet\网络连接 然后右击wifi连接的无线网卡,选择状态 然后像下图一样: 第二种情况:前提是我不知道啊,但是我以前知道密码。 此时可以利用dos命令了 1、利用netsh wlan...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

!大部分程序员只会写3年代码

如果世界上都是这种不思进取的软件公司,那别说大部分程序员只会写 3 年代码,恐怕就没有程序员这种职业。

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

早上躺尸,晚上干活:硅谷科技公司这么流行迟到?

硅谷科技公司上班时间OPEN早已不是什么新鲜事,早九晚五是常态,但有很多企业由于不打卡,员工们10点、11点才“姗姗来迟”的情况也屡见不鲜。 这种灵活的考勤制度为人羡慕,甚至近年来,国内某些互联网企业也纷纷效仿。不过,硅谷普遍弹性的上班制度是怎么由来的呢?这种“流行性迟到”真的有那么轻松、悠哉吗? 《动态规划专题班》 课程试听内容: 动态规划的解题要领 动态规划三大类 求最值/计数/可行性 常...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

立即提问
相关内容推荐