用python提取div里的文本

import requests
from bs4 import BeautifulSoup
import pprint
import json
url="http://www.miaomu.com/qyml/default.asp"
r= requests.get(url)
html=r.content.decode('gbk','ignore')
soup=BeautifulSoup(html,"html.parser")
articles=soup.find_all("div",{"class":"gyjtnr"})
articles图片说明

2个回答

可以参考下

# -*- coding:utf-8 -*-

import requests
from lxml import etree
from pprint import pprint

def get_html(url):
    headers = {"User-Agent":"Mozilla/5.0 (compatible; MSIE 9.0; AOL 9.0; Windows NT 6.0; Trident/5.0)",}
    r = requests.get(url,headers=headers)
    return r.content.decode('gb2312','ignore')

def parse_html(text):
    infos = {}
    html = etree.HTML(text)
    datas = html.xpath("//div[@class='gynr']/div[@class='gyjtnr']")
    for index,data in enumerate(datas,1):
        name = html.xpath("//div[@class='gynr']/p[%s]//b/text()" % index)[0]
        content = ''.join(data.xpath("./text()"))
        if name not in infos.keys():
            infos[name] = content
    return infos


if __name__ == '__main__':
    url="http://www.miaomu.com/qyml/default.asp"
    html = get_html(url=url)
    if html:
        infos = parse_html(text=html)
        pprint(infos)

所以你是问什么...

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
怎么用Python读取新浪乐库的新歌?
我现在只会读HTML提取字符串中的信息,可是新浪乐库http://music.sina.com.cn/library中的新歌列表在HTML文本中读不到: <!-- 歌库 begin --> <div class="list_Y ml30t10"> <ul class="clearfix" id="search_condition_card"> </ul> <p id="search_newalbums_total"></p> </div> <!-- 选项卡A begin --> <div class="tab_A marginTAB"> <ul> <li class="current"><a class="flag_toggle" show_flag="0" href="javascript:;">全部</a></li> <input type="hidden" name="flag" id="flag" value="0" /> <input type="hidden" name="area" id="area" value="0" /> <input type="hidden" name="style" id="style" value="0" /> <input type="hidden" name="corp" id="corp" value="0" /> <input type="hidden" name="datetime" id="datetime" value="0" /> <input type="hidden" name="current_sinaid" id="current_sinaid" value="0" /> <span id="yueku_newalbums_data"></span> <li><a class="flag_toggle" show_flag="1" href="javascript:;">乐库推荐</a></li> </ul> <div class="clear"></div> </div> 请问这种情况下我该如何用Python读取到页面中的新歌歌名呢?谢谢!
新手写的python代码段,求大佬帮忙看看
这是我一步一步的注释然后用print尝试输出找到出问题的位置但是就是不懂是为什么,这个 小程序最后能运行,但是只能在txt文件里面写50章内容,然后就会报错,网上推到下面这一段代码出问题 ``` chapter_content = re.findall(r'style5\(\);</script>(.*?);<script type="text/', chapter_html)``` 这里可以取到每一章小说文本总共一千多章小说都可以取到,然而数据处理之后是放在 [] 列 表里面,但是下一步需要用replace替换里面的不需要的各种符号,但是replace()不可以对列表 用,就需要把列表里面的东西都取出来,网上的教程就是在上面那段代码最后加上[0]就可以取 出来了,但是取出来之前可以全部内容都拿到,加上[0]之后就可以用replace()替换,但是就只能取到50章就报错了 错误提示 ```Traceback (most recent call last): File "D:/Python/untitled/爬虫3.py", line 31, in <module> chapter_content = re.findall(r'style5\(\);</script>(.*?);<script type="text/', chapter_html)[0] IndexError: list index out of range ``` ```Traceback (most recent call last): ## ## ## File "D:/Python/untitled/爬虫3.py", line 31, in <module> ## chapter_content = re.findall(r'style5\(\);</script>(.*?);<script type="text/', chapter_html)[0] ## IndexError: list index out of range``` ## ## ## ## ## ## ## ## ## #!/user/bin/env python ## # _*_ coding:utf-8 _*_ ## import requests ## import re ## url = 'http://www.quanshuwang.com/book/106/106281' ## # 发送http请求 ## response = requests.get(url) ## response.encoding = 'gbk' ## html = response.text ## # print(html) ## title = re.findall(r'</span><strong>(.*?)</strong>', html)[0] ## # print(title)[0] ## ## dl = re.findall(r'<DIV class="clearfix dirconone">(.*?)</DIV> ', html, re.S)[0] ## chapter_info_list = re.findall(r'<li><a href="(.*?)" title=".*?">(.*?)</a></li>', dl) ## ## fb = open('%s.txt' % title, 'w', encoding='utf-8') # 中文内容encoding='utf-8' ## ## for chapter_info in chapter_info_list: ## chapter_title = chapter_info[1] ## chapter_url = chapter_info[0] ## # print(chapter_title, chapter_url) ## ## chapter_response = requests.get(chapter_url) ## chapter_response.encoding = 'gbk' ## chapter_html = chapter_response.text ## # print(chapter_html) ## # 提取数据 ## chapter_content = re.findall(r'style5\(\);</script>(.*?);<script type="text/', chapter_html) ## print(chapter_content) ## ## ## ## ## # chapter_content = chapter_content.replace('&nbsp;&nbsp;&nbsp;&nbsp;', '') ## # chapter_content = chapter_content.replace('<br />', '') ## ## # print(chapter_content) ## ## # 7写入文件 ## # with open('%s.txt' % title, "w", encoding='utf-8') as fb: ## # fb.write(chapter_title) ## # fb.write(chapter_content) ## # fb.write('\n') ## ## # 方法二 ## # fb.write(chapter_title) ## # fb.write(chapter_content) ## # fb.write('\n') ## print('正在下载%s' % chapter_title) ## # fb.closed() ```
为什么xpath()方法就提取不了a标签中的href属性内容呢?
我的代码是这样的: 方案一(详细版): ``` file = response.xpath('//*[@id="main-xm-content"]/table/tbody/tr[2]/td/table/tbody/tr[3]/td/table/tbody/tr/td/table/tbody/tr[3]/td[2]/a/@href').extract() ``` 方案二(精简准确版): ``` file = response.xpath(''//div[@id="main-xm-content"]/table//table//table//table//a//@href') ``` 网页结构大致是这样的: ``` <table width="900" border="0" cellspacing="0" cellpadding="0"> <tbody> <tr>...</tr> <tr>...</tr> <tr> <td width="25">&nbsp;</td> <td height="20"> <a href="this_is_a_link.gif">这是文本内容.pdf</a> </td> </tr> </tbody> </table> ``` 但是两种操作的结果不约而同地都是这样的: ``` >>> file >>>[] ``` 我很纳闷,这个办法用在其他网页都没出过问题,怎么一到这里就提取不了了呢?
python爬虫时为什么网页源码经过xpth处理后无法解析了呢
## 在爬取一个小说网站的时候我发现在网页的response中可以看到相关的值,但是在获取的时候就出现了问题 ### 具体问题是这样的, - 爬取的网站链接为:https://www.qiushuzw.com/t/38890/10253657.html ``` from lxml import etree import requests class Xiaoshuospider: def __init__(self): self.start_url = 'https://www.qiushuzw.com/t/38890/10253656.html' self.headers = { "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3", "Accept-Encoding": "gzip, deflate, br", "Accept-Language": "zh-CN,zh;q=0.9,en;q=0.8", "Cache-Control": "max-age=0", "Connection": "keep-alive", "Cookie": "BAIDU_SSP_lcr=https://www.80txt.com/txtml_38890.html; Hm_lvt_c0ce681e8e9cc7e226131131f59a202c=1554447305; Hm_lpvt_c0ce681e8e9cc7e226131131f59a202c=1554447305; UM_distinctid=169ec4788554ea-0eba8d0589d979-1a201708-15f900-169ec4788562c1; CNZZDATA1263995655=929605835-1554443240-https%253A%252F%252Fwww.80txt.com%252F%7C1554443240", "Host": "www.qiushuzw.com", "If-Modified-Since": "Thu, 31 Jan 2019 03:00:17 GMT", "If-None-Match": 'W/"5c5264c1 - 3f30"', "Referer": "https://www.80txt.com/txtml_38890.html", "Upgrade-Insecure-Requests": "1", "User-Agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36", } def parse(self): res = requests.get(self.start_url,headers=self.headers).content.decode() html = etree.HTML(res) content = html.xpath("div[@class='book_content']/text()") print(content) def run(self): self.parse() if __name__ == '__main__': xiaoshuo = Xiaoshuospider() xiaoshuo.run() ``` - 根据xpath规则我将这些信息处理以后无法找到相应小说文本内容,小说的详细信息无法使用xpath提取出来 ## 有没有哪位大佬也遇到相应的问题
请问no module named xxx.spiders报错怎么解决
我初学scrapy爬虫,在github上下载了一个工程用pycharm运行了一下是没有问题的,然后在cmd中通过scrapy crawl xiaohuar 的命令运行爬虫的时候出现了 no module named xiaohuar.spiders 的报错 代码如下: #coding=utf-8 import scrapy import re import os import urllib from scrapy.selector import Selector from scrapy.http import HtmlResponse, Request class Xiaohuar_spider(scrapy.spiders.Spider): name = "xiaohuar" allowed_domains = ["xiaohuar.com"] # 搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页 start_urls = ["http://www.xiaohuar.com/list-1-1.html"] # 该函数名不能改变,因为Scrapy源码中默认callback函数的函数名就是parse def parse(self, response): current_url = response.url # 爬取时请求的url body = response.body # 返回的html unicode_body = response.body_as_unicode() # 返回的html unicode hxs = Selector(response) # 创建查询对象,HtmlXPathSelector已过时 if re.match('http://www.xiaohuar.com/list-1-\d+.html', response.url): # 如果url能够匹配到需要爬取的url,就爬取 items = hxs.xpath('//div[@class="item_list infinite_scroll"]/div') # 匹配到大的div下的所有小div(每个小div中包含一个图片) for i in range(len(items)): # 遍历div个数 src = hxs.xpath( '//div[@class="item_list infinite_scroll"]/div[%d]//div[@class="img"]/a/img/@src' % i).extract() # 查询所有img标签的src属性,即获取校花图片地址 name = hxs.xpath( '//div[@class="item_list infinite_scroll"]/div[%d]//div[@class="img"]/span/text()' % i).extract() # 获取span的文本内容,即校花姓名 school = hxs.xpath( '//div[@class="item_list infinite_scroll"]/div[%d]//div[@class="img"]/div[@class="btns"]/a/text()' % i).extract() # 校花学校 if src: absoluteSrc = "http://www.xiaohuar.com" + src[ 0] # 拼接实际路径,因为.extract()会返回一个list,但是我们是依次取得div,所以是取第0个 file_name = "%s_%s.jpg" % (school[0], name[0]) # 拼接文件名,学校_姓名 file_path = os.path.join("E:\file", file_name) # 拼接这个图片的路径下 urllib.urlretrieve(absoluteSrc, file_path) # 接收文件路径和需要保存的路径,会自动去文件路径下载并保存到我们指定的本地路径 all_urls = hxs.xpath('//a/@href').extract() # 提取界面所有的url for url in all_urls: # 遍历获得的url,如果满足条件,继续爬取 if url.startswith('http://www.xiaohuar.com/list-1-'): yield Request(url, callback=self.parse) ![图片说明](https://img-ask.csdn.net/upload/201705/06/1494051852_23735.png) 整个工程的文件就是这样 请问各位大神这个问题出在哪里,怎么解决呢?
xpath匹配文本,并导出到excel
需要提取Product,Enabled Users下的内容,并让(比如:Web Reporter和右面的Enabled Users对应起来)目的就是要看一个product后面有多少用户。 ![图片说明](https://img-ask.csdn.net/upload/201704/05/1491384240_306589.png) ``` <DIV CLASS="page"> <br> <span class="boldblack">Auditing Details</span> </br> <span class="boldblack">Project Source:</span><span class="normblack"> FHD_Product<BR> </span> <br> <table cellspacing="0" cellpadding="2" width="80%" border="1" align="center"> <tr> <td class="topth2">Product</td><td class="topth2">Enabled Users</td><td class="topth2">Disabled Users</td> </tr> <tr> <td class="topth2">Web Reporter</td><td class="normtd">Allen Kong(allenk)<BR>Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>Lifang Liu(lifangl)<BR>linda ren(linda)<BR>lingling cao(linglingc)<BR>liping liu(lipingl)<BR>Peng Peng(pengp)<BR>Ping Liu(pingl)<BR>test(test)<BR>test_1(test_1)<BR>Wanyuan Li(wanyuanl)<BR>chao fu(chaof)<BR>Web User(chasity)<BR>Web User(huaixin)<BR>xue li(xuel1)<BR>yanhe(yanh1)<BR>yanqi li(yanqil)<BR>Yaqin Zhang(yaqinz)<BR>ying tian(yingt)<BR>Yuehua Zhang(yuehuaz)<BR>Zaixianpinkong(zaixianpinkong)<BR>dawei li(daweil)<BR>Hong Deng(hongd)<BR>Huiying Zhu(huiyingz)<BR>jiahuan liu(jiahuanl)<BR>Jie Zhou(jiez)<BR>John Zheng(johnz)<BR>Le Chang(lec)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Web Analyst</td><td class="normtd">Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>test(test)<BR>test_1(test_1)<BR>Web User(chasity)<BR>Web User(huaixin)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Web Professional</td><td class="normtd">Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>test_1(test_1)<BR>Web User(chasity)<BR>Web User(huaixin)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Office</td><td class="normtd">-<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Mobile Server</td><td class="normtd">-<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">MultiSource</td><td class="normtd">Bounty Tian(bounty)<BR>test(test)<BR>test_1(test_1)<BR>Web User(chasity)<BR>Web User(huaixin)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Distribution Services</td><td class="normtd"> <div class="smallblack bold">Users</div>Allen Kong(allenk)<BR>Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>Lifang Liu(lifangl)<BR>linda ren(linda)<BR>lingling cao(linglingc)<BR>liping liu(lipingl)<BR>Peng Peng(pengp)<BR>Ping Liu(pingl)<BR>test(test)<BR>test_1(test_1)<BR>Wanyuan Li(wanyuanl)<BR>chao fu(chaof)<BR>Web User(chasity)<BR>Web User(huaixin)<BR>xue li(xuel1)<BR>yanhe(yanh1)<BR>yanqi li(yanqil)<BR>Yaqin Zhang(yaqinz)<BR>ying tian(yingt)<BR>Yuehua Zhang(yuehuaz)<BR>Zaixianpinkong(zaixianpinkong)<BR>dawei li(daweil)<BR>Hong Deng(hongd)<BR>Huiying Zhu(huiyingz)<BR>jiahuan liu(jiahuanl)<BR>Jie Zhou(jiez)<BR>John Zheng(johnz)<BR>Le Chang(lec)<BR> <div class="smallblack bold">Contacts</div>-<BR> </td><td class="normtd"> <div class="smallblack bold">Users</div>-<BR> <div class="smallblack bold">Contacts</div>-<BR> </td> </tr> <tr> <td class="topth2">Transaction Services</td><td class="normtd">Allen Kong(allenk)<BR>Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>linda ren(linda)<BR>lingling cao(linglingc)<BR>liping liu(lipingl)<BR>Peng Peng(pengp)<BR>test(test)<BR>test_1(test_1)<BR>Wanyuan Li(wanyuanl)<BR>Web User(chasity)<BR>Web User(huaixin)<BR>chao fu(chaof)<BR>xue li(xuel1)<BR>yanhe(yanh1)<BR>yanqi li(yanqil)<BR>Yaqin Zhang(yaqinz)<BR>Yuehua Zhang(yuehuaz)<BR>Zaixianpinkong(zaixianpinkong)<BR>dawei li(daweil)<BR>Hong Deng(hongd)<BR>Huiying Zhu(huiyingz)<BR>jiahuan liu(jiahuanl)<BR>Jie Zhou(jiez)<BR>John Zheng(johnz)<BR>Le Chang(lec)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Command Manager</td><td class="normtd">-<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Object Manager</td><td class="normtd">-<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Analyst</td><td class="normtd">Bounty Tian(bounty)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Developer</td><td class="normtd">Bounty Tian(bounty)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Architect</td><td class="normtd">Leo Kuang(leok)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Integrity Manager</td><td class="normtd">-<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">OLAP Services</td><td class="normtd">Allen Kong(allenk)<BR>Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>Lifang Liu(lifangl)<BR>linda ren(linda)<BR>lingling cao(linglingc)<BR>liping liu(lipingl)<BR>Peng Peng(pengp)<BR>Ping Liu(pingl)<BR>test(test)<BR>test_1(test_1)<BR>Wanyuan Li(wanyuanl)<BR>chao fu(chaof)<BR>Web User(chasity)<BR>Web User(huaixin)<BR>xue li(xuel1)<BR>yanhe(yanh1)<BR>yanqi li(yanqil)<BR>Yaqin Zhang(yaqinz)<BR>ying tian(yingt)<BR>Yuehua Zhang(yuehuaz)<BR>Zaixianpinkong(zaixianpinkong)<BR>dawei li(daweil)<BR>Hong Deng(hongd)<BR>Huiying Zhu(huiyingz)<BR>jiahuan liu(jiahuanl)<BR>Jie Zhou(jiez)<BR>John Zheng(johnz)<BR>Le Chang(lec)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Report Services</td><td class="normtd">Allen Kong(allenk)<BR>Bounty Tian(bounty)<BR>Leo Kuang(leok)<BR>Lifang Liu(lifangl)<BR>linda ren(linda)<BR>lingling cao(linglingc)<BR>liping liu(lipingl)<BR>Peng Peng(pengp)<BR>Ping Liu(pingl)<BR>test(test)<BR>test_1(test_1)<BR>Wanyuan Li(wanyuanl)<BR>chao fu(chaof)<BR>Web User(chasity)<BR>Web User(huaixin)<BR>xue li(xuel1)<BR>yanhe(yanh1)<BR>yanqi li(yanqil)<BR>Yaqin Zhang(yaqinz)<BR>ying tian(yingt)<BR>Yuehua Zhang(yuehuaz)<BR>Zaixianpinkong(zaixianpinkong)<BR>dawei li(daweil)<BR>Hong Deng(hongd)<BR>Huiying Zhu(huiyingz)<BR>jiahuan liu(jiahuanl)<BR>Jie Zhou(jiez)<BR>John Zheng(johnz)<BR>Le Chang(lec)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Desktop</td><td class="normtd">Bounty Tian(bounty)<BR> </td><td class="normtd">-<BR> </td> </tr> <tr> <td class="topth2">Users without license association</td><td class="normtd">-<BR> </td><td class="normtd">-<BR> </td> </tr> </table> <BR> </DIV> ```
在中国程序员是青春饭吗?
今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...
【JSON解析】浅谈JSONObject的使用
简介 在程序开发过程中,在参数传递,函数返回值等方面,越来越多的使用JSON。JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,同时也易于机器解析和生成、易于理解、阅读和撰写,而且Json采用完全独立于语言的文本格式,这使得Json成为理想的数据交换语言。 JSON建构于两种结构: “名称/值”对的集合(A Collection of name/va...
《MySQL 性能优化》之理解 MySQL 体系结构
本文介绍 MySQL 的体系结构,包括物理结构、逻辑结构以及插件式存储引擎。
程序员请照顾好自己,周末病魔差点一套带走我。
程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。
一名大专同学的四个问题
【前言】   收到一封来信,赶上各种事情拖了几日,利用今天要放下工作的时机,做个回复。   2020年到了,就以这一封信,作为开年标志吧。 【正文】   您好,我是一名现在有很多困惑的大二学生。有一些问题想要向您请教。   先说一下我的基本情况,高考失利,不想复读,来到广州一所大专读计算机应用技术专业。学校是偏艺术类的,计算机专业没有实验室更不用说工作室了。而且学校的学风也不好。但我很想在计算机领...
复习一周,京东+百度一面,不小心都拿了Offer
京东和百度一面都问了啥,面试官百般刁难,可惜我全会。
Java 14 都快来了,为什么还有这么多人固守Java 8?
从Java 9开始,Java版本的发布就让人眼花缭乱了。每隔6个月,都会冒出一个新版本出来,Java 10 , Java 11, Java 12, Java 13, 到2020年3月份,...
达摩院十大科技趋势发布:2020 非同小可!
【CSDN编者按】1月2日,阿里巴巴发布《达摩院2020十大科技趋势》,十大科技趋势分别是:人工智能从感知智能向认知智能演进;计算存储一体化突破AI算力瓶颈;工业互联网的超融合;机器间大规模协作成为可能;模块化降低芯片设计门槛;规模化生产级区块链应用将走入大众;量子计算进入攻坚期;新材料推动半导体器件革新;保护数据隐私的AI技术将加速落地;云成为IT技术创新的中心 。 新的画卷,正在徐徐展开。...
轻松搭建基于 SpringBoot + Vue 的 Web 商城应用
首先介绍下在本文出现的几个比较重要的概念: 函数计算(Function Compute): 函数计算是一个事件驱动的服务,通过函数计算,用户无需管理服务器等运行情况,只需编写代码并上传。函数计算准备计算资源,并以弹性伸缩的方式运行用户代码,而用户只需根据实际代码运行所消耗的资源进行付费。Fun: Fun 是一个用于支持 Serverless 应用部署的工具,能帮助您便捷地管理函数计算、API ...
讲真,这两个IDE插件,可以让你写出质量杠杠的代码
周末躺在床上看《拯救大兵瑞恩》 周末在闲逛的时候,发现了两个优秀的 IDE 插件,据说可以提高代码的质量,我就安装了一下,试了试以后发现,确实很不错,就推荐给大家。 01、Alibaba Java 代码规范插件 《阿里巴巴 Java 开发手册》,相信大家都不会感到陌生,其 IDEA 插件的下载次数据说达到了 80 万次,我今天又贡献了一次。嘿嘿。 该项目的插件地址: https://github....
Python+OpenCV实时图像处理
目录 1、导入库文件 2、设计GUI 3、调用摄像头 4、实时图像处理 4.1、阈值二值化 4.2、边缘检测 4.3、轮廓检测 4.4、高斯滤波 4.5、色彩转换 4.6、调节对比度 5、退出系统 初学OpenCV图像处理的小伙伴肯定对什么高斯函数、滤波处理、阈值二值化等特性非常头疼,这里给各位分享一个小项目,可通过摄像头实时动态查看各类图像处理的特点,也可对各位调参、测试...
2020年一线城市程序员工资大调查
人才需求 一线城市共发布岗位38115个,招聘120827人。 其中 beijing 22805 guangzhou 25081 shanghai 39614 shenzhen 33327 工资分布 2020年中国一线城市程序员的平均工资为16285元,工资中位数为14583元,其中95%的人的工资位于5000到20000元之间。 和往年数据比较: yea...
为什么猝死的都是程序员,基本上不见产品经理猝死呢?
相信大家时不时听到程序员猝死的消息,但是基本上听不到产品经理猝死的消息,这是为什么呢? 我们先百度搜一下:程序员猝死,出现将近700多万条搜索结果: 搜索一下:产品经理猝死,只有400万条的搜索结果,从搜索结果数量上来看,程序员猝死的搜索结果就比产品经理猝死的搜索结果高了一倍,而且从下图可以看到,首页里面的五条搜索结果,其实只有两条才是符合条件。 所以程序员猝死的概率真的比产品经理大,并不是错...
害怕面试被问HashMap?这一篇就搞定了!
声明:本文以jdk1.8为主! 搞定HashMap 作为一个Java从业者,面试的时候肯定会被问到过HashMap,因为对于HashMap来说,可以说是Java集合中的精髓了,如果你觉得自己对它掌握的还不够好,我想今天这篇文章会非常适合你,至少,看了今天这篇文章,以后不怕面试被问HashMap了 其实在我学习HashMap的过程中,我个人觉得HashMap还是挺复杂的,如果真的想把它搞得明明白...
毕业5年,我问遍了身边的大佬,总结了他们的学习方法
我问了身边10个大佬,总结了他们的学习方法,原来成功都是有迹可循的。
python爬取百部电影数据,我分析出了一个残酷的真相
2019年就这么匆匆过去了,就在前几天国家电影局发布了2019年中国电影市场数据,数据显示去年总票房为642.66亿元,同比增长5.4%;国产电影总票房411.75亿元,同比增长8.65%,市场占比 64.07%;城市院线观影人次17.27亿,同比增长0.64%。 看上去似乎是一片大好对不对?不过作为一名严谨求实的数据分析师,我从官方数据中看出了一点端倪:国产票房增幅都已经高达8.65%了,为什...
推荐10个堪称神器的学习网站
每天都会收到很多读者的私信,问我:“二哥,有什么推荐的学习网站吗?最近很浮躁,手头的一些网站都看烦了,想看看二哥这里有什么新鲜货。” 今天一早做了个恶梦,梦到被老板辞退了。虽然说在我们公司,只有我辞退老板的份,没有老板辞退我这一说,但是还是被吓得 4 点多都起来了。(主要是因为我掌握着公司所有的核心源码,哈哈哈) 既然 4 点多起来,就得好好利用起来。于是我就挑选了 10 个堪称神器的学习网站,推...
这些软件太强了,Windows必装!尤其程序员!
Windows可谓是大多数人的生产力工具,集娱乐办公于一体,虽然在程序员这个群体中都说苹果是信仰,但是大部分不都是从Windows过来的,而且现在依然有很多的程序员用Windows。 所以,今天我就把我私藏的Windows必装的软件分享给大家,如果有一个你没有用过甚至没有听过,那你就赚了????,这可都是提升你幸福感的高效率生产力工具哦! 走起!???? NO、1 ScreenToGif 屏幕,摄像头和白板...
阿里面试,面试官没想到一个ArrayList,我都能跟他扯半小时
我是真的没想到,面试官会这样问我ArrayList。
曾经优秀的人,怎么就突然不优秀了。
职场上有很多辛酸事,很多合伙人出局的故事,很多技术骨干被裁员的故事。说来模板都类似,曾经是名校毕业,曾经是优秀员工,曾经被领导表扬,曾经业绩突出,然而突然有一天,因为种种原因,被裁员了,...
大学四年因为知道了这32个网站,我成了别人眼中的大神!
依稀记得,毕业那天,我们导员发给我毕业证的时候对我说“你可是咱们系的风云人物啊”,哎呀,别提当时多开心啦????,嗯,我们导员是所有导员中最帅的一个,真的???? 不过,导员说的是实话,很多人都叫我大神的,为啥,因为我知道这32个网站啊,你说强不强????,这次是绝对的干货,看好啦,走起来! PS:每个网站都是学计算机混互联网必须知道的,真的牛杯,我就不过多介绍了,大家自行探索,觉得没用的,尽管留言吐槽吧???? 社...
良心推荐,我珍藏的一些Chrome插件
上次搬家的时候,发了一个朋友圈,附带的照片中不小心暴露了自己的 Chrome 浏览器插件之多,于是就有小伙伴评论说分享一下我觉得还不错的浏览器插件。 我下面就把我日常工作和学习中经常用到的一些 Chrome 浏览器插件分享给大家,随便一个都能提高你的“生活品质”和工作效率。 Markdown Here Markdown Here 可以让你更愉快的写邮件,由于支持 Markdown 直接转电子邮...
看完这篇HTTP,跟面试官扯皮就没问题了
我是一名程序员,我的主要编程语言是 Java,我更是一名 Web 开发人员,所以我必须要了解 HTTP,所以本篇文章就来带你从 HTTP 入门到进阶,看完让你有一种恍然大悟、醍醐灌顶的感觉。 最初在有网络之前,我们的电脑都是单机的,单机系统是孤立的,我还记得 05 年前那会儿家里有个电脑,想打电脑游戏还得两个人在一个电脑上玩儿,及其不方便。我就想为什么家里人不让上网,我的同学 xxx 家里有网,每...
史上最全的IDEA快捷键总结
现在Idea成了主流开发工具,这篇博客对其使用的快捷键做了总结,希望对大家的开发工作有所帮助。
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
谁是华为扫地僧?
是的,华为也有扫地僧!2020年2月11-12日,“养在深闺人不知”的华为2012实验室扫地僧们,将在华为开发者大会2020(Cloud)上,和大家见面。到时,你可以和扫地僧们,吃一个洋...
AI 没让人类失业,搞 AI 的人先失业了
最近和几个 AI 领域的大佬闲聊 根据他们讲的消息和段子 改编出下面这个故事 如有雷同 都是巧合 1. 老王创业失败,被限制高消费 “这里写我跑路的消息实在太夸张了。” 王葱葱哼笑一下,把消息分享给群里。 阿杰也看了消息,笑了笑。在座几位也都笑了。 王葱葱是个有名的人物,21岁那年以全额奖学金进入 KMU 攻读人工智能博士,累计发表论文 40 余篇,个人技术博客更是成为深度学习领域内风向标。 ...
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆每天早上8:30推送 作者|Mr.K 编辑| Emma 来源|技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯...
作为一名大学生,如何在B站上快乐的学习?
B站是个宝,谁用谁知道???? 作为一名大学生,你必须掌握的一项能力就是自学能力,很多看起来很牛X的人,你可以了解下,人家私底下一定是花大量的时间自学的,你可能会说,我也想学习啊,可是嘞,该学习啥嘞,不怕告诉你,互联网时代,最不缺的就是学习资源,最宝贵的是啥? 你可能会说是时间,不,不是时间,而是你的注意力,懂了吧! 那么,你说学习资源多,我咋不知道,那今天我就告诉你一个你必须知道的学习的地方,人称...
那些年,我们信了课本里的那些鬼话
教材永远都是有错误的,从小学到大学,我们不断的学习了很多错误知识。 斑羚飞渡 在我们学习的很多小学课文里,有很多是错误文章,或者说是假课文。像《斑羚飞渡》: 随着镰刀头羊的那声吼叫,整个斑羚群迅速分成两拨,老年斑羚为一拨,年轻斑羚为一拨。 就在这时,我看见,从那拨老斑羚里走出一只公斑羚来。公斑羚朝那拨年轻斑羚示意性地咩了一声,一只半大的斑羚应声走了出来。一老一少走到伤心崖,后退了几步,突...
一个程序在计算机中是如何运行的?超级干货!!!
强烈声明:本文很干,请自备茶水!???? 开门见山,咱不说废话! 你有没有想过,你写的程序,是如何在计算机中运行的吗?比如我们搞Java的,肯定写过这段代码 public class HelloWorld { public static void main(String[] args) { System.out.println("Hello World!"); } ...
【蘑菇街技术部年会】程序员与女神共舞,鼻血再次没止住。(文末内推)
蘑菇街技术部的年会,别开生面,一样全是美女。
那个在阿里养猪的工程师,5年了……
简介: 在阿里,走过1825天,没有趴下,依旧斗志满满,被称为“五年陈”。他们会被授予一枚戒指,过程就叫做“授戒仪式”。今天,咱们听听阿里的那些“五年陈”们的故事。 下一个五年,猪圈见! 我就是那个在养猪场里敲代码的工程师,一年多前我和20位工程师去了四川的猪场,出发前总架构师慷慨激昂的说:同学们,中国的养猪产业将因为我们而改变。但到了猪场,发现根本不是那么回事:要个WIFI,没有;...
为什么程序猿都不愿意去外包?
分享外包的组织架构,盈利模式,亲身经历,以及根据一些外包朋友的反馈,写了这篇文章 ,希望对正在找工作的老铁有所帮助
Java校招入职华为,半年后我跑路了
何来 我,一个双非本科弟弟,有幸在 19 届的秋招中得到前东家华为(以下简称 hw)的赏识,当时秋招签订就业协议,说是入了某 java bg,之后一系列组织架构调整原因等等让人无法理解的神操作,最终毕业前夕,被通知调往其他 bg 做嵌入式开发(纯 C 语言)。 由于已至于校招末尾,之前拿到的其他 offer 又无法再收回,一时感到无力回天,只得默默接受。 毕业后,直接入职开始了嵌入式苦旅,由于从未...
世界上有哪些代码量很少,但很牛逼很经典的算法或项目案例?
点击上方蓝字设为星标下面开始今天的学习~今天分享四个代码量很少,但很牛逼很经典的算法或项目案例。1、no code 项目地址:https://github.com/kelseyhight...
Python全栈 Linux基础之3.Linux常用命令
Linux对文件(包括目录)有很多常用命令,可以加快开发效率:ls是列出当前目录下的文件列表,选项有-a、-l、-h,还可以使用通配符;c功能是跳转目录,可以使用相对路径和绝对路径;mkdir命令创建一个新的目录,有-p选项,rm删除文件或目录,有-f、-r选项;cp用于复制文件,有-i、-r选项,tree命令可以将目录结构显示出来(树状显示),有-d选项,mv用来移动文件/目录,有-i选项;cat查看文件内容,more分屏显示文件内容,grep搜索内容;>、>>将执行结果重定向到一个文件;|用于管道输出。
​两年前不知如何编写代码的我,现在是一名人工智能工程师
全文共3526字,预计学习时长11分钟 图源:Unsplash 经常有小伙伴私信给小芯,我没有编程基础,不会写代码,如何进入AI行业呢?还能赶上AI浪潮吗? 任何时候努力都不算晚。 下面,小芯就给大家讲一个朋友的真实故事,希望能给那些处于迷茫与徘徊中的小伙伴们一丝启发。(下文以第一人称叙述) 图源:Unsplash 正如Elsa所说,职业转换是...
强烈推荐10本程序员必读的书
很遗憾,这个春节注定是刻骨铭心的,新型冠状病毒让每个人的神经都是紧绷的。那些处在武汉的白衣天使们,尤其值得我们的尊敬。而我们这些窝在家里的程序员,能不外出就不外出,就是对社会做出的最大的贡献。 有些读者私下问我,窝了几天,有点颓丧,能否推荐几本书在家里看看。我花了一天的时间,挑选了 10 本我最喜欢的书,你可以挑选感兴趣的来读一读。读书不仅可以平复恐惧的压力,还可以对未来充满希望,毕竟苦难终将会...
非典逼出了淘宝和京东,新冠病毒能够逼出什么?
loonggg读完需要5分钟速读仅需 2 分钟大家好,我是你们的校长。我知道大家在家里都憋坏了,大家可能相对于封闭在家里“坐月子”,更希望能够早日上班。今天我带着大家换个思路来聊一个问题...
牛逼!一行代码居然能解决这么多曾经困扰我半天的算法题
春节假期这么长,干啥最好?当然是折腾一些算法题了,下面给大家讲几道一行代码就能解决的算法题,当然,我相信这些算法题你都做过,不过就算做过,也是可以看一看滴,毕竟,你当初大概率不是一行代码解决的。 学会了一行代码解决,以后遇到面试官问起的话,就可以装逼了。 一、2 的幂次方 问题描述:判断一个整数 n 是否为 2 的幂次方 对于这道题,常规操作是不断这把这个数除以 2,然后判断是否有余数,直到 ...
Spring框架|JdbcTemplate介绍
文章目录一、JdbcTemplate 概述二、创建对象的源码分析三、JdbcTemplate操作数据库 一、JdbcTemplate 概述 在之前的web学习中,学习了手动封装JDBCtemplate,其好处是通过(sql语句+参数)模板化了编程。而真正的JDBCtemplete类,是Spring框架为我们写好的。 它是 Spring 框架中提供的一个对象,是对原始 Jdbc API 对象的简单...
立即提问