C#,使用xpath 无法采集网页内容

采集网址:https://www.taoguba.com.cn/Article/2523033/1

需采集内容:

图片说明

使用HtmlAgilityPack

时间xpath:
1、/html/body//span[contains(concat(' ', normalize-space(@class), ' '),' p_tatime ')]

2、//*[@id='new_wrap_container']/DIV[1]/DIV[2]/SPAN[2]

3、//SPAN[@class='p_tatime']

用上述xpath使用谷歌浏览器的xpath helper插件都可以采集到信息,但C#采集到的html都无法采集到时间。
请问哪位可以给个demo,C#实现的,能采集到标红的时间及文字内容

c#

2个回答

使用浏览器得到的xpath 中有一条为//SPAN[@class='p_tatime'],

该路径无法采集到时间信息,改为//span[@class='p_tatime']_可正确采集时间信息。

所以浏览器得到的xpath有时需要修改。

另外特别感谢:贵阳挖掘机马善福

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Net;
using System.Text.RegularExpressions;

namespace Q769122
{
    class Program
    {
        static void Main(string[] args)
        {
            WebClient wc = new WebClient();
            var html = wc.DownloadData("https://www.taoguba.com.cn/Article/2523033/1");
            var date = Regex.Match(Encoding.UTF8.GetString(html), @"\d{4}\-\d{2}-\d{2}\s\d{2}:\d{2}").Value;
            var slice = Regex.Match(Encoding.UTF8.GetString(html), @"(?is)(?<=\<\!\-\-\s主贴内容开始\s\-\-\>).*(?=\<\!\-\-\s主贴内容结束\s\-\-\>)").Value;
            Console.WriteLine(date);
            Console.WriteLine(slice);
        }
    }
}

图片说明

2019-07-14 08:09

                                                <div class="p_coten" id='first'
                                                        style="">
                                                        &nbsp;&nbsp;&nbsp;&nbsp;
&nbsp;&nbsp;
                                                        <b>确定自己的模式------
选股自己要的股------判断真假涨----下单试错-----对(错)-----加仓(止损)----自己
模式的顶部----出货。</b><br/>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<b>不要用
接力的模式,选套利的股,不要用套利的股,用来接力。</b><br/>&nbsp;&nbsp;&nbsp;&nb
sp;&nbsp;&nbsp;&nbsp;<b>先弄明白自己的模式,在找相关知识去选股。</b><br/>&nbsp;&
nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<b>不要整天,搞什么道什么术,云里雾里。搞自己
很NB一样,学费交多了自然就知道坑。</b>
                                                        <!-- 投票选项开始 -->
                                                        <div style="width: 100%;
">

                                                        </div>
                                                        <!-- 投票选项结束 -->
                                                </div>

Press any key to continue . . .
wiledog
wiledog 好的
7 个月之前 回复
caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 回复wiledog: 回头帮你看看吧,现在手上没有环境
7 个月之前 回复
wiledog
wiledog 采集那种列表的网页都没问题
7 个月之前 回复
wiledog
wiledog 用的HtmlAgilityPack
7 个月之前 回复
wiledog
wiledog HtmlDocument htmlDoc = new HtmlDocument(); htmlDoc.LoadHtml(strWebHtml); HtmlNode rootNode = htmlDoc.DocumentNode; // 选择根节点 HtmlNodeCollection nodes = rootNode.SelectNodes(XpathStr);
7 个月之前 回复
wiledog
wiledog HtmlDocument htmlDoc = new HtmlDocument(); htmlDoc.LoadHtml(strWebHtml); string hrefStr = null; HtmlNode rootNode = htmlDoc.DocumentNode; // 选择根节点 HtmlNodeCollection nodes = rootNode.SelectNodes(XpathStr);
7 个月之前 回复
caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 回复wiledog: 你的C#的代码怎么写的
7 个月之前 回复
wiledog
wiledog 正则取数据挺好,请问是否清楚xpath为什么取不出来
7 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
C#,使用xpath 无法采集网页内容,我发的问题为什么被删了?
![图片说明](https://img-ask.csdn.net/upload/201907/14/1563091365_50010.jpg)
用C#写的Xpath爬虫程序,添加功能 如何判断我获取到了最后一页?
![图片说明](https://img-ask.csdn.net/upload/201710/16/1508124107_560474.png)像图片这个,有首页位置和结束位置,如果我不要结束页码,意思是,我只需要输入首页页码,然后一直获取到最后一页的,我想的是用判断,连续多少次为空就停止获取,就提示到了最后一页这样,有老哥帮忙说下代码吗。 上面描述的是我爬虫更新的其中一个小功能,后续还要数据更新对比匹配,现在先是获取所有,然后之后的步骤就是:获取网站更新的数据和原数据库A对比,A数据库有,则不添加,如果没有,就添加,希望有老哥帮下忙
C# xpath SelectNode匹配到的节点找不到父节点
想删除xpath匹配到的节点,就需要父节点的RemoveChild方法,但是xpath匹配到的节点找不到其父节点,其父节点也找不到它。 ``` public int Delete(string where="") { XmlDocument xmlDoc = new XmlDocument(); xmlDoc.Load(path); XmlElement root = xmlDoc.DocumentElement; XmlNodeList recordNodes; if (where == "") recordNodes = root.GetElementsByTagName("record"); else { string xpath = "/data" + "/record[" + where + "]/*/parent::*"; recordNodes = root.SelectNodes(xpath); } while (recordNodes.Count > 0)//一边删索引会跟着变,所以用while { root.RemoveChild((XmlElement)recordNodes[0]); //((XmlElement)recordNodes[0]).ParentNode.RemoveChild(recordNodes[0]); } xmlDoc.Save(path); return recordNodes.Count; } ``` ![图片说明](https://img-ask.csdn.net/upload/201804/07/1523111208_335470.png) 注释掉的部分parentNode会报空指针异常 怎么找到父节点,或者怎么删除selectNode(xpath)匹配到的节点
C#使用HtmlAgilityPack 获取xpath节点时出错
``` HtmlAgilityPack.HtmlDocument doc = new HtmlAgilityPack.HtmlDocument(); doc.LoadHtml(htmlStr); HtmlNode node1 = doc.DocumentNode.SelectSingleNode("/html/body/table/tbody/tr/td/form/table[1]/tbody/tr[2]/td/table/tbody/tr[3]/td[1]/table/tbody/tr[1]/td"); Console.WriteLine(doc.DocumentNode.SelectSingleNode(node1.XPath); ``` node1能获取到结果 但是node1的xpath与检索放入的xpath不一样 返回了 /html[1]/body[1]/table[1]/tbody[1]/tr[1]/td[1]/form[1]/table[1]/tbody[1]/tr[2]/td[1]/table[1]/tbody[1]/tr[3]/td[1]/table[1]/tbody[1]/tr[1]/td[1] 求问
求助网页采集的Xpath问题
我想采集到下面这个黄色格子里的内容.但是网页上面这2行是相当于1行的. 内容是:<td><span class="bd_btm">9</span>13</td> 我用xpath://table[@class='pub_table']/tbody[1]/tr[2]/td[4]采集出来是913, 试了N次,都不能单独的采集出来13. 我只想采集13,这个应该怎么弄啊? 这个是网址:http://odds.500.com/fenxi/bifen-869554.shtml 就是 表格左上角的 9 和13 ![图片说明](https://img-ask.csdn.net/upload/201910/30/1572411178_862485.jpg)
关于python,xpath采集过微博数据的问题
微博数据节点很深(多层),感觉xpath无法定位采集数据啊!求python-xpath采集过微博数据的大神指导一下。给我举个例子。例如:采集微博的发表的时间 把代码放在答案里。谢谢了!大神
C# ListView 详细信息视图空白
winform 运行程序后Listview有数据,但是切换到详细信息视图就空白了,其他视图全都正常,不知道是什么原因? 数据全都没问题的 链接:https://pan.baidu.com/s/1fR4isB2wspIO7ybBTxSwjw 提取码:lno6 项目我放在了百度, 各位大佬帮我看一下 ``` namespace BookMarksMessages { public partial class Root : Form { public Root() { InitializeComponent(); TreeNode treeNode1 = new TreeNode("根目录"); treeNode1.Text = "根目录"; Directory.Nodes.AddRange(new TreeNode[] { treeNode1}); //BookMarksList.GridLines = true;//显示行与行之间的分隔线 //BookMarksList.FullRowSelect = true;//要选择就是一行 } private void Under_Development_Click(object sender, EventArgs e) { MessageBox.Show("此功能正在开发中...\n敬请期待","开发中...",0); } private void List_Switch(object sender, EventArgs e) { string view = (sender as ToolStripMenuItem).Name.ToString(); this.BookMarksList.View = (View)Enum.Parse(typeof(View), view); } private void ExportToHTML_Click(object sender, EventArgs e) { SaveFileDialog saveFile = new SaveFileDialog(); saveFile.Filter = "所有文件(*.*)|*.*|HTML文件(*.html)|*.html"; //保存时为之前的目录 saveFile.RestoreDirectory = true; //保存文件对话框的默认保存类型,默认索引从1开始 saveFile.FilterIndex = 2; if (saveFile.ShowDialog() == DialogResult.OK) { try { FileStream file = new FileStream(saveFile.FileName,FileMode.Create,FileAccess.Write,FileShare.Write); string str = "测试文本"; //字符串转byte[] byte[] bytes = new UTF8Encoding(true).GetBytes(str); //写入字符串 file.Write(bytes, 0, bytes.Length); file.Close(); MessageBox.Show("保存成功!"); } catch (Exception ex) { MessageBox.Show("文件保存错误:\n" + ex); } } } private void ImportFromHTML_Click(object sender, EventArgs e) { OpenFileDialog openFile = new OpenFileDialog(); //设定只能打开HTML文件,文件类型不用加()不然会出错 openFile.Filter = "HTML文件(*.html)|*.html"; //打开时为之前的目录 openFile.RestoreDirectory = true; if (openFile.ShowDialog() == DialogResult.OK) { try { //打开文件,参数列表: 文件名,打开模式,打开权限,其他可以访问此文件的权限 FileStream file = File.Open(openFile.FileName, FileMode.Open, FileAccess.Read, FileShare.Read); //创建读取文件流实例,参数为: 已打开的文件流,编码方式,一般为默认(操作系统当前的编码) StreamReader sr = new StreamReader(file, Encoding.Default); //读取文件并保存到str字符串 string str = sr.ReadToEnd(); HtmlWeb htmlWeb = new HtmlWeb(); HtmlAgilityPack.HtmlDocument document = new HtmlAgilityPack.HtmlDocument(); //document.Text获取内容 document.LoadHtml(str); //分别用xpath和正则获取内容 //练习 #region 正则 //Regex reg = new Regex("HREF=\"([^\"]+)\""); //MatchCollection result = reg.Matches(document.Text); //string href = ""; //foreach (Match m in result) //{ // reg = new Regex("\".+\""); // Match a = reg.Match(m.ToString()); // href = href + a.ToString() + Environment.NewLine; //} //reg = new Regex("[^\"]+"); //result = reg.Matches(href); //string href1 = ""; //foreach (Match m in result) { // href1 = href1 + m.ToString() + Environment.NewLine; //} #endregion #region xpath HtmlNodeCollection htmlNodes = document.DocumentNode.SelectNodes("//a[@href]"); if (htmlNodes != null) { BookMarksList.Clear(); foreach (HtmlNode n in htmlNodes) { HtmlAttribute hrefAtt = n.Attributes["href"]; ListViewItem item = new ListViewItem(new string[] { n.InnerText.Trim(), hrefAtt.Value }); BookMarksList.Items.Add(item); } } #endregion //关闭读取文件流 sr.Close(); //关闭打开文件流 file.Close(); } catch (Exception ex){//错误处理 MessageBox.Show("文件打开错误:\n"+ex.ToString()); } } } } } ```
c# webservice 天气 无法导入wsdl
![](C:\Users\Administrator\Desktop\QQ图片20141205185414.jpg) 想做一个天气预报结果碰到的这问题,在别的电脑也是,webservice的引用 警告 1 自定义工具警告: 无法导入 wsdl:binding 详细信息: 未处理命名空间“http://schemas.xmlsoap.org/wsdl/http/”中必需的 WSDL 扩展元素“binding”。 错误来源的 XPath: //wsdl:definitions[@targetNamespace='http://WebXml.com.cn/']/wsdl:binding[@name='WeatherWebServiceHttpGet'] G:\csdn下载\WindowsFormsApplication2\WindowsFormsApplication2\WindowsFormsApplication2\Service References\Weather\Reference.svcmap 1 1 callWebservice
python xpath 如何定位红框内的内容?该内容经常变化
![图片说明](https://img-ask.csdn.net/upload/202001/20/1579493400_877813.png) python xpath 如何定位红框内的内容?标签内容20201171355000531431经常变化
Xpath抓取网页数据使用实例
有那位大神有用xpath抓取网页数据的实例给发一个。现在我要从某个页面提取某个数据,用snoopy做的时候由于请求频繁,文章列表页不显示。所以不能继续往下抓取数据
python3中使用xpath无法定位,为什么一直返回空列表?
这几天在学习xpath的时候发现无法正确定位,返回的div_list都是空列表,但response信息是有正确返回的。可是怎么检查也没发现错误,希望大佬们麻烦看看,谢谢。 python版本3.6. ``` def select_html(self,response): #筛选网页信息 html = etree.HTML(response) #分组 div_list = html.xpath("//div[@id='content-left']/div") print(div_list) for line in div_list: data = {} data['content'] = line.xpath(".//div[@class='content']/span/text()") data['stats'] = line.xpath(".//div[@class='stats']/span[@class='stats-vote']/i/text()") data['comment_number'] = line.xpath(".//span[@class='stats-comments']/a/i/text()") data['img'] = 'https:'+ line.xpath(".//div[@class='thumb']/a/img/@src") ``` 爬的是糗事百科的内容,下面是糗事百科的html截图: ![图片说明](https://img-ask.csdn.net/upload/201901/11/1547197771_747866.png) 另附上糗百原址: https://www.qiushibaike.com/hot/page/
Python+XPath网页爬虫问题
我希望制作百度贴吧的一个小爬虫,爬取内容包括一个帖子中的发帖人、发帖内容,测试网页为https://tieba.baidu.com/p/3905531791,爬取1-5页的内容,代码如下: ``` # -*- coding:utf-8 -*- from lxml import etree from multiprocessing.dummy import Pool as ThreadPool import requests import re # import json import sys reload(sys) sys.setdefaultencoding('utf-8') def write(content): f.writelines(u'回帖人:'+str(content['user_name'])+'\n') f.writelines(u'回帖内容:'+unicode(content['content'])+'\n') def spider(url): html = requests.get(url) # print html.text selector = etree.HTML(html.text) content_field = selector.xpath('//div[@class="l_post l_post_bright j_l_post clearfix "]') item = {} for each in content_field: print content_field[0] print each author = each.xpath('//*/li[@class="d_name"]/a/text()')[0] content = each.xpath('//*/div[@class="p_content "]/cc/div/text()')[0] num = each.xpath('//*/div[@class="post-tail-wrap"]/span[@class="tail-info"]/text()') print content print author item['user_name'] = author item['content'] = content write(item)** if __name__ == '__main__': pool = ThreadPool(4) f = open('content.txt','w') page=[] for i in range(1,6): newpage = 'https://tieba.baidu.com/p/3905531791?pn=' + str(i) page.append(newpage) results = pool.map(spider,page) pool.close() pool.join() f.close() ``` 但问题出现在,每次for循环中提取的信息都一样,每一页的发帖人和发帖内容都一样 如下: 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:末日灬圣帝君王 回帖内容: 这个支持一下 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 回帖人:lis945945 回帖内容: 马克一下。 不知道哪里出了问题。。。
Xpath爬虫获取数据不完整
尝试学习Xpath爬虫,通过Xpath helper获得数据99条,其中最后一条为“$PORT”,如图 ![图片说明](https://img-ask.csdn.net/upload/202001/15/1579057925_476322.png) 代码如下,使用这个Xpath路径只能返回"$PORT",其他98条数据没了....... ``` import requests import csv from lxml import etree url = 'https://www.msccruisesusa.com/webapp/wcs/stores/servlet/MSC_SearchCruiseManagerRedirectCmd?storeId=12264&langId=-1004&catalogId=10001&monthsResult=&areaFilter=MED%40NOR%40&embarkFilter=&lengthFilter=&departureFrom=01.11.2020&departureTo=04.11.2020&ships=&category=&onlyAvailableCruises=true&packageTrf=false&packageTpt=false&packageCrol=false&packageCrfl=false&noAdults=2&noChildren=0&noJChildren=0&noInfant=0&dealsInput=false&tripSpecificationPanel=true&shipPreferencesPanel=false&dealsPanel=false' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.117 Safari/537.36'} source = requests.get(url,headers=headers).content.decode('UTF-8') html = etree.HTML(source) portList = html.xpath('//*[@class="cr-city-name"]') for port in portList: print(port.xpath('string()')) ``` 求各位大神搭救,不知道是哪里出了问题......网上遍寻不到相似的情况
xpath无法定位,一直返回空列表
用xpath定位时一直无法定位,爬虫运行后li_list一直返回为空列表。但是,在谷歌浏览器中用xpath组件 可以定位到。检查了好久,一直没有找到问题所在,请大佬们帮忙看看。 python3.6版本 ``` def parse(self, response): #解析内容 li_list=response .xpath('//div[@class="dlzplistcon"]/ul') print(li_list ) #遍历列表,取出需要的数据 for oli in li_list : # 创建一个item item = JiuyeItem() #获取工作名称 jobname=oli.xpath('./li/div/a/text())').extract() print(jobname ) #获取工作链接 job_src=oli.xpath ('./li/div/a/@href').extract() print(job_src ) #获取公司名称 company=oli.xpath ('./li/div/div/a/text()').extract() #获取工作地点 place=oli .xpath ('./li/span[@class="r"]/text()').extract() #获取工资 pay=oli .xpath ('./li/span[@class="m"]text()').extract() ``` 爬取的网站是云南招聘网,下面是网站源码截图 ![图片说明](https://img-ask.csdn.net/upload/201905/14/1557843684_596262.png) 附上网站URL:http://www.ynzp.com/all/all/p5/?qtype=jobname&query=ktv
python爬虫中用xpath总是获取不到内容,希望大家帮我看看这两个网页中所需内容如何定位?谢谢~
用python爬虫,代码用xpath总是获取不到内容,希望大家帮我看看这两个网页中所需内容如何定位? 1.想要获取下面网址中的 债券基本信息 ,试了很多xpath的路径都失败了,都是空的_(¦3」∠)_,下面贴出测试用的代码,希望大家能帮我看下xpath那部分为什么不对(倒数第二行),也可能是其他问题o(╥﹏╥)o ``` import requests from lxml import html url = 'http://www.chinamoney.com.cn/chinese/zqjc/?bondDefinedCode=1000040278' page = requests.Session().get(url) tree = html.fromstring(page.text) result = tree.xpath('//tbody//tr//th/text()') print(result) ``` 2.想要获取下面网址中的一个href属性 (截图中阴影部分,就是查询结果的网址),也试了很多xpath的路径也都失败了,不知道@href前应该写什么。 ![图片说明](https://img-ask.csdn.net/upload/201903/27/1553648799_758977.png) ``` url = 'http://www.chinamoney.com.cn/chinese/qwjsn/?searchValue=14中关村集MTN001' ``` 第一次提问,有什么不合适的希望谅解,工作需要,时间比较急切,麻烦大家了。━((*′д`)爻(′д`*))━!!!!
pycharm工具中,使用xpath定位元素的时候报错是怎么回事?
![图片说明](https://img-ask.csdn.net/upload/202001/07/1578410473_110128.png) ![图片说明](https://img-ask.csdn.net/upload/202001/07/1578410321_550460.png)
如何使用xpath对带有xmlns属性的Html文档进行定位?
比如下面这种页面: <html class="no-js wholefoods-theme" xmlns:fb="http://ogp.me/ns/fb#" lang="en" version="HTML+RDFa 1.0" dir="ltr" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/terms/" xmlns:foaf="http://xmlns.com/foaf/0.1/" xmlns:og="http://ogp.me/ns#" xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#" xmlns:sioc="http://rdfs.org/sioc/ns#" xmlns:sioct="http://rdfs.org/sioc/types#" xmlns:skos="http://www.w3.org/2004/02/skos/core#" xmlns:xsd="http://www.w3.org/2001/XMLSchema#"> <head profile="http://www.w3.org/1999/xhtml/vocab"> <!--[if IE]><![endif]--> <meta charset="utf-8" />
xpath contains的用法
xml代码为:<TOCHeading>IUPAC Name</TOCHeading> 我使用xpath匹配为://TOCHeading[contains(.,'IUPAC Name')] 或//TOCHeading[contains(text(),'IUPAC Name')] 都匹配不到,请问正确的写法是什么啊?
网页中的#document中的代码如何获取?
在网页中会有这样的代码!用xpath怎样获取其中的#document中的代码? ![](https://img-ask.csdn.net/upload/201705/02/1493722437_503571.png)
相见恨晚的超实用网站
相见恨晚的超实用网站 持续更新中。。。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
python学习方法总结(内附python全套学习资料)
不要再问我python好不好学了 我之前做过半年少儿编程老师,一个小学四年级的小孩子都能在我的教学下独立完成python游戏,植物大战僵尸简单版,如果要肯花时间,接下来的网络开发也不是问题,人工智能也可以学个调包也没啥问题。。。。。所以python真的是想学就一定能学会的!!!! --------------------华丽的分割线-------------------------------- ...
兼职程序员一般可以从什么平台接私活?
这个问题我进行了系统性的总结,以下将进行言简意赅的说明和渠道提供,希望对各位小猿/小媛们有帮助~ 根据我们的经验,程序员兼职主要分为三种:兼职职位众包、项目整包和自由职业者驻场。 所谓的兼职职位众包,指的是需求方这边有自有工程师配合,只需要某个职位的工程师开发某个模块的项目。比如开发一个 app,后端接口有人开发,但是缺少 iOS 前端开发工程师,那么他们就会发布一个职位招聘前端,来配合公司一...
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 演示地点演示 html代码如下` music 这个年纪 七月的风 音乐 ` 然后就是css`*{ margin: 0; padding: 0; text-decoration: none; list-...
JAVA 基础练习题
第一题 1.查看以下代码,并写出结果 public class Test01 { public static void main(String[] args) { int i1 = 5; boolean result = (i1++ &gt; 5) &amp;&amp; (++i1 &gt; 4); System.out.println(result); Sy...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
通俗易懂地给女朋友讲:线程池的内部原理
餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”
C++知识点 —— 整合(持续更新中)
本文记录自己在自学C++过程中不同于C的一些知识点,适合于有C语言基础的同学阅读。如果纰漏,欢迎回复指正 目录 第一部分 基础知识 一、HelloWorld与命名空间 二、引用和引用参数 2.1引用的定义 2.2 将引用用作函数参数 2.3 将引用用于类对象 2.4 引用和继承 2.5 何时使用引用参数 2.6 引用和指针的区别 三、内联函数 四、默认参数的...
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
将代码部署服务器,每日早上定时获取到天气数据,并发送到邮箱。 也可以说是一个小型人工智障。 知识可以运用在不同地方,不一定非是天气预报。
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
Python实例大全(基于Python3.7.4)
博客说明: 这是自己写的有关python语言的一篇综合博客。 只作为知识广度和编程技巧学习,不过于追究学习深度,点到即止、会用即可。 主要是基础语句,如三大控制语句(顺序、分支、循环),随机数的生成,数据类型的区分和使用; 也会涉及常用的算法和数据结构,以及面试题相关经验; 主体部分是针对python的数据挖掘和数据分析,主要先攻爬虫方向:正则表达式匹配,常用数据清洗办法,scrapy及其他爬虫框架,数据存储方式及其实现; 最后还会粗略涉及人工智能领域,玩转大数据与云计算、进行相关的预测和分析。
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
机械转行java自学经历,零基础学java,血泪总结的干货
机械转行java自学经历,零基础学java,血泪总结的干货 据说,再恩爱的夫妻,一生中都有100次想离婚的念头和50次想掐死对方的冲动。 求职路上亦是如此,打开这篇文章,相信你也有转行的想法。和身边的朋友聊过,入职后的他们,或多或少对现在的职位都有些不满,都有过转行的冲动。 可他们只是想,而我真的这样做了。 下面就介绍下我转行的血泪史。 我为什么要转行 高中复读了一年,考了个双非院校的机械。当时...
刷了几千道算法题,这些我私藏的刷题网站都在这里了!
遥想当年,机缘巧合入了 ACM 的坑,周边巨擘林立,从此过上了"天天被虐似死狗"的生活… 然而我是谁,我可是死狗中的战斗鸡,智力不够那刷题来凑,开始了夜以继日哼哧哼哧刷题的日子,从此"读题与提交齐飞, AC 与 WA 一色 ",我惊喜的发现被题虐既刺激又有快感,那一刻我泪流满面。这么好的事儿作为一个正直的人绝不能自己独享,经过激烈的颅内斗争,我决定把我私藏的十几个 T 的,阿不,十几个刷题网...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看...
【Linux系统编程】Linux信号列表
00. 目录 文章目录00. 目录01. Linux信号编号02. 信号简介03. 特殊信号04. 附录 01. Linux信号编号 在 Linux 下,每个信号的名字都以字符 SIG 开头,每个信号和一个数字编码相对应,在头文件 signum.h 中,这些信号都被定义为正整数。信号名定义路径:/usr/include/i386-linux-gnu/bits/signum.h 要想查看这些信号和...
JavaScript 为什么能活到现在?
作者 | 司徒正美 责编 |郭芮 出品 | CSDN(ID:CSDNnews) JavaScript能发展到现在的程度已经经历不少的坎坷,早产带来的某些缺陷是永久性的,因此浏览器才有禁用JavaScript的选项。甚至在jQuery时代有人问出这样的问题,jQuery与JavaScript哪个快?在Babel.js出来之前,发明一门全新的语言代码代替JavaScript...
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
Python 编程开发 实用经验和技巧
Python是一门很灵活的语言,也有很多实用的方法,有时候实现一个功能可以用多种方法实现,我这里总结了一些常用的方法和技巧,包括小数保留指定位小数、判断变量的数据类型、类方法@classmethod、制表符中文对齐、遍历字典、datetime.timedelta的使用等,会持续更新......
借助AI力量,谷歌解开生命奥秘?
全文共4484字,预计学习时长8分钟 Paweł Czerwiński发布在 Unsplash上的原图 假如疾病不复存在会发生什么?如果我们能像大自然一样迅速获取能量又会发生什么?要是我们能够在极短时间内循环塑料、废油、或其它的一些物质呢?如果人类能够解开生命的奥秘,那么以上这些想象将在未来成为现实。人工智能企业DeepMind的数据科学分析师日前在此领域有了重大发现。以下为具体内容:...
吐血推荐珍藏的Visual Studio Code插件
作为一名Java工程师,由于工作需要,最近一个月一直在写NodeJS,这种经历可以说是一部辛酸史了。好在有神器Visual Studio Code陪伴,让我的这段经历没有更加困难。眼看这段经历要告一段落了,今天就来给大家分享一下我常用的一些VSC的插件。 VSC的插件安装方法很简单,只需要点击左侧最下方的插件栏选项,然后就可以搜索你想要的插件了。 下面我们进入正题 Material Theme ...
相关热词 c#委托 逆变与协变 c#新建一个项目 c#获取dll文件路径 c#子窗体调用主窗体事件 c# 拷贝目录 c# 调用cef 网页填表c#源代码 c#部署端口监听项目、 c#接口中的属性使用方法 c# 昨天
立即提问