python2.7中lxml安装后无法导入etree求教

图片说明
在lxml文件夹下etree是pyd后缀,是libxml2,libxslt这两个没安装好么

2个回答

先看安装lxml的时候有错误信息

哥们 用正则吧。用过xpath 感觉还是正则靠谱

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python3.5.0安装lxml,导入lxml.html和lxml.etree出错
系统是win7,安装的是python3.5.0版本,lxml安装的是lxml-3.7.1-cp35-cp35m-win_amd64.whl(通过pip安装的)。安装成功后import lxml没有报错,但import lxml.html 和 lxml.etree时就报错了,报错信息如下: >>> import lxml.html Traceback (most recent call last): File "<pyshell#11>", line 1, in <module> import lxml.html File "C:\Program Files\Python 3.5\lib\site-packages\lxml\html\__init__.py", line 54, in <module> from .. import etree File "type.pxd", line 9, in init lxml.etree (src\lxml\lxml.etree.c:220742) ValueError: builtins.type has the wrong size, try recompiling. Expected 840, got 864 >>> import lxml.etree Traceback (most recent call last): File "<pyshell#13>", line 1, in <module> import lxml.etree File "type.pxd", line 9, in init lxml.etree (src\lxml\lxml.etree.c:220742) ValueError: builtins.type has the wrong size, try recompiling. Expected 840, got 864
python2.7.3安装libxml2,导入import lxml.html报错,求大神指教
系统是red hat ,自带的是2.6.6版本的python,但最近需要使用scrapy需要安装2.7.3版本的 ,通过yum install 安装的libxml2,安装成功后import lxml没有报错,但import lxml.html 时就报错了,报错信息如下: >>> import lxml.html Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/usr/local/lib/python2.7/site-packages/lxml/html/__init__.py", line 12, in <module> from lxml import etree File "lxml.etree.pyx", line 89, in init lxml.etree (src/lxml/lxml.etree.c:140164) TypeError: encode() argument 1 must be string without null bytes, not unicode 求各位python大神指导...
centos 两个python版本导致无法import lxml
在centos服务器上,将默认的2.6版本的python升级为2.7.3版本的,并设置2.7.3为默认的,使用sudo yum install python-lxml安装lxml时 提示如下: ![图片说明](https://img-ask.csdn.net/upload/201511/19/1447924149_670381.jpg) 但当我在默认的升级后的python2.7.3里import lxml时出错了,如下 ![图片说明](https://img-ask.csdn.net/upload/201511/19/1447924328_366680.jpg) 当我使用旧的python版本2.6来import lxml时却有用,如下 ![图片说明](https://img-ask.csdn.net/upload/201511/19/1447924405_967865.jpg) 也就是说我安装的lxml在旧版的python上有用,在升级替换后的新版的python没用, 但是我的lxml是我在升级python后安装的,使用python命令也可以看到默认的python 使用的是我新安装的版本,请问如何解决呢?谢谢。
lxml.etree有个getchildren()的方法被废弃了,那该用什么来替代?
情况比题目问的复杂一些。我抓了个响应体,然后用etree的方式解析: r=etree.HTML(requests.post(link,{"filter_by_status":pattern},headers).text) 这样我就可以使用xpath了。但后来遇到一个问题:lxml有一个getparent的方法,可是getchildren的方法却被废弃了,我无法获得某个节点的子元素。 我不是要//a[@id='3']/following-sibling::a[1] 这样使用路径获得节点的方法,我要的是getchildren()这种使用函数返回节点的方法。 我查了一下 python的文档( http://omz-software.com/pythonista/docs/library/xml.etree.elementtree.html ) ,它对getchildren的描述如下:getchildren(): Deprecated since version 3.2: Use list(elem) or iteration. 我不太清楚list(elem)是啥;至于后面那个iteration就更不清楚,再接着查,不知道哪里查到了个ET.SubElement()的方法(需要先import xml.etree.ElementTree as ET),这个方法似乎最接近我的需求,然而当我使用这个方法来查询某节点的子节点时候,程序报错了:TypeError: SubElement() argument 1 must be xml.etree.ElementTree.Element, not lxml.etree._Element。 也就是说我使用xpath获得的那个节点是 lxml.etree._Element,但这个方法只有xml.etree.ElementTree.Element才能使用。但网络上关于lxml.etree._Element少之又少。我真的很懵逼,为什么查询一个子节点就那么难呢?是不是我哪里一开始就弄错了?希望能给个例子,谢谢!
cannot import name etree ------tf.app.run()命令行中运行脚本时报错
在py文件中运行时没有问题,在python shell中也可以,但是运行脚本时就会报错没有该模块,没有发现自己有用同名文件(夹), python 3.6 lxml 4.3.3 想问一下各位大神该怎么处理这一问题?
已经安装了lxml库,pycharm在导不进去
已经安装了lxml库,pycharm下的Python2.7用不了lxml库。在终端上面能用。这个什么解决。是pycharm的问题吗? ![图片说明](https://img-ask.csdn.net/upload/201802/08/1518059182_742261.png)
python3.6中输入代码运行没有结果,只有一个中括号,求大神解答
小白刚刚上手,模仿写了一段代码,但是一直运行没有结果,求解答,代码如下,跪谢 from bs4 import BeautifulSoup import requests url=("https://m.weibo.cn/?jumpfrom=wapv4&tip=1") vb_data=requests.get(url) soup=BeautifulSoup(vb_data.text,"lxml") imgs=soup.select("div.media-pic-list") print(imgs)
Python pip安装scrapy 一直报错求解答,谢谢
![图片说明](https://img-ask.csdn.net/upload/201803/03/1520089046_806117.png) PYTHON版本是3.5.3 LXML已安装完毕
Python docx用cmd安装成功,但是用Jupyter notebook或者vs code都无法找到模块
以下是用cmd成功安装的信息,在py3环境下打开jupyter Notebook,提示错误ModuleNotFoundError: No module named 'docx' 请问是什么原因呢? ``` Building wheels for collected packages: python-docx Building wheel for python-docx (setup.py) ... done Created wheel for python-docx: filename=python_docx-0.8.10-cp37-none-any.whl size=184496 sha256=ec002f7487a8f06268a573bf1623f77a22a000884057bca273252c991c8d4135 Stored in directory: C:\Users\niko\AppData\Local\pip\Cache\wheels\18\0b\a0\1dd62ff812c857c9e487f27d80d53d2b40531bec1acecfa47b Successfully built python-docx Installing collected packages: lxml, python-docx Successfully installed lxml-4.4.1 python-docx-0.8.10 (py3) my_PC C:\Users\niko $ pip freeze certifi==2019.9.11 lxml==4.4.1 python-docx==0.8.10 wincertstore==0.2 (py3) my_PC C:\Users\niko $ jupyter notebook ```
python之lxml输出原xml中注释问题
原XML中注释如下,经过中间的lxml代码处理后,注释部分跟原xml不一致了, “<![CDATA[@displayText:ip#@obtainType:1]]>变成了@displayText:ip#@obtainType:1”,没找到解决方法: 原XML: <test> <![CDATA[@displayText:ip#@obtainType:1]]> </test> 处理代码: from lxml import etree tree = etree.parse("test.xml") fileHandler = open("out1.xml", "wb") tree.write(fileHandler, encoding="utf-8", xml_declaration=True, pretty_print=True) fileHandler.close() 处理后输出xml: <?xml version='1.0' encoding='utf-8'?> <test> @displayText:ip#@obtainType:1 </test>
Python string.replace()
``` #coding=utf-8 import re from bs4 import BeautifulSoup as BS import requests import hackhttp # BeautifulSoup url='https://www.douyu.com/directory/game/LOL' r=requests.get(url,verify=False) html=r.content soup=BS(html,'lxml') bbs=soup.find_all(name='h3',attrs={'class':'ellipsis'}) print bbs for news in bbs: print news.string.replace('\r','').replace('\n','') 结果: Traceback (most recent call last): File "spider.py", line 18, in <module> print news.string.replace('\r','').replace('\n','') **AttributeError: 'NoneType' object has no attribute 'replace'** ```
Python 在安装lxml库的时候 一直搞不定
![图片说明](https://img-ask.csdn.net/upload/201603/02/1456909161_93198.png) 各位哥哥 哥哥们,不知道这是什么原因,也不知道我是否安装成功了 lxml 我也下载了 setuptools-20.2.2 ,按步骤安装的,可是还是不行,请各位哥哥 哥哥们帮小弟解决一下吧~ 痛苦中……
爬虫返回的response内容完整,但是用etree.HTML解析后,内容就变少了,导致不能用xpath定位,是为啥?
1、爬虫返回的response内容完整,但是用etree.HTML解析后,内容就变少了,导致不能用xpath定位,是为啥? ``` import requests from lxml import etree url = "https://tieba.baidu.com/f?fr=wwwt&kw=%E4%B8%8D%E8%89%AF%E4%BA%BA" headers = { "User-Agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36" } response = requests.get(url,headers=headers).content.decode() print(response) html_str = etree.HTML(response) print(etree.tostring(html_str).decode()) # li = html_str.xpath("//ul[@id='thread_list']/li[@class='j_thread_list clearfix']") # print(li) ```
Python2 xpath 层次关系 中间层数不定能不能通配
python 2.7.13, lxml是我命令行安装的应该就是最新了。 我想爬某个论坛里的动画种子,大体思路: (1)打开 [http://bbs.opfans.org/forum.php?mod=forumdisplay&fid=37](http://bbs.opfans.org/forum.php?mod=forumdisplay&fid=37 "") 会有1个表,读每项的链接。 ![图片说明](https://img-ask.csdn.net/upload/201711/28/1511857102_593298.png) (2)再打开每1项,进入寻找 torrent 的链接。 经观察,需要的链接是在 ignore_js_op 以下的 a 里,但是中间具体夹了几层不一定,外面的层次关系也不一定,所以我就寻找 ignore_js_op 。 ![图片说明](https://img-ask.csdn.net/upload/201711/28/1511857823_106500.png) ![图片说明](https://img-ask.csdn.net/upload/201711/28/1511857841_809267.png) 之前匹配不到的原因找到了,经实验发现1个通配符只能配1层。如果是中间层数不定的情况能不能通配? (对于这个例子我用的是contains()和and,参照[http://python.jobbole.com/84689/?utm_source=group.jobbole.com&utm_medium=relatedArticles](http://python.jobbole.com/84689/?utm_source=group.jobbole.com&utm_medium=relatedArticles "")) 代码: ``` # -*- coding:utf-8 -*- import urllib, re, urllib2, lxml from lxml import etree ''' Download ONE PIECE torrent. ''' def getHtml(url): page = urllib.urlopen(url) html = page.read().decode('gbk') #print page.info() page.close() return html HostName = r'http://bbs.opfans.org/' Html1 = getHtml(HostName + r"forum.php?mod=forumdisplay&fid=37") Xpath1 = r'//body/div/div/div/div/div/div/form/table/tbody/tr/th/a/@href' Xpath2 = r'//ignore_js_op/*/a[@href]' Content1 = etree.HTML(Html1).xpath(Xpath1) for Line1 in Content1: if re.match(r'forum\.php.+', Line1): NewLink = HostName + Line1 print NewLink Html2 = getHtml(NewLink) Content2 = etree.HTML(Html2).xpath(Xpath2) for Line2 in Content2: print HostName + Line2.xpath(r'./@href')[0] print Line2.xpath(r'./text()')[0] ``` 结果: ``` http://bbs.opfans.org/forum.php?mod=viewthread&tid=93&extra=page%3D1 http://bbs.opfans.org/forum.php?mod=viewthread&tid=39&extra=page%3D1 http://bbs.opfans.org/forum.php?mod=viewthread&tid=3939&extra=page%3D1 http://bbs.opfans.org/forum.php?mod=attachment&aid=MjYwMXxlNWUyZjMwZHwxNTExODU1ODA3fDB8MzkzOQ%3D%3D [OPFansMaplesnow][One_Piece][815][MP4].torrent http://bbs.opfans.org/forum.php?mod=redirect&tid=3939&goto=lastpost#lastpost http://bbs.opfans.org/forum.php?mod=viewthread&tid=3938&extra=page%3D1 http://bbs.opfans.org/forum.php?mod=redirect&tid=3938&goto=lastpost#lastpost http://bbs.opfans.org/forum.php?mod=viewthread&tid=3936&extra=page%3D1 http://bbs.opfans.org/forum.php?mod=attachment&aid=MjU5OXxlYmNlYzc3ZXwxNTExODU1ODA3fDB8MzkzNg%3D%3D [OPFansMaplesnow][One_Piece][814][MP4].torrent http://bbs.opfans.org/forum.php?mod=viewthread&tid=3935&extra=page%3D1 ```
Python爬虫抓取信息存储到excel表格后,怎么实行数据可视化
我用python爬去了起点中文网的一些信息,并且存储到excel中,现在想要实现数据可视化怎么写应该 import requests from lxml import etree from openpyxl import Workbook class Book(): def __init__(p): p.url = 'https://www.qidian.com/rank/hotsales?page={页数}' p.wb = Workbook() # class实例化 p.ws = p.wb.active # 激活工具表 p.ws.append(['书名', '作者', '类型', '连载状态']) # 添加对应的表头 def geturl(p): url = [p.url.format(页数 =i) for i in range(1,15)] return url def parse_url(p,url): response =requests.get(url,timeout = 5) return response.content.decode('utf-8','ignore') def get_list(p,html_str): html = etree.HTML(html_str) connect_list = [] lists = html.xpath("//div[@class='book-img-text']/ul/li//div[@class='book-mid-info']") for list in lists: item = {} item['书名'] = ''.join(list.xpath("./h4/a/text()")) item['作者'] = ''.join(list.xpath("./p[@class='author']/a[1]/text()")) item['类型'] = ''.join(list.xpath("./p[@class='author']/a[2]/text()")) item['连载状态'] = ''.join(list.xpath("./p[@class='author']/span/text()")) connect_list.append(item) return connect_list def save_list(p, connects): for connect in connects: p.ws.append([connect['书名'], connect['作者'], connect['类型'], connect['连载状态']]) print('保存小说信息成功') def run(p): url_list = p.geturl() for url in url_list: html_url =p.parse_url(url) connects = p.get_list(html_url) p.save_list(connects[:]) p.wb.save('book.xlsx') if __name__=='__main__': spider = Book() spider.run()
python操作word报错ValueError: can only parse strings。
1、问题描述: 学习Python操作word文件,使用render()方法时报错ValueError: can only parse strings。 2、相关代码 ``` # _*_ encoding:utf-8 _*_ from docxtpl import DocxTemplate data_dic = { 't1':'燕子', 't2':'杨柳', 't3':'桃花', 't4':'针尖', 't5':'头涔涔', 't6':'泪潸潸', 't7':'茫茫然', 't8':'伶伶俐俐', } doc = DocxTemplate("/test/test.doc") #加载模板文件 doc.render(data_dic) #填充数据 doc.save("/test/target.doc") ``` 3、模板信息: ``` {{r t1}}去了,有再来的时候;{{r t2}}枯了,有再青的时候;{{r t3}}谢了,有再开的时候。但是,聪明的,你告诉我,我们的日子为什么一去不复返呢?——是有人偷了他们罢:那是谁?又藏在何处呢?是他们自己逃走了罢:现在又到了哪里呢? 我不知道他们给了我多少日子;但我的手确乎是渐渐空虚了。在默默里算着,八千多日子已经从我手中溜去;像{{r t4}}上一滴水滴在大海里,我的日子滴在时间的流里,没有声音,也没有影子。我不禁{{r t5}}而{{r t6}}了。 去的尽管去了,来的尽管来着;去来的中间,又怎样地匆匆呢?早上我起来的时候,小屋里射进两三方斜斜的太阳。太阳他有脚啊,轻轻悄悄地挪移了;我也{{r t7}}跟着旋转。于是——洗手的时候,日子从水盆里过去;吃饭的时候,日子从饭碗里过去;默默时,便从凝然的双眼前过去。我觉察他去的匆匆了,伸出手遮挽时,他又从遮挽着的手边过去,天黑时,我躺在床上,他便{{r t8}}地从我身上跨过,从我脚边飞去了。等我睁开眼和太阳再见,这算又溜走了一日。我掩着面叹息。但是新来的日子的影儿又开始在叹息里闪过了。 ``` 4、报错信息: ![图片说明](https://img-ask.csdn.net/upload/202001/15/1579068250_471502.png) 5、相关依赖包版本 ``` doc 0.1.0 docx 0.2.4 docxtpl 0.6.3 lxml 3.2.1 Jinja2 2.10.3 ``` 6、我尝试更换了lxml的版本发现报错信息一样。我又尝试跟踪错误,在这个文件里: ![图片说明](https://img-ask.csdn.net/upload/202001/15/1579068951_317573.png) 打印了一下text: ![图片说明](https://img-ask.csdn.net/upload/202001/15/1579068974_898727.png) 发现有一步text为None: ![图片说明](https://img-ask.csdn.net/upload/202001/15/1579069045_944104.png) 7、所以想问一下有没有大佬遇到并解决过这个问题,怎么解决这个问题。救救一下小萌新吧,还有就是val._target._blob这个变量里存的是什么数据,为什么会出现None的情况?谢谢大佬的指点! 8、追加: 问题暂时得到了解决,我在get_headers_footers_xml这个函数里添加了不为空的判断if val._target._blob != None:yield relKey, self.xml_to_string(parse_xml(val._target._blob)) 就不再报错并且成功写入到目标文件里,但是我仍然不清楚这是不是依赖包本身的BUG。如果有大佬知道的话请指点我一下。如果也有遇到这个问题的朋友,可以试一试我这个方法暂时解决一下。下面是我修改的图片: ![图片说明](https://img-ask.csdn.net/upload/202001/15/1579074850_454765.png)
openpyxl 生产xlsx文件报错
python 3.6 openpyxl 3.0.2 ```python from openpyxl import Workbook from openpyxl.utils import get_column_letter wb = Workbook() dest_filename = 'empty_book.xlsx' ws1 = wb.active ws1.title = "range names" for row in range(1, 40): ws1.append(range(600)) ws2 = wb.create_sheet(title="Pi") ws2['F5'] = 3.14 ws3 = wb.create_sheet(title="Data") for row in range(10, 20): for col in range(27, 54): _ = ws3.cell(column=col, row=row, value="{0}".format(get_column_letter(col))) print(ws3['AA10'].value) wb.save(filename = dest_filename) ``` Traceback (most recent call last): File "C:/Users/Administrator/Desktop/python 报价单生成脚本/111.py", line 36, in <module> wb.save(filename = dest_filename) File "D:\Anaconda3\lib\site-packages\openpyxl\workbook\workbook.py", line 408, in save save_workbook(self, filename) File "D:\Anaconda3\lib\site-packages\openpyxl\writer\excel.py", line 293, in save_workbook writer.save() File "D:\Anaconda3\lib\site-packages\openpyxl\writer\excel.py", line 275, in save self.write_data() File "D:\Anaconda3\lib\site-packages\openpyxl\writer\excel.py", line 75, in write_data self._write_worksheets() File "D:\Anaconda3\lib\site-packages\openpyxl\writer\excel.py", line 215, in _write_worksheets self.write_worksheet(ws) File "D:\Anaconda3\lib\site-packages\openpyxl\writer\excel.py", line 200, in write_worksheet writer.write() File "D:\Anaconda3\lib\site-packages\openpyxl\worksheet\_writer.py", line 354, in write self.write_top() File "D:\Anaconda3\lib\site-packages\openpyxl\worksheet\_writer.py", line 98, in write_top self.write_properties() File "D:\Anaconda3\lib\site-packages\openpyxl\worksheet\_writer.py", line 60, in write_properties self.xf.send(props.to_tree()) File "D:\Anaconda3\lib\site-packages\openpyxl\worksheet\_writer.py", line 294, in get_stream xf.write(el) File "src/lxml/serializer.pxi", line 1230, in lxml.etree._IncrementalFileWriter.write TypeError: got invalid input value of type <class 'xml.etree.ElementTree.Element'>, expected string or Element
pip安装lxml库和Jupyter库失败怎么办
我用pip安装lxml库和Jupyter库,然后报错,如图 ![图片说明](https://img-ask.csdn.net/upload/201910/27/1572160741_604464.png) Jupyter库安装时的错太多了,放不出来 其中pip还尝试过用wheel安装,也不行 ![图片说明](https://img-ask.csdn.net/upload/201910/27/1572160865_989563.png)
python 用request.get()方法得到的代码与浏览器中的代码不一样,关键要的数据都没有,望大神指点
import requests import re from bs4 import BeautifulSoup import time header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'} res=requests.get('https://y.qq.com/n/yqq/toplist/26.html#t1=2019&t2=20&t3=song&t4=1&t5=1',headers=header) soup=BeautifulSoup(res.text,'lxml') print(soup) 这是QQ音乐的官方网站,想从中得到歌曲的信息,用这个方法得到的代码比浏览器中代码缺少很多,没去歌曲的信息,只有一些界面的代码
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
Vue + Spring Boot 项目实战(十四):用户认证方案与完善的访问拦截
本篇文章主要讲解 token、session 等用户认证方案的区别并分析常见误区,以及如何通过前后端的配合实现完善的访问拦截,为下一步权限控制的实现打下基础。
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发...
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 演示地点演示 html代码如下` music 这个年纪 七月的风 音乐 ` 然后就是css`*{ margin: 0; padding: 0; text-decoration: none; list-...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
通俗易懂地给女朋友讲:线程池的内部原理
餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
漫话:什么是平衡(AVL)树?这应该是把AVL树讲的最好的文章了
这篇文章通过对话的形式,由浅入深带你读懂 AVL 树,看完让你保证理解 AVL 树的各种操作,如果觉得不错,别吝啬你的赞哦。 1、若它的左子树不为空,则左子树上所有的节点值都小于它的根节点值。 2、若它的右子树不为空,则右子树上所有的节点值均大于它的根节点值。 3、它的左右子树也分别可以充当为二叉查找树。 例如: 例如,我现在想要查找数值为14的节点。由于二叉查找树的特性,我们可...
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
程序员:我终于知道post和get的区别
是一个老生常谈的话题,然而随着不断的学习,对于以前的认识有很多误区,所以还是需要不断地总结的,学而时习之,不亦说乎
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU...
开源并不是你认为的那些事
点击上方蓝字 关注我们开源之道导读所以 ————想要理清开源是什么?先要厘清开源不是什么,名正言顺是句中国的古代成语,概念本身的理解非常之重要。大部分生物多样性的起源,...
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1...
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员...
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC...
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下...
《C++ Primer》学习笔记(六):C++模块设计——函数
专栏C++学习笔记 《C++ Primer》学习笔记/习题答案 总目录 https://blog.csdn.net/TeFuirnever/article/details/100700212 —————————————————————————————————————————————————————— 《C++ Primer》习题参考答案:第6章 - C++模块设计——函数 文章目录专栏C+...
8年经验面试官详解 Java 面试秘诀
作者 |胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。 Java程序员准备和投递简历的实...
面试官如何考察你的思维方式?
1.两种思维方式在求职面试中,经常会考察这种问题:北京有多少量特斯拉汽车?某胡同口的煎饼摊一年能卖出多少个煎饼?深圳有多少个产品经理?一辆公交车里能装下多少个乒乓球?一个正常成年人有多少根头发?这类估算问题,被称为费米问题,是以科学家费米命名的。为什么面试会问这种问题呢?这类问题能把两类人清楚地区分出来。一类是具有文科思维的人,擅长赞叹和模糊想象,它主要依靠的是人的第一反应和直觉,比如小孩...
so easy! 10行代码写个"狗屁不通"文章生成器
前几天,GitHub 有个开源项目特别火,只要输入标题就可以生成一篇长长的文章。 背后实现代码一定很复杂吧,里面一定有很多高深莫测的机器学习等复杂算法 不过,当我看了源代码之后 这程序不到50行 尽管我有多年的Python经验,但我竟然一时也没有看懂 当然啦,原作者也说了,这个代码也是在无聊中诞生的,平时撸码是不写中文变量名的, 中文...
知乎高赞:中国有什么拿得出手的开源软件产品?(整理自本人原创回答)
知乎高赞:中国有什么拿得出手的开源软件产品? 在知乎上,有个问题问“中国有什么拿得出手的开源软件产品(在 GitHub 等社区受欢迎度较好的)?” 事实上,还不少呢~ 本人于2019.7.6进行了较为全面的回答,对这些受欢迎的 Github 开源项目分类整理如下: 分布式计算、云平台相关工具类 1.SkyWalking,作者吴晟、刘浩杨 等等 仓库地址: apache/skywalking 更...
相关热词 c# 引用mysql c#动态加载非托管dll c# 两个表数据同步 c# 返回浮点json c# imap 链接状态 c# 漂亮字 c# 上取整 除法 c#substring c#中延时关闭 c#线段拖拉
立即提问