python爬取网页上的中文,输出乱码怎么办?

我用的是mac,用的python版本是3.6。想要爬取政府网站上的一些信息,然而出来的都是乱码,如图:

图片说明

下面是我的代码:

import io
import sys
from urllib.request import urlopen
sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='utf-8')
    #转码为utf-8格式

from bs4 import BeautifulSoup
import requests,urllib,time,string,chardet

url = 'http://www.wenzhou.gov.cn/art/2017/7/18/art_1235230_8460404.html'

headers = {
'user-agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36'
}

page=requests.get(url,headers=headers)
soup=BeautifulSoup(page.text,'lxml')
txts=soup.select('p')
for txt in txts:
    print(txt)

请各位大神指导!

2个回答

查看原网站的编码是什么,鼠标右键,编码,

soxvlin
soxvlin 谢谢!之前查过原网站编码也是utf-8,所以就不知道问题出在哪了T_T
接近 3 年之前 回复

可以试试转为其他编码,比如gbk,我之前遇到过类似的.多试几次其他编码就好了.

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python 爬取电影天堂链接出现乱码

``` import requests from bs4 import BeautifulSoup from urllib.parse import quote,unquote moives_name=input('请输入你想看的电影') moives_name_gbk=moives_name.encode('gbk') moives_name_quote=quote(moives_name_gbk) res_moives=requests.get('http://s.ygdy8.com/plus/s0.php?typeid=1&keyword={}'.format(moives_name_quote)) html_moives=res_moives.text bs_moives=BeautifulSoup(html_moives,'html.parser') bs_moives_top=bs_moives.find('div',class_='co_content8') bs_moive=bs_moives_top.find('a') url_moive=bs_moive['href'] res_moive=requests.get('https://www.ygdy8.com/{}'.format(url_moive)) html_moive=res_moive.text bs_moive=BeautifulSoup(html_moive,'html.parser') moive_link_top=bs_moive.find(style='BORDER-BOTTOM: #cccccc 1px dotted; BORDER-LEFT: #cccccc 1px dotted; TABLE-LAYOUT: fixed; BORDER-TOP: #cccccc 1px dotted; BORDER-RIGHT: #cccccc 1px dotted') moive_link=moive_link_top.find('a') link=moive_link['href'] print(moive_link_top) ``` 假设我搜索复仇者联盟4 **想要结果:** ``` ftp://ygdy8:ygdy8@yg45.dydytt.net:4207/阳光电影www.ygdy8.com.复仇者联盟4:终局之战.HD.720p.中英双字幕.mkv ``` **运行结果:** ``` ftp://ygdy8:ygdy8@yg45.dydytt.net:4207/Ñô¹âµçÓ°www.ygdy8.com.¸´³ðÕßÁªÃË4£ºÖÕ¾ÖÖ®Õ½.HD.720p.ÖÐӢ˫×ÖÄ».mkv ``` **请问出现乱码怎么办??**

求大神解决python爬取淘宝信息的问题

正在学习mooc里的python爬虫课程,在编写课程里的实例遇到了一些问题。 以下代码想要得到淘宝商品搜索页面中宝贝标题和价格的列表,按照视频上老师的代码写的但是没有出结果,希望有大神看到可以帮忙解答一下。 ps:本人是python初学小透明,如果犯了低级错误希望大家不要介意,谢谢 【代码如下】 import requests import re def gerHTMLText(url): try: r = requests,get(url) r.raise_for_status() r.encoding = 'utf-8' r.headers = 'Mozilla10' return r.text except: print("杩炴帴澶辫触") def parsePage(ilt, html): try: plt = re.findall(r'\"view_price\"\:\"[\d\.]*\"', html) tlt = re.findall(r'\"raw_title\"\:\".*?\"', html) for i in range(len(plt)): price = eval(plt[i].split(':')[1]) tltle = eval(tlt[i].split(':')[1]) ilt.append([price, title]) except: print("") def printGoodsList(ilt): tplt = "{:4}\t{:8}\t{:16}" print(tplt.format("搴忓彿", "浠锋牸", "鍟嗗搧鍚嶇О")) count = 0 for g in ilt: count = count + 1 print(tplt.format(count, g[0], g[1])) def main(): goods = '涔﹀寘' depth = 2 start_url = 'https://s.taobao.com/search?q=' + goods infoList = [] for i in range(depth): try: url = start_url + '&s=' + str(44*i) html = getHTMLText(url) parsePage(infoList, html) except: continue printGoodsList(infoList) main()

python 爬虫 输出数字却显示为乱码

查看网页代码发现数字被转码了,导致python输出结果全是乱的。代码如下: ``` # coding:utf-8 from selenium import webdriver browser = webdriver.Chrome() # chrome_options = webdriver.ChromeOptions() # chrome_options.add_argument('--headless') # browser = webdriver.Chrome(chrome_options=chrome_options) # browser = webdriver.PhantomJS() # browser.maximize_window() # 最大化窗口,可以选择设置 browser.get('http://data.eastmoney.com/kzz/default.html') element = browser.find_element_by_css_selector('#dt_1') # 提取表格内容td td_content = element.find_elements_by_tag_name("td") lst = [] for td in td_content: lst.append(td.text) print(lst) ``` 网页乱码定位图片如下已上传!![图片说明](https://img-ask.csdn.net/upload/202002/29/1582983786_812107.jpg)

PyDev下的Python为什么encode之后还中文乱码

我是爬取一些网页内容但是出来的都是中文乱码,看了很多种方法不是很懂,但是把代码拿到同学的电脑上就没问题。 for data in self.datas: fout.write("<tr>") fout.write("<td>%s</td>" % data['url']) fout.write("<td>%s</td>" % data['title'].encode('utf-8')) fout.write("<td>%s</td>" % data['summary'].encode('utf-8')) fout.write("</tr>") 最后出来的title和summary都是乱码的。。

pycharm下使用xpath输出中文乱码

输出乱码,但是直接输出StuInfoHTML是可以正常输出里面的中文内容(https://img-ask.csdn.net/upload/201605/28/1464411860_280936.png) pycharm的编码格式也配置过了应该不是这个问题吧。(https://img-ask.csdn.net/upload/201605/28/1464411846_427295.png)

python3 网页抓取转码问题,求赐教

用chardet返回网页类型,当返回 ascii、 windows-1254 None 的时候转码utf-8不成功,输出中文出现乱码,请问要怎么实现转码?谢谢大神赐教!

scrapy爬取知乎首页乱码

爬取知乎首页,返回的response.text是乱码,尝试解码response.body,得到的还是乱码,不知道为什么,代码如下: ``` import scrapy HEADERS = { 'Host': 'www.zhihu.com', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate, br', 'Accept-Language': 'zh-CN,zh;q=0.9', 'Cache-Control': 'no-cache', 'Connection': 'keep-alive', 'Origin': 'https://www.zhihu.com', 'Referer': 'https://www.zhihu.com/', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36' } class ZhihuSpider(scrapy.Spider): name = 'zhihu' allowed_domains = ['www.zhihu.com'] start_urls = ['https://www.zhihu.com/'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url, headers=HEADERS) def parse(self, response): print('========== parse ==========') print(response.text[:100]) body = response.body encodings = ['utf-8', 'gbk', 'gb2312', 'iso-8859-1', 'latin1'] for encoding in encodings: try: print('========== decode ' + encoding) print(body.decode(encoding)[:100]) print('========== decode end\n') except Exception as e: print('########## decode {0}, error: {1}\n'.format(encoding, e)) pass ``` 输出的log如下: D:\workspace_python\ZhihuSpider>scrapy crawl zhihu 2017-12-01 11:12:03 [scrapy.utils.log] INFO: Scrapy 1.4.0 started (bot: ZhihuSpider) 2017-12-01 11:12:03 [scrapy.utils.log] INFO: Overridden settings: {'BOT_NAME': 'ZhihuSpider', 'FEED_EXPORT_ENCODING': 'utf-8', 'NEWSPIDER_MODULE': 'ZhihuSpider.spiders', 'SPIDER_MODULES': ['ZhihuSpider.spiders']} 2017-12-01 11:12:03 [scrapy.middleware] INFO: Enabled extensions: ['scrapy.extensions.corestats.CoreStats', 'scrapy.extensions.telnet.TelnetConsole', 'scrapy.extensions.logstats.LogStats'] 2017-12-01 11:12:04 [scrapy.middleware] INFO: Enabled downloader middlewares: ['scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware', 'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware', 'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware', 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware', 'scrapy.downloadermiddlewares.retry.RetryMiddleware', 'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware', 'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware', 'scrapy.downloadermiddlewares.redirect.RedirectMiddleware', 'scrapy.downloadermiddlewares.cookies.CookiesMiddleware', 'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware', 'scrapy.downloadermiddlewares.stats.DownloaderStats'] 2017-12-01 11:12:04 [scrapy.middleware] INFO: Enabled spider middlewares: ['scrapy.spidermiddlewares.httperror.HttpErrorMiddleware', 'scrapy.spidermiddlewares.offsite.OffsiteMiddleware', 'scrapy.spidermiddlewares.referer.RefererMiddleware', 'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware', 'scrapy.spidermiddlewares.depth.DepthMiddleware'] 2017-12-01 11:12:04 [scrapy.middleware] INFO: Enabled item pipelines: [] 2017-12-01 11:12:04 [scrapy.core.engine] INFO: Spider opened 2017-12-01 11:12:04 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 2017-12-01 11:12:04 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:6023 2017-12-01 11:12:04 [scrapy.core.engine] DEBUG: Crawled (200) <GET https://www.zhihu.com/> (referer: https://www.zhihu.com/) ========== parse ========== ��~!���#5���=B���_��^��ˆ� ═4�� 1���J�╗%Xi��/{�vH�"�� z�I�zLgü^�1� Q)Ա�_k}�䄍���/T����U�3���l��� ========== decode utf-8 ########## decode utf-8, error: 'utf-8' codec can't decode byte 0xe1 in position 0: invalid continuation byte ========== decode gbk ########## decode gbk, error: 'gbk' codec can't decode byte 0xa2 in position 4: illegal multibyte sequence ========== decode gb2312 ########## decode gb2312, error: 'gb2312' codec can't decode byte 0xa2 in position 4: illegal multibyte sequence ========== decode iso-8859-1 áø~!¢ 同样的代码,如果将爬取的网站换成douban,就一点问题都没有,百度找遍了都没找到办法,只能来这里提问了,请各位大神帮帮忙,如果爬虫搞不定,我仿的知乎后台就没数据展示了,真的很着急,。剩下不到5C币,没法悬赏,但真的需要大神的帮助。

python requests.get(url) 采集网页中文乱码问题。

![图片说明](https://img-ask.csdn.net/upload/201703/09/1489039070_401640.jpg) 如图:这个编码怎么解决,

如何将terminal爬取的中文unicode字符转化为中文?

最近上手 scrapy 爬虫,脚本完成后,放到 terminal 进行调试。 当遇到中文的时候,terminal 的输出结果会显示为 unicode 字。 虽然最后获得的 csv 文件能正常显示为中文,但放在 terminal 上也希望输出是中文, 这样在调试的时候,就能判断结果是否符合要求。 比如,下面这段输出结果,虽然就是我想爬取的结果,但作为调试,这样的显示就很不友好了:-( {'introduce': [u'\xa0\xa0\xa0\xa0\xa0\xa0 \u5317\u65b9\u5929\u9014\u822a\u7a7a\u6280\u672f\u53d1\u5c55(\u5317\u4eac)\u6709\u9650\u516c\u53f8\uff0c\u662f\u5177\u6709\u5728\u5317\u4eac\u7a7a\u4e2d\u7981\u533a\u5185\u98de\u884c\u7ecf\u5386\u5e76\u53d7\u4f01\u4e8b\u4e1a\u59d4\u6258\u4ece\u4e8b\u901a\u7528\u822a\u7a7a\u98de\u884c\u7ecf\u5386\u7684\u6c11\u8425\u4f01\u4e1a\u3002\u516c\u53f8\u4e3b\u8425\u56fd\u9645\u9886\u5148\u7684\u65e0\u4eba\u76f4\u5347\u673a\u3001\u591a\u65cb\u7ffc\u65e0\u4eba\u673a\u3001\u56fa\u5b9a\u7ffc\u65e0\u4eba\u673a\u3001\u8f7d\u4eba\u65cb\u7ffc\u673a\u7b49\u822a\u7a7a\u98de\u884c\u5668\uff0c\u4e3a\u56fd\u5185\u5916\u653f\u5e9c\u3001\u4f01\u4e1a\u5ba2\u6237\u53ca\u79c1\u4eba\u7528\u6237\u63d0\u4f9b\u98de\u884c\u5668\u79df\u8d41\u9500\u552e\u3001\u65e0\u4eba\u673a\u5b9a\u5236\u3001\u98de\u673a\u7ef4\u4fee\u3001\u98de\u884c\u57f9\u8bad\u7b49\u3002\u76ee\u524d\u65e0\u4eba\u673a\u4ea7\u54c1\u6d89\u53ca\u6d77\u57df\u76d1\u63a7\u3001\u7a7a\u4e2d\u76d1\u63a7\u3001\u822a\u7a7a\u6444\u5f71\u3001\u7535\u89c6\u8f6c\u64ad\u3001\u7ebf\u8def\u5de1\u68c0\u3001\u5730\u8c8c\u822a\u6d4b\u3001\u57ce\u5e02\u5b89\u9632\u3001\u7a7a\u4e2d\u62a4\u6797\u3001\u7d27\u6025\u6551\u63f4\u3001\u98de\u884c\u4ff1\u4e50\u90e8\u7b49\u3002]} 所以想请教一下大家,如何设置能使 terminal 的结果正常显示为中文。

Python3 decode("unicode-escape")后的中文乱码

``` response = requests.get(url, headers=headers).content # soup = BeautifulSoup(response,'lxml')#'html.parser',from_encoding='utf-8' # saix = soup.find_all('div',target="blank") decodedUniChars = response.decode("unicode-escape")#直接解码 \u 的中文乱码,运行正常 s = etree.HTML(decodedUniChars) h = s.xpath('//a/text()')#爬取text内容出现乱码 print(h) 打印text内容出现乱码 ``` ![图片说明](https://img-ask.csdn.net/upload/201705/31/1496166283_710070.png) 没什么C币 抱歉了

spyder读取文件中文乱码,若文件名为中文则找不到,spyder已汉化。

![图片说明](https://img-ask.csdn.net/upload/202004/10/1586501064_606450.png)![图片说明](https://img-ask.csdn.net/upload/202004/10/1586501073_868075.png)

PHANTIONJS 网页乱码 有没有人碰到过

今天用PHANTIONJS 爬取一个网页,结果输出的基本全是乱码, 部分英文字符也出现了乱码。。请问有没有人遇到过 更新帖子,防止沉底 求爬虫大佬啊

用pandas读写本地保存的html网页数据时,所有数据都在一列之中,怎么让他显示成表格的形式??谢谢

各位大神好,我再用pandas导入本地保存的html网页数据时,报错提示 No tables founnd,网页里面是有table数据的,为什么会报错。代码如下: ``` import pandas as pd #读入的是本地保存的网页 df=pd.read_html(r'file:///Y:/%E6%97%A5%E7%BB%93%E7%AE%97%E6%95%B0%E6%8D%AE/%E6%B1%87%E6%80%BB%E6%8C%81%E4%BB%93/V6V8%E5%AF%B9%E6%95%B0/opts%E8%B5%84%E9%87%91.htm',header=0) df2=pd.DataFrame(df) df2.to_excel( excel_writer=r'E:\python\text1\data-output\ota66.xlsx', index=False) # 导出的数据为excel格式,可以直接查看 ``` ![图片说明](https://img-ask.csdn.net/upload/201906/26/1561541566_737312.png) 读写之后,然后转换成dataframe格式,没有生效,导出来的所有数据全部在一列里面,并没有进行分隔成多列表格的正常格式。 试了下用split分割也没有成功 拜托哪位大神帮忙给看看,看看要怎么修改代码,才能最后输出正常的表格形式的数据,非常感谢!

网页获取json其中的中文全部显示为问号

我用的开发工具为Mysql绿色版+vs2013。 我先尽量详细地说一下我遇到的如题的问题,搞了好多个小时了,实在解决不了,求大神帮助! 首先我在mysql中有张表名为user中有一个属性为name,其中有几个值为“张三”,“李四”,“王五”,还有几个值为“111”,“222” 然后我用select name from user在mysql中测试了一下,包括中文在内的所有结果都显示正常。 接着我在搭建的服务器端的vs中写了一个cs文件,用sql语句加连接数据库语句获取了user表中的所有name值到dataTable中,然后用Dictionary逐条获取datatable中的name值并添加到一个Arraylist中,然后用JavaScriptSerializer对象序列化了这个Arraylist,并转化为JArray类型返回。 然后的然后,问题就在这里,我不知道上述的哪个步骤有问题,我用谷歌游览器访问服务器端的cs文件的url时,返回的所有name值中,例如”111“,"222"全部显示正常,但是例如”张三“,”李四“,”王五“在内的所有中文都显示成了”???“。 我查了很多的百度资料,有的人说设置response.setencode,这个类似的方法我试了很多种,证实无效;还有类似设置游览器的编码等我也试过,也无效;还有我尝试改变了从数据库中获取数据转化成Json的方法,也无效。总之,返回的JArray中的中文,一直都显示成了问号形式,求解问题到底出在哪里?! PS:我还试过改变mysql中name属性的编码,也无效……

请问用BeautifulSoup如何获取p标签内的值

从网上爬下来了一道数学题,不知道该怎样获取里面的值了 ``` soup = BeautifulSoup(problem_content, 'html.parser') # 这个problem_content是个从网上爬下来的数学题,里面包含很多的HTML标签 # print soup # 全部是乱码,网上找资料说是没有\xa0这个编码 # print soup.prettify().replace(u'\xa0', '') # 安装文档形式输出,正常输出 # print soup.p # 输出的p标签内容全部是乱码 # print soup.encode('gb18030') # 除中文外全部是 乱码 new_soup = soup.prettify().replace(u'\xa0', '') # new_soup为unicode格式 s_soup = BeautifulSoup(new_soup, 'html.parser') # 再次将其转为bs4格式数据 cont = s_soup.p.encode('gb18030') # print type(cont)返回 <type 'str'> # print type(new_soup) 返回 <type 'unicode'> print cont ``` print cont返回值是: ``` <p> 如图所示,圆锥 $SO$ 的轴截面 $△$$SAB$ 是边长为$ 4 $的正三角形,$M$为母线 $SB$的中点,过直线 $AM$ 作平面 $β$ $⊥$ 面 $SAB$ ,设 $β$ <span> 与圆锥侧面的交线为椭圆 $C$,则椭圆 $C$ 的短半轴 </span> <span style="font-size:12px;line-height:1.5;"> 为( ) </span> </p> ``` 由于这个cont是个str类型的值,请问老师我该如何才能回去这个值<p>标签内部的值?用cont.string返回错误提示:cont没有string属性

requests返回为空的问题

学生党,弄着玩 爬取微舆情 头文件,data都已更改,allow_redirects设置为False,但requests返回的值为空 代码如下 ``` import json import requests import datetime import urllib3 from urllib3.exceptions import InsecureRequestWarning urllib3.disable_warnings(InsecureRequestWarning) sess = requests.session() def run(keyword): headers = { 'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8', 'Host': 'www.wrd.cn', 'Origin': 'http://www.wrd.cn', 'Referer': 'http://www.wrd.cn/goSearch.shtml', 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36', 'X-Requested-With': 'XMLHttpRequest', } endTime = datetime.datetime.now() startTime = endTime + datetime.timedelta(days=-1) data = { 'title': '%s' % (keyword), 'keyword': '%s' % (keyword), 'filterKeyword': '', 'categoryId': '', 'categoryType': '', 'secondCategory': '', 'date': '24', 'categoryLevel': '', 'startTime' : startTime.strftime("%Y-%m-%d %H:%M:%S"), 'endTime':endTime.strftime("%Y-%m-%d %H:%M:%S"), 'secondClassifyName': '', 'threeClassifyName':'', 'isAll':'', 'shareCode':'' } url = 'http://www.wrd.cn/view/openTools/goHotWorthOTChart.action' res = sess.post(headers=headers, data=data, url=url,allow_redirects=False) print(res.text) run('千佛山') ```

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Intellij IDEA 实用插件安利

1. 前言从2020 年 JVM 生态报告解读 可以看出Intellij IDEA 目前已经稳坐 Java IDE 头把交椅。而且统计得出付费用户已经超过了八成(国外统计)。IDEA 的...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

魂迁光刻,梦绕芯片,中芯国际终获ASML大型光刻机

据羊城晚报报道,近日中芯国际从荷兰进口的一台大型光刻机,顺利通过深圳出口加工区场站两道闸口进入厂区,中芯国际发表公告称该光刻机并非此前盛传的EUV光刻机,主要用于企业复工复产后的生产线扩容。 我们知道EUV主要用于7nm及以下制程的芯片制造,光刻机作为集成电路制造中最关键的设备,对芯片制作工艺有着决定性的影响,被誉为“超精密制造技术皇冠上的明珠”,根据之前中芯国际的公报,目...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

百度工程师,获利10万,判刑3年!

所有一夜暴富的方法都写在刑法中,但总有人心存侥幸。这些年互联网犯罪高发,一些工程师高技术犯罪更是引发关注。这两天,一个百度运维工程师的案例传遍朋友圈。1...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《Oracle Java SE编程自学与面试指南》最佳学习路线图2020年最新版(进大厂必备)

正确选择比瞎努力更重要!

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

实时更新:计算机编程语言排行榜—TIOBE世界编程语言排行榜(2020年6月份最新版)

内容导航: 1、TIOBE排行榜 2、总榜(2020年6月份) 3、本月前三名 3.1、C 3.2、Java 3.3、Python 4、学习路线图 5、参考地址 1、TIOBE排行榜 TIOBE排行榜是根据全世界互联网上有经验的程序员、课程和第三方厂商的数量,并使用搜索引擎(如Google、Bing、Yahoo!)以及Wikipedia、Amazon、YouTube统计出排名数据。

阿里面试官让我用Zk(Zookeeper)实现分布式锁

他可能没想到,我当场手写出来了

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

​能让德国人放弃现金支付​,也没谁了

在新冠疫情中,德国人越来越多地选择在超市,加油站或其他商店付款时使用非接触式付款方式。德国信贷协会Deutschen Kreditwirtschaft (DK) 的一位发言人告诉德国新...

立即提问
相关内容推荐