python中URL地址用.format转换后出错

python中URL地址用.format转换后出错,提示JSONDecodeError("Expecting value", s, err.value) from None。
不转换的话没什么问题,url地址放在了address变量中(我用的是python3)

 import urllib.request
import ssl
import json
from cons import cons
ssl._create_default_https_context = ssl._create_unverified_context


station_list = {}
for i in cons.split('@'):
    if i:
        temp_list = i.split('|')
        station_list[temp_list[1]] = temp_list[2]


train_date = '2017-8-17'
from_station = station_list['北京']
to_station = station_list['上海']

print(train_date, from_station, to_station)

def get_list():
    address = 'https://kyfw.12306.cn/otn/leftTicket/query?leftTicketDTO.train_date={0}' \
              '&leftTicketDTO.from_station={1}' \
              '&leftTicketDTO.to_station={2}&purpose_codes=ADULT'.format(train_date, from_station, to_station)
    print(address)
    url = urllib.request.Request(address)
    url.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)'
                                 ' Chrome/45.0.2454.101 Safari/537.36')
    html = urllib.request.urlopen(url).read()
    dit = json.loads(html)
    print(type(html))
    print(type(dit))
    return dit['data']['result']



# 车次3
# 出发时间8
# 到达时间9
# 历时 = 10
# 硬卧 =28
# 出发日期 13
for i in get_list():
    temp_buy = i.split('|')
    if temp_buy == '无' or temp_buy == ' ':
        continue
    else:
        print(temp_buy)  # buy
    break

cost.py中的代码如下

 cons = '@bji|北京|BJP|0@sha|上海|SHH|1@tji|天津|TJP|2@cqi|重庆|CQW|3' \
       '@csh|长沙|CSQ|4@cch|长春|CCT|5@cdu|成都|CDW|6@fzh|福州|FZS|7' \
       '@gzh|广州|GZQ|8@gya|贵阳|GIW|9@hht|呼和浩特|HHC|10' \
       '@heb|哈尔滨|HBB|11@hfe|合肥|HFH|12@hzh|杭州|HZH|13' \
       '@hko|海口|VUQ|14@jna|济南|JNK|15@kmi|昆明|KMM|16' \
       '@lsa|拉萨|LSO|17@lzh|兰州|LZJ|18@nni|南宁|NNZ|19' \
       '@nji|南京|NJH|20@nch|南昌|NCG|21@sya|沈阳|SYT|22' \
       '@sjz|石家庄|SJP|23@tyu|太原|TYV|24@wlq|乌鲁木齐南|WMR|25' \
       '@wha|武汉|WHN|26@xni|西宁|XNO|27@xan|西安|XAY|28' \
       '@ych|银川|YIJ|29@zzh|郑州|ZZF|30@szh|深圳|SZQ|shenzhen|sz|31' \
       '@xme|厦门|XMS|xiamen|xm|32'

1个回答

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
新手,python中连接数据库MySQLdb.cursors.DictCursor出错

![图片说明](https://img-ask.csdn.net/upload/201512/28/1451283126_914221.jpg) ![图片说明](https://img-ask.csdn.net/upload/201512/28/1451283195_538855.png) 新手,python中连接数据库MySQLdb.cursors.DictCursor出错,求大神解答原因

python中format_map函数如何使用?

python字符串中format_map 函数如何使用? Help on built-in function format_map: format_map(...) method of builtins.str instance S.format_map(mapping) -> str Return a formatted version of S, using substitutions from mapping. The substitutions are identified by braces ('{' and '}').

tensorboard报错:'tensorflow.python.estimator.api.estimator' has no attribute 'SessionRunHook'

小白刚接触tensorflow,想用tensorboard将网络可视化,但在cmd输入tensorboard时报错:'tensorflow.python.estimator.api.estimator' has no attribute 'SessionRunHook' 装有: tensorflow1.14.0 tensorboard1.14.0 tensorflow-estimator1.14.0 ![cmd 输入tensorboard](https://img-ask.csdn.net/upload/201908/02/1564715663_532189.png) ![图片说明](https://img-ask.csdn.net/upload/201908/02/1564715700_90147.png) ![图片说明](https://img-ask.csdn.net/upload/201908/02/1564715717_408990.png) ![图片说明](https://img-ask.csdn.net/upload/201908/02/1564715758_842574.png)

请问python中 数值格式 %.02f 和%.2f有区别吗

如题,在自学《python入门经典》这本书的时候碰到的疑问 数值格式 %.02f 和%.2f有区别吗

python3.65 urllib.request.Request()增加header报错

# coding:utf-8 import urllib.request import urllib.parse url = 'http://192.168.**.**:9080/api/transactions' header = { 'Content-Type': 'application/json' } values ={ "currentToken": { "simplifiedName": "ETH", "address": "0x5bcd4d0508bc86c48760d0805962261d260d7a88" }, "txid": "" } data = urllib.parse.urlencode(values) data = data.encode(encoding='UTF-8') request = urllib.request.Request(url, data, header) #request = urllib.request.Request(url, data) print("111") html = urllib.request.urlopen(request) print("222") html =html.read().decode('utf-8') print(html) #返回结果 报错 D:\tool\Python36\python.exe D:/Users/Administrator/PycharmProjects/coinPlatform/test/test6.py 111 Traceback (most recent call last): File "D:/Users/Administrator/PycharmProjects/coinPlatform/test/test6.py", line 21, in <module> html = urllib.request.urlopen(request) File "D:\tool\Python36\lib\urllib\request.py", line 223, in urlopen return opener.open(url, data, timeout) File "D:\tool\Python36\lib\urllib\request.py", line 532, in open response = meth(req, response) File "D:\tool\Python36\lib\urllib\request.py", line 642, in http_response 'http', request, response, code, msg, hdrs) File "D:\tool\Python36\lib\urllib\request.py", line 570, in error return self._call_chain(*args) File "D:\tool\Python36\lib\urllib\request.py", line 504, in _call_chain result = func(*args) File "D:\tool\Python36\lib\urllib\request.py", line 650, in http_error_default raise HTTPError(req.full_url, code, msg, hdrs, fp) urllib.error.HTTPError: HTTP Error 404: Not Found Process finished with exit code 1 # coding:utf-8 import urllib.request import urllib.parse url = 'http://192.168.**.**:9080/api/transactions' header = { 'Content-Type': 'application/json' } values ={ "currentToken": { "simplifiedName": "ETH", "address": "0x5bcd4d0508bc86c48760d0805962261d260d7a88" }, "txid": "" } data = urllib.parse.urlencode(values) data = data.encode(encoding='UTF-8') #request = urllib.request.Request(url, data, header) request = urllib.request.Request(url, data) print("111") html = urllib.request.urlopen(request) print("222") html =html.read().decode('utf-8') print(html) 返回结果 成功 但没得到想要的结果 D:\tool\Python36\python.exe D:/Users/Administrator/PycharmProjects/coinPlatform/test/test6.py 111 222 {"code":0,"message":"success","data":{"currentToken":{},"transactions":[]}} Process finished with exit code 0

python 中的urllib2.urlopen()方法

python中,urllib2中的urlopen()方法可以这样用: ``` response=urllib2.urlopen("http://www.baidu.com") html=response.read() ``` 也可以这样用:先创建一个Request对象 ``` request=urllib2.Request("http://www.baidu.com") response=urllib2.urlopen(request) html=response.read() ``` 查看urllib2.urlopen()方法: ``` urlopen(url, data=None, timeout=<object object>, cafile=None, capath=None, cadefault=False, context=None) ``` 其中并没有Request类型的参数,但是为什么可以这样用呢?

请教python3.6下的pickle.dump函数用法

请大侠帮我解惑,谢谢! import pickle shoplistfile='shoplist.data' shoplist=['apple','banana','mango'] f=open(shoplistfile, 'wb') pickle.dump(shoplist,f)#把对象储存到打开的文件中 f.close() del shoplist f=open(shoplistfile) storedlist=pickle.load(f) print(storedlist) 结果如下报错: D:\python\python.exe D:/python/程序/pickle.py Traceback (most recent call last): File "D:/python/程序/pickle.py", line 1, in <module> import pickle File "D:\python\程序\pickle.py", line 7, in <module> pickle.dump(shoplist,f)#把对象储存到打开的文件中 AttributeError: module 'pickle' has no attribute 'dump'

用python实现动态loading......效果

![图片说明](https://img-ask.csdn.net/upload/201809/19/1537362731_716569.png) 想用以上代码实现下图效果,可是不行啊,上面代码是等了6x0.2秒后1次性输 出Loading..... **用python如何实现?** ![图片说明](https://img-ask.csdn.net/upload/201809/19/1537362692_770022.gif)

python format格式化输出

![图片说明](https://img-ask.csdn.net/upload/201901/23/1548210502_823992.png) 这是在网课上看到的一段代码,后面的chr(12288)用来当作空格填充进去,不太理解。chr()函数不是只能表示0-256之间的数字吗?这里为什么可以这么用

python 3 报错 urllib.error.URLError: <urlopen error unknown url type: "http>

尝试爬取新浪首页新闻到本地 程序报错 源码为: import urllib.request,re url="https://www.sina.com.cn/" req=urllib.request.Request(url) req.add_header("User-Agent","马赛克") pat1='<a target="_blank" href=(.*?)>.*?</a>' data1=urllib.request.urlopen(req).read().decode("UTF-8","ignore") allink=re.compile(pat1).findall(data1) for i in range(0,len(allink)): thislink=allink[i] pat2='<frame src=(.*?)>' req2=urllib.request.Request(url) req2.add_header("User-Agent","Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:65.0) Gecko/20100101 Firefox/65.0") thispage=urllib.request.urlopen(req2).read().decode("UTF-8","ignore") isframe=re.compile(pat2).findall(thispage) if len(isframe)==0: urllib.request.urlretrieve(thislink,"data/"+str(i)+".html") else: flink=isframe[0] urllib.request.urlretrieve(flink,"data/"+str(i)+".html") 报错信息: Traceback (most recent call last): File "/Users/tanzhouyan/Desktop/python/新闻爬虫.py", line 73, in <module> urllib.request.urlretrieve(thislink,"data/"+str(i)+".html") File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 247, in urlretrieve with contextlib.closing(urlopen(url, data)) as fp: File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 222, in urlopen return opener.open(url, data, timeout) File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 525, in open response = self._open(req, data) File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 548, in _open 'unknown_open', req) File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 503, in _call_chain result = func(*args) File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 1387, in unknown_open raise URLError('unknown url type: %s' % type) urllib.error.URLError: <urlopen error unknown url type: "http> 在网上一直没有找到解决方法,谢谢大家~

python爬虫问题出错原因求助

import requests from bs4 import BeautifulSoup import bs4 def getHTMLText(url): try: r = requests.get(url, timeout=30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return "" def fillUnivList(ulist, html): soup = BeautifulSoup(html, "html.parser") for tr in soup.find('tbody').children: if isinstance(tr, bs4.element.Tag): tds = tr('td') ulist.append([tds[0].string, tds[1].string, tds[3].string]) def printUnivList(ulist, num): print("{:^10}\t{:^6}\t{:^10}".format("排名","学校名称","总分")) for i in range(num): u=ulist[i] print("{:^10}\t{:^6}\t{:^10}".format(u[0],u[1],u[2])) def main(): uinfo = [] url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2017.html' html = getHTMLText(url) fillUnivList(uinfo, html) printUnivList(uinfo, 20) # 20 univs main() 出错为:Traceback (most recent call last): File "D:/python02/01/11.py", line 34, in <module> main() File "D:/python02/01/11.py", line 33, in main printUnivList(uinfo, 20) # 20 univs File "D:/python02/01/11.py", line 26, in printUnivList print("{:^10}\t{:^6}\t{:^10}".format(u[0],u[1],u[2])) TypeError: unsupported format string passed to NoneType.__format__ 第一次爬虫,不是很能理解出错原因。求指教

scrapy出错twisted.python.failure.Failure twisted.internet.error

我是跟这网上视频写的 ``` import scrapy class QsbkSpider(scrapy.Spider): name = 'qsbk' allowed_domains = ['www.qiushibaike.com/'] start_urls = ['https://www.qiushibaike.com/text/'] def parse(self, response): print('='*10) print(response) print('*'*10) ``` 出现 ![图片说明](https://img-ask.csdn.net/upload/201908/06/1565066344_519008.png) 请求头改了还是不行,用requests库爬取又可以

python3中使用pyinstaller 将文件转换成.exe文件 执行后报错问题

环境:win10,python3.7,pyinstaller3.3.1.py文件转换前,可以正常运行没有问题,使用pyintaller转换成.exe文件后,信息中显示successfully,但是执行.exe文件 就会报错。大概的意思是找不到系统编辑器,见下图:还请大神帮帮忙啊~~~ ![图片说明](https://img-ask.csdn.net/upload/201806/06/1528246784_474530.png) 打包的信息: ![图片说明](https://img-ask.csdn.net/upload/201806/06/1528247078_850486.png) ![图片说明](https://img-ask.csdn.net/upload/201806/06/1528247066_42390.png)

python 爬虫利用urllib.request.urlretrieve() 保存图片在本地,图片没有内容

我用Jupyter Notebook爬取了需要保存的图片的url,但是利用urllib.request.urlretrieve() 将图片保存到本地,图片没有内容,该url使用360浏览器打开也是没有内容的图片(和我保存在本地一样),但是用goole打开就是正常的图片。 相关代码 url='http://www.jj20.com/bz/zrfg/d...' response=urllib.request.urlopen(url) html=response.read().decode('gb2312') soup=BeautifulSoup(html,'lxml') data=soup.select('body > div.wzfz.top-main.fix > div > ul.pic2.vvi.fix') data2=re.findall('src="(.+?)" width',str(data)) data2 #此处得到了图片链接的一个列表 ![图片说明](https://img-ask.csdn.net/upload/201812/21/1545361931_226911.png) x=0 for itemm in data2: print(itemm) urllib.request.urlretrieve(itemm,'C:\\Users\\Administrator\\Desktop\\pachong2\\%s.jpg'%x) x+=1 #通过链接保存图片到本地 代码完毕,运行不报错,但保存的图片却是加密图片,如下 ![图片说明](https://img-ask.csdn.net/upload/201812/21/1545361949_493100.png)我用360浏览器打开这些url也是显示这个,但是用goole打开就是正常的图片。如下: ![图片说明](https://img-ask.csdn.net/upload/201812/21/1545361998_909451.png) 我百度了好多相关内容,但和别人的出错结果都不一样,想知道这种情况是怎么回事,为什么360浏览器打开是这样的,还有就是要怎么才能通过goole浏览器把图片下载下来呢。

【急求解答】Python http进行url访问时报错

代码部分如下(MyPython.py): r_ip = "xxx.xxx.xxx.xxx" r_port = 8080 url = 'http://xxx.xxx.xxx.xxx:8080/aop/rest?' geturl = url+urlPara.decode('gbk').encode('utf-8') print("geturl=[%s]" % geturl) conn = httplib.HTTPConnection(r_ip, r_port) conn.request("GET", geturl) response = conn.getresponse() data = response.read() print("data=[%s]" % data) conn.close() 执行MyPython.py报错如下: Traceback (most recent call last): File "MyPythonTest.py", line 198, in <module> do_work() File "MyPythonTest.py", line 182, in do_work conn.request("GET", geturl) File "/opt/freeware/lib/python2.7/httplib.py", line 973, in request self._send_request(method, url, body, headers) File "/opt/freeware/lib/python2.7/httplib.py", line 1007, in _send_request self.endheaders(body) File "/opt/freeware/lib/python2.7/httplib.py", line 969, in endheaders self._send_output(message_body) File "/opt/freeware/lib/python2.7/httplib.py", line 829, in _send_output self.send(msg) File "/opt/freeware/lib/python2.7/httplib.py", line 791, in send self.connect() File "/opt/freeware/lib/python2.7/httplib.py", line 772, in connect self.timeout, self.source_address) File "/opt/freeware/lib/python2.7/socket.py", line 571, in create_connection raise err socket.error: [Errno 78] A remote host did not respond within the timeout period. 才开始学习Python不久,对其不太明白,还请大师解答。

python 的 email 里 self.get() 函数的问题

python里的email.py中那个self.get()到底是怎么运作的。 因为用self.get('subject')来抓主题,然后发现有的邮件抓不到主题。 但是邮件用记事本打开又看得到‘Subject:’,用outlook打开也看得到。 然后就看python源代码,发现get()函数是和一个header的二元组的列表进行遍历比较。 但是更多就看不懂了。 求解一下这个get()的运作方式,它匹配的那个header列表到底是什么? 本来想打出来看看,结果是个私有函数,也看不到。 另外用get抓不到,但是用文件读取之后用startswith(),或者find(‘Subject:’)==0. 是可以抓到的。

初学python3,from ... import ...出了问题

try.py文件里只含有一个测试过的正确的myabs函数定义,在python的交互式界面使用from try import myabs时提示invalid syntax,我是按照廖雪峰网上的python3教程来的,上面的演示是对的,我电脑上就错了,我的系统是windows

python 爬虫 关于URL路径问题

我想问有没有大佬知道怎么用socket去连接一个具体的URL地址,我用 socket.connect((address,80)),address只能是www.baidu.com这样的地址,而不是 http://xxxxx/xxxxxx/ 这样带具体路径的地址,不然就会出错“getaddrinfo failed”。 **前提是别用其他lib**

Python执行时,re.search报错,求原因及解决方案。

执行以下代码时,re.search报错。按理说我代码没啥问题,不知道怎么回事。求大神帮助! ``` hand=open("regex_sum_42.txt") for line in hand: line=line.rstrip() if re.search("Why",line): print(line) ``` 执行结果: Traceback (most recent call last): File "task1.py", line 4, in <module> if re.search("Why",line): NameError: name 're' is not defined

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你期望月薪4万,出门右拐,不送,这几个点,你也就是个初级的水平

先来看几个问题通过注解的方式注入依赖对象,介绍一下你知道的几种方式@Autowired和@Resource有何区别说一下@Autowired查找候选者的...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐