python将用户每次自定义输入的内容存储为json数据,打开这个json文件时报错

import json
while True:
username=input('usernam:')
if username!='q':
with open('username.json','a')as c:
json.dump(username,c)
with open('username.json')as h:
bu=json.load(h)
print (bu)
else:
break

代码如上,首先导入json,然后进行循环,定义一个变量为用户自定义输入的内容,判断这个变量是否等于q,不等于q,则追加自定义内容,然后并打开它,以校验用户自定义输入内容是否加入。否则则跳过此次循环。在本人用其他工具打开json文件发现数据已经写进去了。但在执行bu=json.load(h)这步时报错,请高人指点谢谢!图片说明

1个回答

你保存到文件中的字符串就不是json格式的,
虽然不知道你这个是要干什么的,但你可以以数组的形式存用户每次的输入
判断有没有username.json
若有 data = json.load(c)
若没有 data = []
data.append(用户输入)
然后再保存data为json格式
with open('username.json', 'w') as f:
json.dump(data, f)

还要检查用户输入的格式是否合法,注意读取、保存的编码的问题,都可以在json的文档里面查看

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python在cmd命令行中输入自定义函数的问题

我按照教程在Python交互环境中定义函数时,注意Python会出现...的提示。函数定义结束后需要按两次回车重新回到>>>,但是我在输入完自定义函数def my_test(x):之后,我的cmd命令行中是出现的...,但是按照教程上说的再按一下命令行之后出现的就是这样的 File "<stdin>", line 2 ^ IndentationError: expected an indented block 求解啊~~

如何用Python写键值对数目不定的Json文件?

### 操作步骤 1.用Python从文件中读取数据 2.分析原始数据,得到用于生成Json文件的数据 3.写入Json文件 ### 我的疑难点 从文件中读取数据并经过处理后应得到的Json数据的键值对数目是不确定的。 { "0":"information", "1":{}, "2":{}, ...... "n":{} } 就像上面这样的结构,n是不确定的,该如何把要写入文件的Json确定下来呢?

python如何批量的读取json格式的数据

我现在需要处理一批不断传入的json格式的数据,格式是这样的: > comsou 0 {"id":"F45EAB09792C","v":"0.10","mid":5221,"raw_beacons_data":"123B6A1ABAD1B5;123B6A1ABAC1B5;"} comsou 0 {"id":"F45EAB09792C","v":"0.10","mid":5222,"raw_beacons_data":"123B6A1ABAD1B5;"} comsou 0 {"id":"F45EAB09792C","v":"0.10","mid":5223,"raw_beacons_data":"123B6A1ABAC1B5;123B6A1ABAD1B5;"} comsou 0 {"id":"F45EAB09792C","v":"0.10","mid":5224,"raw_beacons_data":"123B6A1ABAD1B5;"} comsou 0 {"id":"F45EAB09792C","v":"0.10","mid":5225,"raw_beacons_data":"123B6A1ABAC1B5;123B6A1ABAD1B5;"} comsou 0 {"id":"F45EAB09792C","v":"0.10","mid":5226,"raw_beacons_data":"123B6A1ABAD1B5;"} 我现在想做的是不间断的读取这些传来的信息并提取出里面的‘id’和'raw_beacons_data'的值出来,想问一下各位大神该如何做呢? 另外就是我需要将'raw_beacons_data'里的两组数据(以;隔开的)分别拿出来,又该如何做呢?

# 浏览器可以看见json数据,但是写Python代码确爬不到怎么办?

## # ## # 写一个鸟哥笔记的爬虫代码 在浏览器中看见了json的返回报文 但是就是爬不到数据 求大神指教! ![图片说明](https://img-ask.csdn.net/upload/201912/20/1576771852_814228.png) 下面是json数据 ![图片说明](https://img-ask.csdn.net/upload/201912/20/1576771902_619142.png)

pycharm获取网页数据过程中json红线错误 python

跟着视频教学试着获取TripAdvisor的景点数据,第一个问题是json好像用不了, 其他基础库都安装了,查了一下装了simplejson、cjson之类的, 但是不太会改或者用 ![图片说明](https://img-ask.csdn.net/upload/201904/24/1556119201_711338.png) ![图片说明](https://img-ask.csdn.net/upload/201904/24/1556119226_381527.png) 第二个问题是运行没错,输出不了结果,也生产不了txt文档 python是3.5

python中用post方式获取网页XHR内容中的Json格式数据,但是返回了html的代码,这是为什么呢?

爬12306的过程中,扫描登录过程最后一步,post获取数据。但是报错 ![图片说明](https://img-ask.csdn.net/upload/201912/08/1575803358_790446.png) ``` def auth(uamtk_code): url = 'https://kyfw.12306.cn/passport/web/auth/uamtk' header = {'Accept': 'application/json, text/javascript, */*; q=0.01', 'Accept-Encoding': 'gzip, deflate, br', 'Accept-Language': 'zh-CN,zh;q=0.9', 'Connection': 'keep-alive', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) \ Chrome/65.0.3314.0 Safari/537.36 SE 2.X MetaSr 1.0', 'Content - Length': '64'} data = {'uamtk': uamtk_code, 'appid': 'excater'} callback = session.post(url, headers=header, data=data).text ``` json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0) post返回的值是这样的: <style type="text/css"> <!-- html,body{background:#fff;} --> </style> </head> <body> <div class="err_text"> <ul id="error" > <li id="err_top"> </li> <li id="err_bot">  网络可能存在问题,请您重试一下! <div class="time"> <SCRIPT language="javascript"> <!-- function initArray() { for (i = 0; i < initArray.arguments.length; i++) this[i] = initArray.arguments[i]; } var isnMonths = new initArray("1月", "2月", "3月", "4月", "5月", "6月", "7月", "8月", "9月", "10月", "11月", "12月"); var isnDays = new initArray("星期日", "星期一", "星期二", "星期三", "星期四", "星期五", "星期六", "星期日"); today = new Date(); hrs = today.getHours(); min = today.getMinutes(); sec = today.getSeconds(); clckh = "" + ((hrs > 12) ? hrs - 12 : hrs); clckm = ((min < 10) ? "0" : "") + min; clcks = ((sec < 10) ? "0" : "") + sec; clck = (hrs >= 12) ? "下午" : "上午"; var stnr = ""; var ns = "0123456789"; var a = ""; function getFullYear(d) { yr = d.getYear(); if (yr < 1000) yr += 1900; return yr; } document.write(getFullYear(today) + "å¹´" + isnMonths[today.getMonth()] + today.getDate() + "日" + " " + clckh + ":" + clckm + ":" + clcks + " " + isnDays[today.getDay()]); //--> </SCRIPT></div> </li> </ul> </div> </body> </html>

python输入信息存储问题

在用python写一个应用,关于存储用户输入信息不太有好的方法,(要求最后能提取数据)哪位大神能介绍下解决这个问题可采用哪些好方法? 比如建立关联字典什么的?谢谢

python如何引用自定义模块?

python如何引用自定义模块?有什么注意事项啊,为什么使用import却告诉我语法错误?

python爬虫scrapy爬取了数据无法写入json

用scrapy成功爬取了商品数据,但是到目录下却发现数据文件没有创建,郁闷。。pipelines文件代码如下 ``` import codecs import json class AutopjtPipeline(object): def _int_(self): self.file=codecs.open("77.json","wb",encoding="utf-8") def process_item(self, item, spider): for j in range(0,len(item["name"])): name = item["name"][j] price=item["price"][j] comnum = item["comnum"][j] link = item["link"][j] # 将当前页下第j个商品的name、price、comnum、link等信息处理一下,重新组合成一个字典 goods = {"name": name, "price": price, "comnum": comnum, "link": link} # 将组合后的当前页中第j个商品的数据写入json文件 i = json.dumps(dict(goods), ensure_ascii=False) line = i + '\n' self.file.write(line) # 返回item return item def close_spider(self,spider): self.file.close() ``` 同时报错 Traceback (most recent call last): File "c:\users\93422\appdata\local\programs\python\python35\lib\site-packages\twisted\internet\defer.py", line 654, in _runCallbacks current.result = callback(current.result, *args, **kw) File "C:\Users\93422\Desktop\python\autopjt\autopjt\pipelines.py", line 28, in close_spider self.file.close() AttributeError: 'AutopjtPipeline' object has no attribute 'file' items文件代码以及爬虫代码都基本没问题,爬虫代码如下 ```import scrapy from autopjt.items import AutopjtItem from scrapy.http import Request class AutospdSpider(scrapy.Spider): name = 'autospd' allowed_domains = ['dangdang.com'] start_urls = ['http://category.dangdang.com/pg1-cid4003872-srsort_sale_amt_desc.html' ] def parse(self, response): item=AutopjtItem() item['name']=response.xpath("//p[@class='name']/@title").extract() item['price']=response.xpath('//span[@class="price_n"]/text()').extract() item['link']=response.xpath('//p[@class="name"]/@href').extract() item['comnum']=response.xpath('//a[@ddclick]/text()').extract() yield item for i in range(1,20): url="http://category.dangdang.com/pg"+str(i)+"-cid4003872-srsort_sale_amt_desc.html" yield Request(url,callback=self.parse) ```

<python>python爬取智联json页面,但是爬回来的数据不全?

1.智联一页有大概100条数据,但是爬回来只有20条 代码: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557194839_124865.png) https://img-ask.csdn.net/upload/201905/07/1557194839_124865.png 主函数: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557194939_248256.png) depth是爬取的页数,1页的时候只能在数据库看到20条记录,当把depth改成10的时候可以看到1000条信息,但是之后depth再增加(如改成20,30等)数据也不会再增加了,一直是1000条信息 ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557195117_222005.png) 我觉得不是存储的问题,因为第一个爬取的函数返回来的页面就已经少了,只有20条,麻烦帮忙看一下这个爬取函数有什么问题,谢谢啦

python中使用json解析字符串出现问题

在解析地址 ``` https://api-zero.livere.com/v1/comments/list?callback=jQuery11240792331041974006_1546517344998&limit=10&repSeq=4272904&requestPath=%2Fv1%2Fcomments%2Flist&consumerSeq=1020&livereSeq=28583&smartloginSeq=5154&_=1546517345000 ``` 生成的json数据的时候,发现解析错误,在查看过内容后发现json数据中有很多不需要的数据,怎么去除这些数据,让**json.loads(json_data)**能够解析成功

python 进程池调用自定义类 没有反应 大佬们来看看

``` # coding: utf-8 import multiprocessing import time import os class Count(object): def __init__(self, list): self.a = list[0] self.b = list[1] def run(self): if self.a >= 50: time.sleep(3) print(self.a,self.b) else: time.sleep(2) print("{}<50".format(self.a),self.b,os.getpid()) pool = multiprocessing.Pool(5) list = [[35, 1], [67, 2], [45, 1], [77, 2], [55, 2]] t1 = time.time() for i in list: pool.apply_async(func=Count(i).run) pool.close() pool.join() t2 = time.time() print(t2-t1) ``` 方法没有输出, 大佬们帮看下

python使用循环把input输入的内容添加到文件时,为什么只添加了最后一次输入的内容

for i in range(2): a=input('请输入名字:') b=r'C:\Users\v_pejiepeng\Desktop\be.txt' with open(b,'w')as c: c.write(a) d=open(r'C:\Users\v_pejiepeng\Desktop\be.txt') print (d) 代码如上,进行过代码调试,循环两次。第一次a是一个值。然后将a加入c这个代码也执行完了。然后再返回的for,进行第二次的循环。可最后结果却只加入了第二次输入的值。求解。 for i in range(2): a=input('请输入名字:') b=r'C:\Users\v_pejiepeng\Desktop\be.txt' with open(b,'w')as c: c.write(a) d=open(r'C:\Users\v_pejiepeng\Desktop\be.txt') print (d) 第二次的代码和第一次的代码,调试时,代码的执行顺序是不一样的。我也知道这种代码的写也是不正确的。可为什么第一次的代码没能把第一次输入的数据写入到文件中。 b=r'C:\Users\v_pejiepeng\Desktop\be.txt' with open(b,'w')as c: for a in range(2): c.write(a) d=open(r'C:\Users\v_pejiepeng\Desktop\be.txt') print (d) 代码这样样写是没错。可以将两次的内容都写入到文件中。本人现在的疑问就是代码一为什么没有把第一次输入的数据写入到文件中。

如何用Python通过http获取json信息

题主是一名学机械的,刚刚接触Python,对计算机不是很了解,希望各位大神,能够说的稍微简单易懂。 我现在有一识别车牌号的设备,我想把它的车牌号信息传到电脑上,开发人员告诉我,需要自己建立一个web服务器来接收json,设备有扫到车牌号时会自动传输过来。 我刚刚看了下一个博主的 https://blog.csdn.net/henni_719/article/details/52387876 请问这个对我有用吗?我在之上还需要改哪里?

爬虫处理json数据的问题

这个爬虫几个星期前都可以正常使用,可是最近却出问题了 import json import requests as rq import pandas as pd kw = input('Please input the position needs to fetch:') lagou_url = 'http://www.lagou.com/jobs/positionAjax.json?first=false&pn={0}&kd={1}' lagou_python_data = [] for i in range(1, 31): print('fetch {0} page'.format(i)) lagou_url_ = lagou_url.format(i, kw) f=rq.get(lagou_url_).text lagou_data = json.loads(f) lagou_python_data.extend(lagou_data['content']['positionResult']['result']) position_data = pd.DataFrame(lagou_python_data) position_data.to_csv('./About {0} position.csv'.format(kw), index=False) print('data has been saved') 会报json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)的错误,查了一些资料觉得可能是json格式之类的问题,可是之前都能正常使用呐,实在是弄不明白。

数据格式转换,字符串如何转换成JSON格式

请大神帮忙,如何用python函数转换数据格式 ``` 景观,土建 ,水电 ,,,照明 ,植物 ``` 第一行的意思是景观设计的其中一部分:土建; 第二行逗号之前内容与第一行相同,省略不写,意思是 景观——水电; 第三行第一、二个逗号之前的内容与第二行相同,省略不写,意思是 景观——水电——照明; 第四行第一个逗号之前的内容与第三行相同,省略不写,意思是 景观——植物; 最终用python函数转换成转换成下面的JSON格式,函数同时需要具备拓展的能力,在上面字符串不断扩充的情况下也能够适用。 ``` { "景观":[{ "土建":[] },{ "水电":[{ "照明":[] }] },{ "植物":[] }] } ``` 请大神帮忙思路。本人想了好久都没做出来。

python下flask_socketio框架如何通过url获得json原始数据

![图片说明](https://img-ask.csdn.net/upload/201712/25/1514194415_896242.png) 我浏览器输入127.0.0.1:5000默认访问的是index.html,index.html里通过jqury 中的socketio.on 可以获取json数据,请问如何通过url的方式,在页面上显示json原始数据

Python,json转码,list of dictionaries遍历筛选

问题说明:原始数据导入字段index3就是json字符串格式(带单引号str),想要提取字典里面key值为"name"的所有value; ``` df_tmp #pandas dataframe #字段index3是json字符串格式(带单引号str),去掉单引号就是list of dics df_tmp["index3"][0] '[{"name": "Mary", "age":"7", "Sex":"F"},{"name":"Jack", "age":"11","Sex":"M"}]' df_tmp["index3"][1] '[{"name":"Jack", "age":"11","Sex":"M"},{"name":"Lucy","age":"9","Sex":"F"},{"name":"Nancy", "age":"10","Sex":"F"}]' df_tmp["index3"][2] '[{"name": "Luke", "age":"6", "Sex":"F"},{"name":"Lily", "age":"11","Sex":"F"}]' ``` 已有解决方案:把json转码成list of dictionaries,三层循环,遍历dataframe,遍历list,遍历字典; 问题:数据量稍微多一点,速度特别慢,python小白求大神想想其他的方案,比如pandas有没有好用的函数,可不可以用mysql处理?

使用Python或Java解析Json文件,逐级打印菜单

有这样一个菜单json文件: {"id":"100" "name":"File" "parent":"#", "id":"200" "name":"Edit" "parent":"#", "id":"300" "name":"Search" "parent":"#", "id":"400" "name":"Project" "parent":"#", "id":"500" "name":"Help" "parent":"#", "id":"101" "name":"New" "parent":"100", "id":"102" "name":"Open" "parent":"100", "id":"103" "name":"Load" "parent":"100", "id":"201" "name":"Cut" "parent":"200", "id":"202" "name":"Copy" "parent":"200", "id":"203" "name":"Paste" "parent":"200", "id":"301" "name":"Back" "parent":"300", "id":"302" "name":"Replace" "parent":"300", "id":"303" "name":"Jump" "parent":"300", "id":"401" "name":"Add" "parent":"400", "id":"402" "name":"Remove" "parent":"400", "id":"403" "name":"Close" "parent":"400", "id":"501" "name":"Mode" "parent":"500", "id":"502" "name":"Key" "parent":"500", "id":"503" "name":"About" "parent":"500", "id":"1011" "name":"xx" "parent":"101", "id":"2011" "name":"yy" "parent":"201", "id":"3011" "name":"zz" "parent":"301", } 想要打印出如下结果: 100 File 100 File 101 New 100>101 File>New 1011 xx 100>101>1011 File>New>xx 102 Open 100>102 File>Open 103 Load 100>103 File>Load 200 Edit 200 Edit 201 Cut 200>201 Edit>Cut 2011 yy 200>201>2011 Edit>Cut>yy 202 Copy 200>202 Edit>Copy 203 Paste 200>203 Edit>Paste 300 Search 300 Search 301 Back 300>301 Search>Back 3011 zz 300>301>3011 Search>Back>zz 302 Replace 300>302 Search>Replace 303 Jump 300>303 Search>Jump 400 Project 400 Project 401 Add 400>401 Project>Add 402 Remove 400>402 Project>Remove 403 Close 400>403 Project>Close 500 Help 500 Help 501 Mode 500>501 Help>Mode 502 Key 500>502 Help>Key 503 About 500>503 Help>About 想要得出如下结果: 属性Parent如果为#时,说明这是一个根节点,直接打印,打印格式为 ID+Name+ID+Name 属性Parent如果非#时,则需要找到父节点的ID和Name,打印格式为 ID+Name+Parent ID>ID+Parent Name>Name 如果父节点也不是一个根节点,打印格式为 ID+Name+根节点ID>Parent ID>ID+根节点Name>Parent Name>Name,以此类推。当菜单层级非常多时,此处判断如何写一个递归算法,逐级找到某节点的所有父节点。

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

C++(数据结构与算法)78:---分而治之

一、分而治之的思想 分而治之方法与软件设计的模块化方法非常相似 分而治之通常不用于解决问题的小实例,而要解决一个问题的大实例。一般步骤为: ①把一个大实例分为两个或多个更小的实例 ②分别解决每个小实例 ③把这些小实例的解组合成原始大实例的解 二、实际应用之找出假币 问题描述 一个袋子有16个硬币,其中只有一个是假币,这个假币比其他的真币重量轻(其他所有真币的重量都是相同的)...

springboot+jwt实现token登陆权限认证

一 前言 此篇文章的内容也是学习不久,终于到周末有时间码一篇文章分享知识追寻者的粉丝们,学完本篇文章,读者将对token类的登陆认证流程有个全面的了解,可以动态搭建自己的登陆认证过程;对小项目而已是个轻量级的认证机制,符合开发需求;更多精彩原创内容关注公主号知识追寻者,读者的肯定,就是对作者的创作的最大支持; 二 jwt实现登陆认证流程 用户使用账号和面发出post请求 服务器接受到请求后使用私...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

win10暴力查看wifi密码

刚才邻居打了个电话说:喂小灰,你家wifi的密码是多少,我怎么连不上了。 我。。。 我也忘了哎,就找到了一个好办法,分享给大家: 第一种情况:已经连接上的wifi,怎么知道密码? 打开:控制面板\网络和 Internet\网络连接 然后右击wifi连接的无线网卡,选择状态 然后像下图一样: 第二种情况:前提是我不知道啊,但是我以前知道密码。 此时可以利用dos命令了 1、利用netsh wlan...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

!大部分程序员只会写3年代码

如果世界上都是这种不思进取的软件公司,那别说大部分程序员只会写 3 年代码,恐怕就没有程序员这种职业。

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

早上躺尸,晚上干活:硅谷科技公司这么流行迟到?

硅谷科技公司上班时间OPEN早已不是什么新鲜事,早九晚五是常态,但有很多企业由于不打卡,员工们10点、11点才“姗姗来迟”的情况也屡见不鲜。 这种灵活的考勤制度为人羡慕,甚至近年来,国内某些互联网企业也纷纷效仿。不过,硅谷普遍弹性的上班制度是怎么由来的呢?这种“流行性迟到”真的有那么轻松、悠哉吗? 《动态规划专题班》 课程试听内容: 动态规划的解题要领 动态规划三大类 求最值/计数/可行性 常...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

立即提问
相关内容推荐