python unicode编码问题 10C

最近用python的mysqldb模板将数据批量的更新进数据库,然后爆了一个韩红听了想打人的错误

%u format: a number is required, not unicode

什么鬼。。。。%u不是格式化unicode的符合吗。。。。

sql_introduce = "UPDATE experiment_attrs SET content='%u' WHERE experiment_attrs.experiment_id='%s' AND experiment_attrs.title='实验介绍';" % (change_introduce, id)
cursor_1.execute(sql_introduce)
conn_1.commit()

然后这是我的代码的部分,change_introduce是从文件中读取的内容。。。

大神求救啊

2个回答

python中的字符串format,%u表示无符号数据,所以你应该用%s

你可以把change_introduce返回的字符串编码处理以后再构造sql字符串

 sql_introduce = "UPDATE experiment_attrs SET content='%s' WHERE experiment_attrs.experiment_id='%s' AND experiment_attrs.title='实验介绍';" % (change_introduce, id)
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Python3如何输出unicode字符串
北 的unicode编码 \u5317 用Python3如何获取北的unicode编码
python3 ascii码无法转成unicode 整了一个晚上了!
#coding=utf-8 import urllib.request from bs4 import BeautifulSoup def IntoPage(p_href):     indata = urllib.request.urlopen(p_href).read() #这里老出错,报错是'ascii' codec can't encode character u'\u2013' in position 3 2: ordinal not in range(128)     return data = urllib.request.urlopen(url).read() soup = BeautifulSoup(data, "html.parser") for sgdiv in soup.find_all('div',class_='des'):     IntoPage(sgdiv.a.get('href'))
Python BeautifulSoup find_all 问题
用python爬下一个网页,将其弄成BeautifulSoup Object之后, 1. ptint bsObj 可以输出中文内容 2. print bsObj.find__all之后,输出的是unicode编码的内容,请问该怎么处理呢?_
python编码编码转换问题
sent = unicode(sent,'utf-8') UnicodeDecodeError: 'utf8' codec can't decode byte 0xce in position 0: invalid continuation byte
Python3 decode("unicode-escape")后的中文乱码
``` response = requests.get(url, headers=headers).content # soup = BeautifulSoup(response,'lxml')#'html.parser',from_encoding='utf-8' # saix = soup.find_all('div',target="blank") decodedUniChars = response.decode("unicode-escape")#直接解码 \u 的中文乱码,运行正常 s = etree.HTML(decodedUniChars) h = s.xpath('//a/text()')#爬取text内容出现乱码 print(h) 打印text内容出现乱码 ``` ![图片说明](https://img-ask.csdn.net/upload/201705/31/1496166283_710070.png) 没什么C币 抱歉了
关于python 链接sqlserver编码问题。
公司数据库用的编码集是gb2312 python默认的编码集是unicode. pymssql.connect(charset='gb2312') 这句话会报错 ,写utf-8又与数据库编码集不一致,应该写啥? 造成乱码 是否就是因为数据库的编码与程序编码不一致造成的?
python中文字符串在字典中显示unicode码
直接上代码,有个字有毒,在编辑器里显示的是乱码 ``` #!/usr/bin/env python # _*_coding:utf-8_*_ text = u"'林青萍,夏建荣,林宇靖,夏天,尹奕凯,庹迪,王熙子'" dirt = {"vvv": u"'林青萍,夏建荣,林宇靖,夏天,尹奕凯,庹迪,王熙子'"} print(text) print(dirt) print(dirt['vvv']) '林青萍,夏建荣,林宇靖,夏天,尹奕凯,庹迪,王熙子' {'vvv': "'林青萍,夏建荣,林宇靖,夏天,尹奕凯,庹\ue863迪,王熙子'"} '林青萍,夏建荣,林宇靖,夏天,尹奕凯,庹迪,王熙子' ```
python中的编码与字典中的编码,迷惑不解
``` IPython 5.4.1 -- An enhanced Interactive Python. ? -> Introduction and overview of IPython's features. %quickref -> Quick reference. help -> Python's own help system. object? -> Details about 'object', use 'object??' for extra details. In [1]: a = {1: '我爱吃鱼'} In [2]: a Out[2]: {1: '\xe6\x88\x91\xe7\x88\xb1\xe5\x90\x83\xe9\xb1\xbc'} In [3]: a[1] Out[3]: '\xe6\x88\x91\xe7\x88\xb1\xe5\x90\x83\xe9\xb1\xbc' In [4]: print a[1] 我爱吃鱼 In [5]: b = {1: u'我爱吃鱼'} In [6]: b Out[6]: {1: u'\u6211\u7231\u5403\u9c7c'} In [7]: print(b[1]) 我爱吃鱼 In [8]: ``` python2.7使用ipython编辑,为什么字典中的汉字是ascii码,unicode进行存储,而打印出来就不一样呢?大神解释一下上述过程。
Python编码问题,cgi脚本输出BeautifulSoup处理的中文内容(decode处理)出错
最近写一个程序,想要先用BeautifulSoup处理一个html页面,然后再输出一下到我的一个python写的cgi页面上,因为一些中文字符都是\X**的格式,网上查了说BeautifulSoup输出的是unicode字符。然后需要把字节类型的转为字符输出。在ide中是可以正常转换的。 但是使用cgi脚本在浏览器中浏览时就会出错,报一个UnicodeEncodeError: 'gbk' codec can't encode character '\xa0' in position 89: illegal multibyte sequence 错误,不清楚是为什么。网上有人说输出的文件是gbk编码导致的,但是我的是html页面,所以不知道如何处理,希望大牛帮忙解答。或者推荐我有关python编码的书也可以,很想弄明白这是为什么。 我使用的版本是python3.3
python中使用decode解码无反应
![图片说明](https://img-ask.csdn.net/upload/201601/05/1451926855_359670.png) 本人新手,想把这个字符串变成unicode编码
Unicode码点大于65536的字符如何在内存储存?
内存中字符以Unicode储存,而两字节的Unicode最多能储存65536个字符,那么对于Unicode码点大于65536的字符(应该有吧)在内存如何储存呢?
请求各位大神指出下面一段python爬虫代码的问题:
我想在24365官网上爬取招聘信息中的岗位名称和公司名称到EXCEL表格中,但运行代码后表格里只有标题,没有内容,要爬取的网站如图所示: ![图片说明](https://img-ask.csdn.net/upload/202003/25/1585128946_797460.png) 网址:https://job.ncss.cn/student/jobs/index.html?server=true&jobName=%E5%AE%89%E5%85%A8&areaCode=&degreeCode=&monthPay=&areasName=%E5%85%A8%E5%9B%BD 代码如下: import urllib.request,traceback import re import xlwt #用来创建excel文档并写入数据 def get_content(page): url = 'https://job.ncss.cn/student/jobs/index.html?server=true&jobName=%E5%AE%89%E5%85%A8&areaCode=&degreeCode=&monthPay=&areasName=%E5%85%A8%E5%9B%BD'+str(page)+'.html' a = urllib.request.urlopen(url)#打开网址 html = a.read().decode('utf-8')#读取源代码并转为unicode return html def get(html): reg = re.compile(r'class="company-name" .*?>(.*?)</span>.*?<span>(.*?)</span>',re.S)#匹配换行符,设置正则表达式 items = re.findall(reg,html) return items def excel_write(items,index): #爬取到的内容写入excel表格 for item in items:#职位信息 for i in range(0,2): #print item[i] ws.write(index,i,item[i])#行,列,数据 print(index) index+=1 newTable="test2.xls"#表格名称 wb = xlwt.Workbook(encoding='utf-8')#创建excel文件,声明编码 ws = wb.add_sheet('sheet1')#创建表格 headData = ['公司','类型']#表头部信息 for colnum in range(0,2): ws.write(0, colnum, headData[colnum], xlwt.easyxf('font: bold on')) # 行,列 for each in range(1,10): index=(each-1)*50+1 excel_write(get(get_content(each)),index) wb.save(newTable) 该网站爬取内容所需的审查元素在下图的蓝色位置: ![图片说明](https://img-ask.csdn.net/upload/202003/25/1585129490_756957.png) 审查元素具体内容如下: ![图片说明](https://img-ask.csdn.net/upload/202003/25/1585130245_156158.png)
python3使用pymssql导入sql server数据出现中文乱码
sql server使用gbk对中文进行编码,而python3所有字符都用unicode编码,于是从sql server导入中文后,使用如下语句先用UTF8编码、再用GBK解码: ``` print(str(Cname).encode('UTF-8').decode('GBK')) ``` 得到的结果是中文乱码,且乱码字数是原来的两倍。。请问如何解决~~
python 如何将Tab分隔的文本文件批量转为Excel文件
如题:python 如何将Tab分隔的文本文件批量转为Excel文件 文本文件为服务器上下载的Unicode编码的,不知有无现成模块可用,请不吝赐教。
Python爬虫在Django中的使用问题
新入门Django,现在已经写好了一个Python爬虫,直接用Python跑测试没问题, ------在Django项目中加入了一个新的爬虫app,用model创建了表格,和展示爬虫的html ------但是runserver, 以后查看db.sqlite3里面对应的表已经创建,但是里面没有存爬到的内容, ------ 请大神们指教该怎么办, 代码如下 Spider.py, 爬虫并存入model.py 创建的**Website**表 ``` #!/usr/bin/python # -*- coding: utf-8 -*- # import data into mysql(sqlite3), must have these four lines defination: import os # # 我所创建的project名称为learn_spider;里面的app名称为website os.environ.setdefault("DJANGO_SETTINGS_MODULE", "blogproject.settings") # import django # django.setup() # urllib2 package: open resource by URL; re package: use regular expression to filter the objects import urllib.request, re import urllib.parse # BeautifulSoup: abstract data clearly from html/xml files from bs4 import BeautifulSoup # import tables from models.py from .models import Website # urlopen()方法需要加read()才可视源代码,其中decode("utf-8")表示以utf-8编码解析原网页,这个编码格式是根据网页源代码中<head>标签下的<meta charset="utf-8">来决定的。 ul = "https://baike.baidu.com/item/Python" req = urllib.request.Request(ul) html_python = urllib.request.urlopen(req).read().decode("utf-8") #html_python = urllib.request.urlopen('https://baike.baidu.com/item/Python').read().decode("utf-8") soup_python = BeautifulSoup(html_python, "html.parser") # print soup #这里用到了正则表达式进行筛选 item_list = soup_python.find_all('a', href=re.compile("item")) for each in item_list: print (each.string) # use quote to replace special characters in string(escape encode method) urls = "https://baike.baidu.com/item/" + urllib.parse.quote(each.string.encode("utf-8")) print (urls) html = urllib.request.urlopen(urls).read().decode("utf-8") soup = BeautifulSoup(html, "html.parser") if soup.find('div', 'lemma-summary') == None: text = "None" else: text = soup.find('div', 'lemma-summary').get_text() print (text) Website.objects.get_or_create(name=each.string, url=urls, text=text) text_python = soup_python.find('div', 'lemma-summary').text Website.objects.get_or_create(name="Python", url="https://baike.baidu.com/item/Python", text=text_python) ``` model.py 创建Website 表用于存储爬到的内容 ``` # -*- coding: utf-8 -*- from __future__ import unicode_literals from django.db import models # Create your models here. class Website(models.Model): name = models.CharField(max_length=100) url = models.CharField(max_length=100) text = models.TextField() def __unicode__(self): return self.name ``` view.py 提取表中已爬取的内容 ``` from __future__ import unicode_literals from django.shortcuts import render # Create your views here. from .models import Website def show(request): # 这里直接通过QuerySet API获取所有的object,默认返回类型为tuple(元组) queryset = Website.objects.all() # 传入三个渲染参数 return render(request, 'news/nws.html', {'QuerySet': queryset}) ```
python2.7.5以ucs4编译
为什么用这些命令编译安装的还是ucs-2编码方式呢? ./configure --prefix=/usr/local/python27 --enable-shared -enable-unicode=ucs4 make && make install
python3 word="0"的编码如何变为“utf-8”
python3 最近要通过python实现搜索文件中的关键词出现次数的功能,定义输入的关键字字符串为word="",代码从docx文件读取编码为"utf-8",然后进行匹配搜索。目前输入word="1",word="0"都会报错,word="1234"就不会报错,分析大概是**编码问题**导致的。总的来说,我希望检索“0”这个字符串在某个word文档中出现的次数;是需要从word加载的内容全部转为unicode或者utf-8编码再匹配查找吗?目前“0”会在循环的某个判断停掉 :if i.find(word) != -1:,关于在匹配关键词时用什么编码这块比较小白,希望大神可以帮忙看下: ``` # -*- coding: UTF-8 -*- from docx import Document import re, chardet filename = "D:\python测试\科目四.docx" word = "米".encode(encoding='utf-8') #打开文档 document = Document(filename) print (filename) #读取每段资料 l = [paragraph.text.encode(encoding='utf-8', errors='ignore') for paragraph in document.paragraphs] count = 0 count_2 = 0 j = 0 for i in l: i = i.strip() if i.find(word) != -1: count = count + 1 j = j + 1 print('-', count, '-', i.decode('utf-8')) print("计数: ", j) count_2 = count_2 + j print("该篇中出现字符的个数为:", count_2) ``` 每次报错不一样,有时就是直接循环结束但最后一个print没有执行,也没有任何报错,和输入word参数有关: ![图片说明](https://img-ask.csdn.net/upload/201909/25/1569399847_808735.jpg) 如果把编码全部去掉,大部分输入没问题,但是当word="0"时最后一个print没输出,这个如何解释 ############################ 刚才又改了下,如果加try就会运行正确,不加try就不打印最后一个print: ![图片说明](https://img-ask.csdn.net/upload/201909/25/1569404197_644224.jpg) 如下是正确的输出: ![图片说明](https://img-ask.csdn.net/upload/201909/25/1569404323_410334.jpg)
python向oracle插入数据
我用python生成一个dataframe然后转换成list通过cursor的方法插入数据, 但是插入数据时总是报错"expect string,unicode or buffer object" 最后执行插入的代码片段如下 ``` def insert2sql(table,table_list,signal_all,parameter): signal_list=signal_all.values.tolist() conn=cx_Oracle.connect(连接串) cursor=conn.cursor() table_list=['a','b','c','d'] conn.prepare("insert into "+table+"("+table_list+") values ( %s,%s,%s...) cursor.executemany(None,signal_list) conn.commit() ``` 插入数据内有中文和空值,debug观察到signallist的中文都已经转换成成unicode编码,但仍然报错,最终数据也没有插入,不知道是哪里出问题了,有碰到过该问题的同学请回答一下,谢谢。_
刚学python,抓中文网页遇到编码的问题,怎么转换也不行……
我查了一些关于python处理国际语言的文章, 感觉自己是用对了,可是结果还是不行 所以只能提问下了 我就是想抓下百度的首页,然后把页面上的链接和锚文本显示出来 现在唯一的问题就是在终端里打印出锚文本时,是乱码 我想转换,却报错 [code="java"] #!/usr/local/bin/python # -*- coding: utf-8 -*- import urllib2, htmllib, formatter class LinksExtractor(htmllib.HTMLParser): def __init__(self, formatter): htmllib.HTMLParser.__init__(self, formatter) self.links = [] self.archtexts = [] self.in_anchor = 0 def start_a(self, attrs): # process the attributes self.in_anchor = 1; if len(attrs) > 0 : for attr in attrs : if attr[0] == "href" : self.links.append(attr[1]) def end_a(self): self.in_anchor = 0 def handle_data(self, text): if self.in_anchor: text = text.decode("GB2312") self.archtexts.append(text) def get_links(self) : return self.links print "你好" #get html source request = urllib2.Request('http://www.baidu.com/') #request = urllib2.Request('http://localhost:8080/') request.add_header('User-Agent', 'Mozilla/5.0') opener = urllib2.build_opener() htmlSource = opener.open(request).read() format = formatter.NullFormatter() htmlparser = LinksExtractor(format) htmlparser.feed(htmlSource) htmlparser.close() links = htmlparser.get_links() for i in range(len(htmlparser.links)): temp = htmlparser.archtexts[i].encode("utf8") print "url: %s, text: %s" % (htmlparser.links[i], temp) #print links # print all the links [/code] 报的错是: UnicodeDecodeError: 'gb2312' codec can't decode byte 0xa0 in position 0: incomplete multibyte sequence 我在代码中输出“你好”是可以在终端上正确显示的 百度的网页是gb2312 读百度网页时我 text = text.decode("GB2312"),转成unicode对象, 输出时再以utf-8编码输出到终端,就样就和“你好”一样了 我觉得应该是这样啊 不过怎么不对呢? 谢谢
在中国程序员是青春饭吗?
今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...
《MySQL 性能优化》之理解 MySQL 体系结构
本文介绍 MySQL 的体系结构,包括物理结构、逻辑结构以及插件式存储引擎。
【资源】一个C/C++开发工程师的学习路线(已经无路可退,唯有逆风飞翔)【内附资源页】
声明: 1)该文章整理自网上的大牛和专家无私奉献的资料,具体引用的资料请看参考文献。 2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。 3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。 4)此属于第一版本,若有错误,还需继续修正与增删。还望大家多多指点。大家都共享一点点,一起为祖国科研的推进...
程序员请照顾好自己,周末病魔差点一套带走我。
程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。
20道你必须要背会的微服务面试题,面试一定会被问到
写在前面: 在学习springcloud之前大家一定要先了解下,常见的面试题有那块,然后我们带着问题去学习这个微服务技术,那么就会更加理解springcloud技术。如果你已经学了springcloud,那么在准备面试的时候,一定要看看看这些面试题。 文章目录1、什么是微服务?2、微服务之间是如何通讯的?3、springcloud 与dubbo有哪些区别?4、请谈谈对SpringBoot 和S...
达摩院十大科技趋势发布:2020 非同小可!
【CSDN编者按】1月2日,阿里巴巴发布《达摩院2020十大科技趋势》,十大科技趋势分别是:人工智能从感知智能向认知智能演进;计算存储一体化突破AI算力瓶颈;工业互联网的超融合;机器间大规模协作成为可能;模块化降低芯片设计门槛;规模化生产级区块链应用将走入大众;量子计算进入攻坚期;新材料推动半导体器件革新;保护数据隐私的AI技术将加速落地;云成为IT技术创新的中心 。 新的画卷,正在徐徐展开。...
轻松搭建基于 SpringBoot + Vue 的 Web 商城应用
首先介绍下在本文出现的几个比较重要的概念: 函数计算(Function Compute): 函数计算是一个事件驱动的服务,通过函数计算,用户无需管理服务器等运行情况,只需编写代码并上传。函数计算准备计算资源,并以弹性伸缩的方式运行用户代码,而用户只需根据实际代码运行所消耗的资源进行付费。Fun: Fun 是一个用于支持 Serverless 应用部署的工具,能帮助您便捷地管理函数计算、API ...
Python+OpenCV实时图像处理
目录 1、导入库文件 2、设计GUI 3、调用摄像头 4、实时图像处理 4.1、阈值二值化 4.2、边缘检测 4.3、轮廓检测 4.4、高斯滤波 4.5、色彩转换 4.6、调节对比度 5、退出系统 初学OpenCV图像处理的小伙伴肯定对什么高斯函数、滤波处理、阈值二值化等特性非常头疼,这里给各位分享一个小项目,可通过摄像头实时动态查看各类图像处理的特点,也可对各位调参、测试...
2020年一线城市程序员工资大调查
人才需求 一线城市共发布岗位38115个,招聘120827人。 其中 beijing 22805 guangzhou 25081 shanghai 39614 shenzhen 33327 工资分布 2020年中国一线城市程序员的平均工资为16285元,工资中位数为14583元,其中95%的人的工资位于5000到20000元之间。 和往年数据比较: yea...
为什么猝死的都是程序员,基本上不见产品经理猝死呢?
相信大家时不时听到程序员猝死的消息,但是基本上听不到产品经理猝死的消息,这是为什么呢? 我们先百度搜一下:程序员猝死,出现将近700多万条搜索结果: 搜索一下:产品经理猝死,只有400万条的搜索结果,从搜索结果数量上来看,程序员猝死的搜索结果就比产品经理猝死的搜索结果高了一倍,而且从下图可以看到,首页里面的五条搜索结果,其实只有两条才是符合条件。 所以程序员猝死的概率真的比产品经理大,并不是错...
害怕面试被问HashMap?这一篇就搞定了!
声明:本文以jdk1.8为主! 搞定HashMap 作为一个Java从业者,面试的时候肯定会被问到过HashMap,因为对于HashMap来说,可以说是Java集合中的精髓了,如果你觉得自己对它掌握的还不够好,我想今天这篇文章会非常适合你,至少,看了今天这篇文章,以后不怕面试被问HashMap了 其实在我学习HashMap的过程中,我个人觉得HashMap还是挺复杂的,如果真的想把它搞得明明白...
毕业5年,我问遍了身边的大佬,总结了他们的学习方法
我问了身边10个大佬,总结了他们的学习方法,原来成功都是有迹可循的。
python爬取百部电影数据,我分析出了一个残酷的真相
2019年就这么匆匆过去了,就在前几天国家电影局发布了2019年中国电影市场数据,数据显示去年总票房为642.66亿元,同比增长5.4%;国产电影总票房411.75亿元,同比增长8.65%,市场占比 64.07%;城市院线观影人次17.27亿,同比增长0.64%。 看上去似乎是一片大好对不对?不过作为一名严谨求实的数据分析师,我从官方数据中看出了一点端倪:国产票房增幅都已经高达8.65%了,为什...
推荐10个堪称神器的学习网站
每天都会收到很多读者的私信,问我:“二哥,有什么推荐的学习网站吗?最近很浮躁,手头的一些网站都看烦了,想看看二哥这里有什么新鲜货。” 今天一早做了个恶梦,梦到被老板辞退了。虽然说在我们公司,只有我辞退老板的份,没有老板辞退我这一说,但是还是被吓得 4 点多都起来了。(主要是因为我掌握着公司所有的核心源码,哈哈哈) 既然 4 点多起来,就得好好利用起来。于是我就挑选了 10 个堪称神器的学习网站,推...
这些软件太强了,Windows必装!尤其程序员!
Windows可谓是大多数人的生产力工具,集娱乐办公于一体,虽然在程序员这个群体中都说苹果是信仰,但是大部分不都是从Windows过来的,而且现在依然有很多的程序员用Windows。 所以,今天我就把我私藏的Windows必装的软件分享给大家,如果有一个你没有用过甚至没有听过,那你就赚了????,这可都是提升你幸福感的高效率生产力工具哦! 走起!???? NO、1 ScreenToGif 屏幕,摄像头和白板...
阿里面试,面试官没想到一个ArrayList,我都能跟他扯半小时
我是真的没想到,面试官会这样问我ArrayList。
曾经优秀的人,怎么就突然不优秀了。
职场上有很多辛酸事,很多合伙人出局的故事,很多技术骨干被裁员的故事。说来模板都类似,曾经是名校毕业,曾经是优秀员工,曾经被领导表扬,曾经业绩突出,然而突然有一天,因为种种原因,被裁员了,...
大学四年因为知道了这32个网站,我成了别人眼中的大神!
依稀记得,毕业那天,我们导员发给我毕业证的时候对我说“你可是咱们系的风云人物啊”,哎呀,别提当时多开心啦????,嗯,我们导员是所有导员中最帅的一个,真的???? 不过,导员说的是实话,很多人都叫我大神的,为啥,因为我知道这32个网站啊,你说强不强????,这次是绝对的干货,看好啦,走起来! PS:每个网站都是学计算机混互联网必须知道的,真的牛杯,我就不过多介绍了,大家自行探索,觉得没用的,尽管留言吐槽吧???? 社...
良心推荐,我珍藏的一些Chrome插件
上次搬家的时候,发了一个朋友圈,附带的照片中不小心暴露了自己的 Chrome 浏览器插件之多,于是就有小伙伴评论说分享一下我觉得还不错的浏览器插件。 我下面就把我日常工作和学习中经常用到的一些 Chrome 浏览器插件分享给大家,随便一个都能提高你的“生活品质”和工作效率。 Markdown Here Markdown Here 可以让你更愉快的写邮件,由于支持 Markdown 直接转电子邮...
看完这篇HTTP,跟面试官扯皮就没问题了
我是一名程序员,我的主要编程语言是 Java,我更是一名 Web 开发人员,所以我必须要了解 HTTP,所以本篇文章就来带你从 HTTP 入门到进阶,看完让你有一种恍然大悟、醍醐灌顶的感觉。 最初在有网络之前,我们的电脑都是单机的,单机系统是孤立的,我还记得 05 年前那会儿家里有个电脑,想打电脑游戏还得两个人在一个电脑上玩儿,及其不方便。我就想为什么家里人不让上网,我的同学 xxx 家里有网,每...
2020 年,大火的 Python 和 JavaScript 是否会被取而代之?
Python 和 JavaScript 是目前最火的两大编程语言,但是2020 年,什么编程语言将会取而代之呢? 作者 |Richard Kenneth Eng 译者 |明明如月,责编 | 郭芮 出品 | CSDN(ID:CSDNnews) 以下为译文: Python 和 JavaScript 是目前最火的两大编程语言。然而,他们不可能永远屹立不倒。最终,必将像其他编程语言一...
史上最全的IDEA快捷键总结
现在Idea成了主流开发工具,这篇博客对其使用的快捷键做了总结,希望对大家的开发工作有所帮助。
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
谁是华为扫地僧?
是的,华为也有扫地僧!2020年2月11-12日,“养在深闺人不知”的华为2012实验室扫地僧们,将在华为开发者大会2020(Cloud)上,和大家见面。到时,你可以和扫地僧们,吃一个洋...
AI 没让人类失业,搞 AI 的人先失业了
最近和几个 AI 领域的大佬闲聊 根据他们讲的消息和段子 改编出下面这个故事 如有雷同 都是巧合 1. 老王创业失败,被限制高消费 “这里写我跑路的消息实在太夸张了。” 王葱葱哼笑一下,把消息分享给群里。 阿杰也看了消息,笑了笑。在座几位也都笑了。 王葱葱是个有名的人物,21岁那年以全额奖学金进入 KMU 攻读人工智能博士,累计发表论文 40 余篇,个人技术博客更是成为深度学习领域内风向标。 ...
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆每天早上8:30推送 作者|Mr.K 编辑| Emma 来源|技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯...
神级宝库!GitHub 标星 1.2w+,Chrome 最天秀的插件都在这里啦!
作者 | Rocky0429 来源 | Python空间 大家好,我是 Rocky0429,一个沉迷 Chrome 不能自拔的蒟蒻… 作为一个在远古时代用过什么 IE、360、猎豹等浏览器的资深器哥,当我第一次了解 Chrome 的时候,就被它的美貌给吸引住了… 就在我用了一段时间之后,我坚决的卸载了电脑上其它碍眼的浏览器,并觉得在之前的搬砖生涯中,我不配当哥,我只配是个沙雕… ...
作为一名大学生,如何在B站上快乐的学习?
B站是个宝,谁用谁知道???? 作为一名大学生,你必须掌握的一项能力就是自学能力,很多看起来很牛X的人,你可以了解下,人家私底下一定是花大量的时间自学的,你可能会说,我也想学习啊,可是嘞,该学习啥嘞,不怕告诉你,互联网时代,最不缺的就是学习资源,最宝贵的是啥? 你可能会说是时间,不,不是时间,而是你的注意力,懂了吧! 那么,你说学习资源多,我咋不知道,那今天我就告诉你一个你必须知道的学习的地方,人称...
那些年,我们信了课本里的那些鬼话
教材永远都是有错误的,从小学到大学,我们不断的学习了很多错误知识。 斑羚飞渡 在我们学习的很多小学课文里,有很多是错误文章,或者说是假课文。像《斑羚飞渡》: 随着镰刀头羊的那声吼叫,整个斑羚群迅速分成两拨,老年斑羚为一拨,年轻斑羚为一拨。 就在这时,我看见,从那拨老斑羚里走出一只公斑羚来。公斑羚朝那拨年轻斑羚示意性地咩了一声,一只半大的斑羚应声走了出来。一老一少走到伤心崖,后退了几步,突...
张朝阳回应迟到 1 分钟罚 500:资本家就得剥削员工
loonggg读完需要2分钟速读仅需 1 分钟大家我,我是你们的校长。前几天,搜狐的董事局主席兼 CEO 张朝阳和搜狐都上热搜了。原因很简单,就是搜狐出了“考勤新规”。一封搜狐对员工发布...
立即提问