pandas处理excel中列名为中文的问题

刚学pandas处理数据,导入excel表后想利用列名索引的方式['列名']或.列名提取数据
发现有的列数据可以提有的搜列名就是keyerror
就又看了下第一行数据,发现第一行数据对应的列名可以以提取的数据排列整齐,不可以提取的其实是列名后还存在空格,使用列名加相应的空格就可以提取不报keyerror
这什么情况,是不pandas可以处理中文列名,但是数据格式要统一?
我先把excel表中的列明数据格式都改为了数值,然后用格式刷把所有列名数据刷了一遍,再提取,并没改变。
有人遇到过这个问题吗,咋处理,看到网上有人是写dict的,有直接处理的吗?

1个回答

找到答案了用strip()去掉空格就可以检索了

talentvictor
talentvictor 具体是怎么做的呀?
大约 2 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
pandas读取excel的中文列名时出现错误

```py path1='D:\experiment' xlsx_names = [x for x in os.listdir(path1) if x.endswith(".xlsx")] #读取以xlsx结尾的文件 print(xlsx_names) df_data = None for xlsx_name in xlsx_names: path=os.path.join(path1,xlsx_name) print(path) df = pd.read_excel(path, sheet_name='订单明细') print(df) print(df['客户所在城市(地级市)']) print(df['商品件数(件数)']) ``` KeyError: '客户所在城市(地级市)' 不能打印出来,有没有人知道怎么回事

pandas读取excel数据跟文件中的不一致

我的excel表中数据是这样的 ![图片说明](https://img-ask.csdn.net/upload/202005/29/1590740842_297537.png) 但是读取出来是这样的。请高手指点一下。 ![图片说明](https://img-ask.csdn.net/upload/202005/29/1590741105_796304.png)

pandas库能不能筛选出列名包含某个特定文本的列

![图片说明](https://img-ask.csdn.net/upload/201906/03/1559556912_412275.png) 比如说这里有4.1D-US和5D-US两个列,能不能通过含有"D-US"这个文本筛选出这两列?

使用Python 将某个excel 中的一列 写入 另一个excel 中的某一列

嗨 朋友们: 我还在编写这个程序中...然而遇到了一些新的麻烦... 想要实现的功能: 将某个excel 中的一列 写入 另一个excel 中的一列. 当前我已经可以通过自定义的 get infor() 函数 提取某一excel 表中的数据 并存储在列表 (L=[ ] )中, ![图片说明](https://img-ask.csdn.net/upload/201909/01/1567349983_131463.png) 并通过open excel cost () 函数 将这些信息插入到目标excel之中了。 然而,我发现自己所使用的 插入excel 的方法只能针对 某个 特定的 单元格 (如我代码之中的 "D2" 单元格)。 我想对这个open excel cost () 函数 代码进行调整,使得它可以根据get infor() 函数中的列表返回结果 对目标excel中的某一列 批量赋值。 请问应该如何实现呢? 我的代码如下, 感谢大佬们的辛苦指正 ``` import openpyxl import xlrd def get_infor(): book = xlrd.open_workbook('C:/Users/lenovo/Desktop/模板.xlsx') sheet = book.sheet_by_name('WRT模板IN') L =[] for i in range (2,sheet.nrows): # i 从第四列开始 PN = str(sheet.cell(i,5).value) Cost_USD = str(sheet.cell(i, 9).value) L.append((PN,Cost_USD)) #t=tuple(L) return L #print(L) t1= get_infor() #print(t1) # # sh = t1[0][0] # print(sh) # def Open_excel_cost(): workbook = openpyxl.load_workbook('C:/Users/lenovo/Desktop/文档模板/IN/Cost_IN.xlsx') sheet = workbook.worksheets[0] # 第一个页签 sheet['D2'] = t1[0][1] #sheet['A1'] = t1[1][2] workbook.save('C:/Users/lenovo/Desktop/文档模板/IN/Cost_IN.xlsx') # 此步骤要保存才行的, 否则是不会在excel中显示的 2019.8.24 print(sheet['D2'].value) print(sheet.title) Open_excel_cost() ```

python 处理excel 批量添加 定义名称

想给excel表格, 每个单元格 添加 定义名称, 定义名称内容为 此单元格所在 列 第一行的数据, 不知怎么批量实现?有哪位大佬指点一二 谢谢 。下边是我写的,这个只能 添加所有列第一行里边的定义名称,其他行无效呢? wb = load_workbook(xl_file) ws = wb.active l_num = ws.max_column # 最大列 h_num = ws.max_row # 最大行 print(ws.max_row) print(ws.max_column) a_list = [] for i in range(2, h_num + 1): # h_num + 1 for j in range(1, l_num + 1): p = ws.cell(row=1, column=j) pz = p.value # 第一行的值 字段 a = ws.cell(row=i, column=j) # 每列标题 # print(j) # aa = a.value # 此单元格里边的值 写入新表格 coord = a.coordinate # 此单元格坐标 A1 B1 print(coord) l = re.findall(r'^[A-Z]*', coord)[0] h = re.findall(r'[0-9]*$', coord)[0] # 把sheet1 里的A2 设定为rpt_date # dname = DefinedName(name='rpt_date') # dname.value = "Sheet1!$A$2" bb = "Sheet1!$" + l + '$' + h print(bb) dname = DefinedName(name='%s' % pz) dname.value = bb # print('>>>', dname, '---', type(dname)) wb.defined_names.append(dname) # wb.save(xl_savefile) wb.close()

pandas 提取指定列数据

```timeframe.loc[:,['car']] timeframe.loc[:,['car']] ``` 我使用loc函数应该就能把这一列所有行给提取出来呀,为什么我弄出来就变成一列了? 我本身有94列。 整个数据是两列,我提取了表头为car的那列 ``` car 0 3946 ``` ![图片说明](https://img-ask.csdn.net/upload/202006/21/1592725547_12711.png) 有94列

小弟使用pandas的统计函数mean求均值,但是结果是空值,请求论坛大神们帮小弟解惑啊!

小弟使用pandas的统计函数mean,求一下df各列的平均,但是结果是空值,请求论坛大神们帮小弟解惑啊,下面是打印的df和mean函数输出的均值结果。 df长这样: VERSION MODEL FCST_LEAD FCST_VALID_BEG FCST_VALID_END OBS_LEAD \ 5 V5.2 WRF 480000 20180507_000000 20180507_000000 0 5 V5.2 WRF 480000 20180508_000000 20180508_000000 0 5 V5.2 WRF 480000 20180509_000000 20180509_000000 0 5 V5.2 WRF 480000 20180510_000000 20180510_000000 0 5 V5.2 WRF 480000 20180511_000000 20180511_000000 0 5 V5.2 WRF 480000 20180512_000000 20180512_000000 0 5 V5.2 WRF 480000 20180513_000000 20180513_000000 0 5 V5.2 WRF 480000 20180514_000000 20180514_000000 0 5 V5.2 WRF 480000 20180515_000000 20180515_000000 0 5 V5.2 WRF 480000 20180516_000000 20180516_000000 0 5 V5.2 WRF 480000 20180517_000000 20180517_000000 0 5 V5.2 WRF 480000 20180518_000000 20180518_000000 0 5 V5.2 WRF 480000 20180519_000000 20180519_000000 0 5 V5.2 WRF 480000 20180520_000000 20180520_000000 0 5 V5.2 WRF 480000 20180521_000000 20180521_000000 0 5 V5.2 WRF 480000 20180522_000000 20180522_000000 0 OBS_VALID_BEG OBS_VALID_END FCST_VAR FCST_LEV ... FCST_THRESH \ 5 20180506_223000 20180507_013000 APCP_06 A6 ... >=50.0 5 20180507_223000 20180508_013000 APCP_06 A6 ... >=50.0 5 20180508_223000 20180509_013000 APCP_06 A6 ... >=50.0 5 20180509_223000 20180510_013000 APCP_06 A6 ... >=50.0 5 20180510_223000 20180511_013000 APCP_06 A6 ... >=50.0 5 20180511_223000 20180512_013000 APCP_06 A6 ... >=50.0 5 20180512_223000 20180513_013000 APCP_06 A6 ... >=50.0 5 20180513_223000 20180514_013000 APCP_06 A6 ... >=50.0 5 20180514_223000 20180515_013000 APCP_06 A6 ... >=50.0 5 20180515_223000 20180516_013000 APCP_06 A6 ... >=50.0 5 20180516_223000 20180517_013000 APCP_06 A6 ... >=50.0 5 20180517_223000 20180518_013000 APCP_06 A6 ... >=50.0 5 20180518_223000 20180519_013000 APCP_06 A6 ... >=50.0 5 20180519_223000 20180520_013000 APCP_06 A6 ... >=50.0 5 20180520_223000 20180521_013000 APCP_06 A6 ... >=50.0 5 20180521_223000 20180522_013000 APCP_06 A6 ... >=50.0 OBS_THRESH COV_THRESH ALPHA LINE_TYPE TOTAL FY_OY FY_ON FN_OY FN_ON 5 >=50.0 NaN NaN CTC 2677 0 0 0 2677 5 >=50.0 NaN NaN CTC 2678 0 0 0 2678 5 >=50.0 NaN NaN CTC 2678 0 0 0 2678 5 >=50.0 NaN NaN CTC 2672 0 0 1 2671 5 >=50.0 NaN NaN CTC 2668 0 1 0 2667 5 >=50.0 NaN NaN CTC 2670 0 0 0 2670 5 >=50.0 NaN NaN CTC 2672 0 0 0 2672 5 >=50.0 NaN NaN CTC 2670 0 0 0 2670 5 >=50.0 NaN NaN CTC 2671 0 0 0 2671 5 >=50.0 NaN NaN CTC 2670 0 0 0 2670 5 >=50.0 NaN NaN CTC 2674 0 0 0 2674 5 >=50.0 NaN NaN CTC 2673 0 0 0 2673 5 >=50.0 NaN NaN CTC 2671 0 2 0 2669 5 >=50.0 NaN NaN CTC 2672 0 1 0 2671 5 >=50.0 NaN NaN CTC 2671 0 0 1 2670 5 >=50.0 NaN NaN CTC 2671 0 0 0 2671 [16 rows x 26 columns] df.mean(axis=0,skipna=False)函数输出结果是这样 Series([], dtype: float64) 最奇怪的是另一个df就没问题 下面是另一个df长这样: VERSION MODEL FCST_LEAD FCST_VALID_BEG FCST_VALID_END OBS_LEAD \ 5 V5.2 WRF 480000 20180507_000000 20180507_000000 0 5 V5.2 WRF 480000 20180508_000000 20180508_000000 0 5 V5.2 WRF 480000 20180509_000000 20180509_000000 0 5 V5.2 WRF 480000 20180510_000000 20180510_000000 0 5 V5.2 WRF 480000 20180511_000000 20180511_000000 0 5 V5.2 WRF 480000 20180512_000000 20180512_000000 0 5 V5.2 WRF 480000 20180513_000000 20180513_000000 0 5 V5.2 WRF 480000 20180514_000000 20180514_000000 0 5 V5.2 WRF 480000 20180515_000000 20180515_000000 0 5 V5.2 WRF 480000 20180516_000000 20180516_000000 0 5 V5.2 WRF 480000 20180517_000000 20180517_000000 0 5 V5.2 WRF 480000 20180518_000000 20180518_000000 0 5 V5.2 WRF 480000 20180519_000000 20180519_000000 0 5 V5.2 WRF 480000 20180520_000000 20180520_000000 0 5 V5.2 WRF 480000 20180521_000000 20180521_000000 0 5 V5.2 WRF 480000 20180522_000000 20180522_000000 0 OBS_VALID_BEG OBS_VALID_END FCST_VAR FCST_LEV ... EDI_BCL \ 5 20180506_223000 20180507_013000 APCP_06 A6 ... NaN 5 20180507_223000 20180508_013000 APCP_06 A6 ... NaN 5 20180508_223000 20180509_013000 APCP_06 A6 ... NaN 5 20180509_223000 20180510_013000 APCP_06 A6 ... NaN 5 20180510_223000 20180511_013000 APCP_06 A6 ... NaN 5 20180511_223000 20180512_013000 APCP_06 A6 ... NaN 5 20180512_223000 20180513_013000 APCP_06 A6 ... NaN 5 20180513_223000 20180514_013000 APCP_06 A6 ... NaN 5 20180514_223000 20180515_013000 APCP_06 A6 ... NaN 5 20180515_223000 20180516_013000 APCP_06 A6 ... NaN 5 20180516_223000 20180517_013000 APCP_06 A6 ... NaN 5 20180517_223000 20180518_013000 APCP_06 A6 ... NaN 5 20180518_223000 20180519_013000 APCP_06 A6 ... NaN 5 20180519_223000 20180520_013000 APCP_06 A6 ... NaN 5 20180520_223000 20180521_013000 APCP_06 A6 ... NaN 5 20180521_223000 20180522_013000 APCP_06 A6 ... NaN EDI_BCU SEDI SEDI_NCL SEDI_NCU SEDI_BCL SEDI_BCU BAGSS BAGSS_BCL BAGSS_BCU 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN 5 NaN NaN NaN NaN NaN NaN NaN NaN NaN [16 rows x 114 columns] df.mean()的输出结果长这样 COV_THRESH NaN ALPHA 0.050000 BASER 0.000047 BASER_NCL 0.000008 BASER_NCU 0.001521 BASER_BCL 0.000000 BASER_BCU 0.000140 FMEAN 0.000094 FMEAN_NCL 0.000021 FMEAN_NCU 0.001601 FMEAN_BCL 0.000000 FMEAN_BCU 0.000257 ACC 0.999861 ACC_NCL 0.998312 ACC_NCU 0.999969 ACC_BCL 0.999603 ACC_BCU 1.000000

如何利用python模糊查询excelA列输出B列?

假设是一个答题程序 如何用python实现ocr截取的题目去重片段(即去除括号空格等影响判断因素)实现: 1.去重字符串输入,在execl表A列遍历搜索,取搜索结果第一项 2.输出搜索结果第一项同行的B列字符串

python 如何将CSV表格中相同的两行内容合并在一起,并为其加上数字统计?

![图片说明](https://img-ask.csdn.net/upload/201910/20/1571568457_472613.jpg) 我尝试过的代码 ``` import pandas as pd data_cvs = pd.read_csv("tt.csv", engine='python',header=None,skiprows=1) data_list = [] for item in zip(data_cvs[0], data_cvs[1]): data_list.append((item [0],item [1],1)) # 增加一列 全为 1 ,用于表示已读取过的行 listtt = data_list ListTT = [] for tt in range (len(listtt)): vv = 1 for tt1 in range (len(listtt)): if listtt[tt][0] == listtt[tt1][0] and listtt[tt][1] == listtt[tt1][1] and tt != tt1 and listtt[tt][2] !=0: #条件判断 判断前两列对于相同的行,跳过已经读取过的行 vv += 1 listtt[tt1][2] = 0 #将已经读取过的行 标识码归零 ListTT.append((listtt[tt][0],listtt[tt][1],vv)) CsvFile = pd.DataFrame(ListTT) CsvFile.to_csv('ListTT.csv', index=False) ``` 但是一直报错 ,没找到原因 ![图片说明](https://img-ask.csdn.net/upload/201910/20/1571568847_884123.png)

合并30多张excel表,表头有合并单元格

我想将多个excel 表合并在一多excel表中,但是excel的表头是有合并单元格的,如下图片所示(合并的情况),紧急,希望通过vba代码实现,谢谢!![图片说明](https://img-ask.csdn.net/upload/201804/19/1524107969_778165.png)

python dataframe读取数据后没法按列索引

![图片说明](https://img-ask.csdn.net/upload/201907/30/1564454367_699569.png) 新手,不知道该如何解决

请问Pandas如何将两行数据像下边这样变成一行

x = np.array([('ID0001', 0.4), ('ID0002', 0.5), ('ID0003', 0.3), ('ID0004', 0.9)],dtype=[('FACE_ID', 'U10'), ('Similarity', 'f8')]) y = pd.DataFrame(x).sort_values('Similarity', ascending=False).T 显示如图: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557227783_114035.png) 我想变成一行横着排列: ID0004 0.9 ID0002 0.5 ID0001 0.4 ID0003 0.3 请大神赐教!!!

python 数据是从txt读取出来后转换成csv格式,且里面的数据都没有没有分列,导致没有列名,此种情况如何操作数据分列

import pandas import os import xlrd def readTxt(path_txt, savePath_csv): if os.path.exists(path_txt): if os.path.isdir(path_txt): for file_path, file_dir, file_name in os.walk(path_txt): for file in file_name: txtfilePath = os.path.join(file_path, file) name = file.split('.txt')[0] + '.csv' saveCSV = os.path.join(savePath_csv, name) saveCSV2 = os.path.join(txtPath, name) txtToCsv = pandas.read_csv(txtfilePath, sep='-', header=5) print(txtToCsv.shape) txtToCsv.to_csv(savePath_csv + name, sep='-', header=5) data = pandas.read_csv(saveCSV, sep='-', encoding='utf-8', header=None) # print(data.loc) print(data._get_cleaned_column_resolvers().items()) data[1].str.split('-', expand=True) data[1].astype('str') data[1].str.split('-', expand=True) data.to_csv(saveCSV2, sep=',', encoding='utf-8') def delFile(path): if os.path.exists(path): if os.path.isdir(path): for file_path, file_dir, file_name in os.walk(path): for file in file_name: txtfilePath = os.path.join(path, file) print(txtfilePath) os.remove(txtfilePath) print('已删除:' + txtfilePath) if __name__ == '__main__': txtPath = os.getcwd() + '\\txt\\' savePath_csv = os.getcwd() + '\\File-Eexcel\\' delFile(savePath_csv) readTxt(txtPath, savePath_csv) data[1] (下面一行是 A_________B__________C_________..........) print(data.dtypes) 打印出来如下:(根本没有列名) 0 float64 1 object dtype: object print(data[0][0]) #打印出来的是nan

Python做数据处理之多列转一列

这是一个csv文件,样例数据如下: cl1 cl2 cl3 1 0 0 0 0 1 0 1 0 因为有多个cloumn,1只会在一行中出现一次,想根据1出现的位置得到列名组合成一列 期望结果: cltp cl1 cl3 cl2 python初学,请高手指教~

Python 提取Excel中满足特殊值的一行为什么会有TypeError

使用pandas获取Excel中“省市”一列含有目标值一行,显示有错误 For I in range(len(data)): a=s if a in data.loc[i,’省市’]: print(data.loc[i,:]) 错误代码为 if a in data.loc[i,’省市’] 显示TypeError argument of type float is not iterable “省市”为列名,求问如何解决呀。

python 批量将Excel 转换为csv格式的 代码现在怎么做才能只提取两列 开始时间跟结束时间 用'|' 做分隔符

``` #!/usr/bin/python # -*- coding: UTF-8 -*- import pandas as pd import os path = r"文件地址" os.chdir(path) a = os.listdir() print (a) for i in a: print ("正在处理: "+i) if (os.path.splitext(i)[1]) == (".xls"): file = pd.read_excel(i) path1 = r"文件地址" i = i.split('.')[0] +'.csv' filename = path1+'\\'+i print ("读取文件: OK") file.to_csv(filename,encoding='gbk',index=False) print ("保存文件: OK") print ("") ``` 文件是用'|' 做分隔符的 没有列名 需要提取的列分别在 第一列 跟第六列

python如何多条件筛选列后求列的中位数

1.本人现有一个25*3000的excel,里面包含不同股票的收益率统计,列名包括所在板块、发行年份、公司类型,市值等。我想筛选出多个条件的收益率中位数,如竞价方式下2011-2019年创业板企业的每年收益率中位数和正收益的比重。 2.我写了段代码,它一直报错说(与]不匹配。我找了很久,始终没有找出问题。还请各位大神帮忙看看。 ``` import xlrd import pandas as pd import xlwt def median(data): data = sorted(data) #先排序 size = len(data) #得到数列的长度 if size % 2 == 0: # 通过取余判断列表长度为偶数 medians = (data[size//2]+data[size//2-1])/2 #取排序后位于中间的两位数。 else: # 因为用2取取余,不是0,就是1,所以直接取中间值。也就是判断列表长度为奇数 medians = data[(size-1)//2] #奇数就是中间的数就是中位数。 return medians df=pd.read_excel(r'd:\python and model\定增\定增收益分析统计.xlsx') df1=df.iloc[:,8:24] df2=df1[df1['定价方式']=='竞价'] A=[] B=[] for x in range(2010,2019): nian=string(x) zhengshouyi=[] zhongshouyi=[] zhengshouyi=(df2[(df2['所属板块']=='创业板')&(df2['发行年份']==nian)&(df2['定增收益率']>0)].count())/(df2[df2['发行年份']==nian.count()) zhongshouyi=median(df2[(df2['所属板块']=='创业板')&(df2['发行年份']==nian)]['定增收益率']) for i in range(0,len(df2['发行年份']==nian))): A.append(zhengshouyi[i]) B.append(zhongshouyi[i]) print(A) print(B) ```

如何利用pandas Daframe 做一个排班的脚本?(算法大神请进)

最近要写一个python 的处理脚本,可以把班表的excel文件用pandas处理成新的班表。列名是姓名,日期1,日期2....日期15,行是每个人的姓名。难点是行有限制,列有限制,行的限制是不能连7天上班,A班次后面不能接B班次,2个C班次后面必须是休两天,CC休休后 后面要跟最少5个连续的A班次或者最多6个A班次. 每列列的限制是,B班次>16个,32>=A班次>= 25, C = 3 列的行数73, 哪位大神挑战一下?

想写一段代码,提取出表格第二列的省份或者地市名称,并取结果的倒数第二个放在‘归属’这一列

我有一个EXCEL表格,想写一段代码,提取第二列中每一行文本中出现的省份、地市名称,并把提取出来的内容中倒数第二个名称放在最后一列。 原始的文档是图一这种,图二是想实现的情况![图片说明](https://img-ask.csdn.net/upload/201911/05/1572892575_95617.jpg)![图片说明](https://img-ask.csdn.net/upload/201911/05/1572892581_734753.jpg) 我本来是用下面这种方式提取的,但是提取出来以后没办法进一步细分,麻烦大神帮忙想想办法。 quxian_name2 = '山东|青岛|济南' def re_1(i): res=re.findall(guishu_name2,i) return res ####‘文本’是第二列的列名,图片忘记添加 alljob['归属'] = alljob.apply(lambda x: re_1(x['文本']), axis = 1)

定量遥感中文版 梁顺林著 范闻捷译

这是梁顺林的定量遥感的中文版,由范闻捷等翻译的,是电子版PDF,解决了大家看英文费时费事的问题,希望大家下载看看,一定会有帮助的

Java 最常见的 200+ 面试题:面试必备

这份面试清单是从我 2015 年做了 TeamLeader 之后开始收集的,一方面是给公司招聘用,另一方面是想用它来挖掘在 Java 技术栈中,还有那些知识点是我不知道的,我想找到这些技术盲点,然后修复它,以此来提高自己的技术水平。虽然我是从 2009 年就开始参加编程工作了,但我依旧觉得自己现在要学的东西很多,并且学习这些知识,让我很有成就感和满足感,那所以何乐而不为呢? 说回面试的事,这份面试...

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

远程工具,免费

远程工具,免费

java jdk 8 帮助文档 中文 文档 chm 谷歌翻译

JDK1.8 API 中文谷歌翻译版 java帮助文档 JDK API java 帮助文档 谷歌翻译 JDK1.8 API 中文 谷歌翻译版 java帮助文档 Java最新帮助文档 本帮助文档是使用谷

csma/ca和csma/cd的matlab仿真源代码带有详细的注释

csma/ca和csma/cd的matlab仿真源代码带有详细的注释,载波侦听,随意设置节点数,带有炫酷的图形展示效果。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

软件测试入门、SQL、性能测试、测试管理工具

软件测试2小时入门,让您快速了解软件测试基本知识,有系统的了解; SQL一小时,让您快速理解和掌握SQL基本语法 jmeter性能测试 ,让您快速了解主流来源性能测试工具jmeter 测试管理工具-禅道,让您快速学会禅道的使用,学会测试项目、用例、缺陷的管理、

pokemmo的资源

pokemmo必须的4个rom 分别为绿宝石 火红 心金 黑白 还有汉化补丁 资源不错哦 记得下载

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

无线通信中的智能天线:IS-95和第3代CDMA应用_.pdf

无线通信中的智能天线:IS-95和第3代CDMA应用_.pdf

设计模式(JAVA语言实现)--20种设计模式附带源码

课程亮点: 课程培训详细的笔记以及实例代码,让学员开始掌握设计模式知识点 课程内容: 工厂模式、桥接模式、组合模式、装饰器模式、外观模式、享元模式、原型模型、代理模式、单例模式、适配器模式 策略模式、模板方法模式、观察者模式、迭代器模式、责任链模式、命令模式、备忘录模式、状态模式、访问者模式 课程特色: 笔记设计模式,用笔记串连所有知识点,让学员从一点一滴积累,学习过程无压力 笔记标题采用关键字标识法,帮助学员更加容易记住知识点 笔记以超链接形式让知识点关联起来,形式知识体系 采用先概念后实例再应用方式,知识点深入浅出 提供授课内容笔记作为课后复习以及工作备查工具 部分图表(电脑PC端查看):

Java8零基础入门视频教程

这门课程基于主流的java8平台,由浅入深的详细讲解了java SE的开发技术,可以使java方向的入门学员,快速扎实的掌握java开发技术!

玩转Linux:常用命令实例指南

人工智能、物联网、大数据时代,Linux正有着一统天下的趋势,几乎每个程序员岗位,都要求掌握Linux。本课程零基础也能轻松入门。 本课程以简洁易懂的语言手把手教你系统掌握日常所需的Linux知识,每个知识点都会配合案例实战让你融汇贯通。课程通俗易懂,简洁流畅,适合0基础以及对Linux掌握不熟练的人学习; 【限时福利】 1)购课后按提示添加小助手,进答疑群,还可获得价值300元的编程大礼包! 2)本月购买此套餐加入老师答疑交流群,可参加老师的免费分享活动,学习最新技术项目经验。 --------------------------------------------------------------- 29元=掌握Linux必修知识+社群答疑+讲师社群分享会+700元编程礼包。  

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

想学好JAVA必须要报两万的培训班吗? Java大神勿入 如果你: 零基础想学JAVA却不知道从何入手 看了一堆书和视频却还是连JAVA的环境都搭建不起来 囊中羞涩面对两万起的JAVA培训班不忍直视 在职没有每天大块的时间专门学习JAVA 那么恭喜你找到组织了,在这里有: 1. 一群志同道合立志学好JAVA的同学一起学习讨论JAVA 2. 灵活机动的学习时间完成特定学习任务+每日编程实战练习 3. 热心助人的助教和讲师及时帮你解决问题,不按时完成作业小心助教老师的家访哦 上一张图看看前辈的感悟:     大家一定迫不及待想知道什么是极简JAVA学习营了吧,下面就来给大家说道说道: 什么是极简JAVA学习营? 1. 针对Java小白或者初级Java学习者; 2. 利用9天时间,每天1个小时时间; 3.通过 每日作业 / 组队PK / 助教答疑 / 实战编程 / 项目答辩 / 社群讨论 / 趣味知识抢答等方式让学员爱上学习编程 , 最终实现能独立开发一个基于控制台的‘库存管理系统’ 的学习模式 极简JAVA学习营是怎么学习的?   如何报名? 只要购买了极简JAVA一:JAVA入门就算报名成功!  本期为第四期极简JAVA学习营,我们来看看往期学员的学习状态: 作业看这里~   助教的作业报告是不是很专业 不交作业打屁屁 助教答疑是不是很用心   有奖抢答大家玩的很嗨啊     项目答辩终于开始啦   优秀者的获奖感言   这是答辩项目的效果     这么细致的服务,这么好的氛围,这样的学习效果,需要多少钱呢? 不要1999,不要199,不要99,只要9.9 是的你没听错,只要9.9以上所有就都属于你了 如果你: 1、 想学JAVA没有基础 2、 想学JAVA没有整块的时间 3、 想学JAVA没有足够的预算 还等什么?赶紧报名吧,抓紧抢位,本期只招300人,错过只有等时间待定的下一期了   报名请加小助手微信:eduxy-1    

Python数据清洗实战入门

本次课程主要以真实的电商数据为基础,通过Python详细的介绍了数据分析中的数据清洗阶段各种技巧和方法。

董付国老师Python全栈学习优惠套餐

购买套餐的朋友可以关注微信公众号“Python小屋”,上传付款截图,然后领取董老师任意图书1本。

linux下利用/proc进行进程树的打印

在linux下利用c语言实现的进程树的打印,主要通过/proc下的目录中的进程文件,获取status中的进程信息内容,然后利用递归实现进程树的打印

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

HoloLens2开发入门教程

本课程为HoloLens2开发入门教程,讲解部署开发环境,安装VS2019,Unity版本,Windows SDK,创建Unity项目,讲解如何使用MRTK,编辑器模拟手势交互,打包VS工程并编译部署应用到HoloLens上等。

150讲轻松搞定Python网络爬虫

【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。   从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑

MySQL 8.0.19安装教程(windows 64位)

话不多说直接开干 目录 1-先去官网下载点击的MySQL的下载​ 2-配置初始化的my.ini文件的文件 3-初始化MySQL 4-安装MySQL服务 + 启动MySQL 服务 5-连接MySQL + 修改密码 先去官网下载点击的MySQL的下载 下载完成后解压 解压完是这个样子 配置初始化的my.ini文件的文件 ...

Python数据挖掘简易入门

        本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

网络工程师小白入门--【思科CCNA、华为HCNA等网络工程师认证】

本课程适合CCNA或HCNA网络小白同志,高手请绕道,可以直接学习进价课程。通过本预科课程的学习,为学习网络工程师、思科CCNA、华为HCNA这些认证打下坚实的基础! 重要!思科认证2020年2月24日起,已启用新版认证和考试,包括题库都会更新,由于疫情原因,请关注官网和本地考点信息。题库网络上很容易下载到。

Ubuntu18.04安装教程

Ubuntu18.04.1安装一、准备工作1.下载Ubuntu18.04.1 LTS2.制作U盘启动盘3.准备 Ubuntu18.04.1 的硬盘空间二、安装Ubuntu18.04.1三、安装后的一些工作1.安装输入法2.更换软件源四、双系统如何卸载Ubuntu18.04.1新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列...

sql语句 异常 Err] 1064 - You have an error in your SQL syntax; check the manual that corresponds to your

在我们开发的工程中,有时候会报 [Err] 1064 - You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near ------ 这种异常 不用多想,肯定是我们的sql语句出现问题,下面...

西南交通大学新秀杯数学建模试题

题目比较难,如果符合大家的口味欢迎大家下载哈,提高你的思维想象能力

Windows版YOLOv4目标检测实战:训练自己的数据集

课程演示环境:Windows10; cuda 10.2; cudnn7.6.5; Python3.7; VisualStudio2019; OpenCV3.4 需要学习ubuntu系统上YOLOv4的同学请前往:《YOLOv4目标检测实战:训练自己的数据集》 课程链接:https://edu.csdn.net/course/detail/28745 YOLOv4来了!速度和精度双提升! 与 YOLOv3 相比,新版本的 AP (精度)和 FPS (每秒帧率)分别提高了 10% 和 12%。 YOLO系列是基于深度学习的端到端实时目标检测方法。本课程将手把手地教大家使用labelImg标注和使用YOLOv4训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。 本课程的YOLOv4使用AlexyAB/darknet,在Windows系统上做项目演示。包括:安装软件环境、安装YOLOv4、标注自己的数据集、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算)和先验框聚类分析。还将介绍改善YOLOv4目标检测性能的技巧。 除本课程《Windows版YOLOv4目标检测实战:训练自己的数据集》外,本人将推出有关YOLOv4目标检测的系列课程。请持续关注该系列的其它视频课程,包括: 《Windows版YOLOv4目标检测实战:人脸口罩佩戴检测》 《Windows版YOLOv4目标检测实战:中国交通标志识别》 《Windows版YOLOv4目标检测:原理与源码解析》

Spring Boot -01- 快速入门篇(图文教程)

Spring Boot -01- 快速入门篇 今天开始不断整理 Spring Boot 2.0 版本学习笔记,大家可以在博客看到我的笔记,然后大家想看视频课程也可以到【慕课网】手机 app,去找【Spring Boot 2.0 深度实践】的课程,令人开心的是,课程完全免费! 什么是 Spring Boot? Spring Boot 是由 Pivotal 团队提供的全新框架。Spring Boot...

相关热词 c#分级显示数据 c# 不区分大小写替换 c#中调用就java c#正则表达式 验证小数 c# vscode 配置 c#三维数组能存多少数据 c# 新建excel c#多个文本框 c#怎么创建tcp通讯 c# mvc 电子病例
立即提问
相关内容推荐