import pandas as pd报错为OSError: [WinError 193] %1 不是有效的 Win32 应用程序。

import pandas as pd报错为OSError: [WinError 193] %1 不是有效的 Win32 应用程序。

1个回答

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
OSError: [WinError 193] %1 不是有效的 Win32 应用程序。

安装Anaconda后,启动Jupyter,导入其他模块时候报错OSError: [WinError 193] %1 不是有效的 Win32 应用程序。 ![图片说明](https://img-ask.csdn.net/upload/201908/30/1567124396_693291.png)

重装anaconda后import pandas报错

![图片说明](https://img-ask.csdn.net/upload/201901/16/1547643100_660254.png) 重新写了个脚本也是一样的错误 AttributeError: 'tuple' object has no attribute 'type' ![图片说明](https://img-ask.csdn.net/upload/201901/16/1547643239_848854.png)

cmd环境下运行python,导入pandas包,报错ImportError:C extension:

请教下,安装python后,环境变量也设置好了。用pip命令安装pandas和numpy 也都成功了。 但是在cmd环境下运行python命令,导入pandas包的时候,却报错: ImportError:C extension: No module named 'pandas._libs.tslibs.nattype' not built 重新用pip命令卸载了pandas,重装了下。。仍旧报错:(这次名称换成了conversion) ImportError:C extension: No module named 'pandas._libs.tslibs.conversion' not built 这个是什么原因? pandas版本0.24.2,numpy的版本1.16.3 ![图片说明](https://img-ask.csdn.net/upload/201905/15/1557901361_293706.png) ![图片说明](https://img-ask.csdn.net/upload/201905/15/1557901370_747149.png)

Python报错,本来还可以使用,突然就用不了了。

Traceback (most recent call last): File "F:\Project\Python\test.py", line 1, in <module> import pandas as pd File "C:\Python27\lib\site-packages\pandas\__init__.py", line 39, in <module> from pandas.core.api import * File "C:\Python27\lib\site-packages\pandas\core\api.py", line 10, in <module> from pandas.core.groupby import Grouper File "C:\Python27\lib\site-packages\pandas\core\groupby.py", line 40, in <module> from pandas.core.frame import DataFrame File "C:\Python27\lib\site-packages\pandas\core\frame.py", line 204 classDataFrame(NDFrame): ^ SyntaxError: invalid syntax [Finished in 4.0s]

我pandas明明都装好了,为什么我导入还是报错

我pandas明明都装好了,为什么我导入还是报错,重装也不行,pip安装或者下载安装的都不行。有没有遇到同样问题的兄弟,教下我![图片说明](https://img-ask.csdn.net/upload/201908/04/1564931064_614958.png) Traceback (most recent call last): File "E:/Deep Learning Data/TensorFlow Learn 1/testItemAccuracy.py", line 3, in <module> import pandas as pd File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\__init__.py", line 55, in <module> from pandas.core.api import ( File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\core\api.py", line 5, in <module> from pandas.core.arrays.integer import ( File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\core\arrays\__init__.py", line 7, in <module> from .categorical import Categorical # noqa: F401 File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\core\arrays\categorical.py", line 54, in <module> from pandas.core.base import NoNewAttributesMixin, PandasObject, _shared_docs File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\core\base.py", line 36, in <module> import pandas.core.nanops as nanops File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\core\nanops.py", line 38, in <module> bn = import_optional_dependency("bottleneck", raise_on_missing=False, on_version="warn") File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\compat\_optional.py", line 99, in import_optional_dependency version = _get_version(module) File "D:\Anaconda3\envs\tensorflow\lib\site-packages\pandas\compat\_optional.py", line 48, in _get_version raise ImportError("Can't determine version for {}".format(module.__name__)) ImportError: Can't determine version for bottleneck

Python->Pyecharts->Geo在地图中加入自定义的点报错:AttributeError: 'NoneType' object has no attribute 'add'。

Geo在地图中加入自定义的点报错: AttributeError: 'NoneType' object has no attribute 'add' 原码: ``` from example.commons import Faker from pyecharts import options as opts from pyecharts.charts import Geo from pyecharts.globals import ChartType, SymbolType import pandas as pd import json # 链式调用 c = ( Geo() .add_schema(maptype="world") # 加入自定义的点,格式为 .add_coordinate("测试点", 116.39770014211535, 39.90779994986951) # 为自定义的点添加属性 .add("geo", [("测试点", 51)]) .set_series_opts(label_opts=opts.LabelOpts(is_show=False)) .set_global_opts(title_opts=opts.TitleOpts(title="宇宙中心呼唤爱")) ) # 在 html(浏览器) 中渲染图表 c.render() # 在 Jupyter Notebook 中渲染图表 c.render_notebook() ``` 报错: .add_coordinate("测试点", 116.39770014211535, 39.90779994986951) AttributeError: 'NoneType' object has no attribute 'add'

import matplotlib.pyplot as plt报错

求助matplotlib ![图片说明](https://img-ask.csdn.net/upload/202004/05/1586077078_243176.png) 我在这里运行import matplotlib.pyplot as plt 测试的代码也能运行出来 但是一到pycharm里就出错 ![图片说明](https://img-ask.csdn.net/upload/202004/05/1586077207_621135.png) 怎么回事呀

安装了pandas,为什么会出现ImportError: cannot import name 'DataFrame' from 'pandas' ?

本人是刚刚跨入Python的新人小白,希望大佬给予帮助!! 安装了pandas,为什么会出现ImportError: cannot import name 'DataFrame' from 'pandas' ?

Seaborn的使用问题(倒数第二行代码报错)

import numpy as np import pandas as pd import seaborn as sns import matplotlib.pyplot as plt import statsmodels.api as sm from statsmodels.formula.api import ols,glm #将数据集读入到pandas数据框中 wine = pd.read_csv('winequality-both.csv',sep=',',header=0) wine.columns = wine.columns.str.replace(' ','_') print(wine.head()) #显示所有变量的描述性统计量 print(wine.describe()) #找出唯一值 print(sorted(wine.quality.unique())) #计算值的概率 print(wine.quality.value_counts()) #按照葡萄酒类型显示质量的描述性统计量 print(wine.groupby('type')[['quality']].describe().unstack('type')) #按照葡萄酒的类型显示质量的特定分位数值 print(wine.groupby('type')[['quality']].quantile([0.25,0.75]).unstack('type')) #按照葡萄酒类型查看质量分布 red_wine = wine.loc[wine['type']=='red','quality'] white_wine = wine.loc[wine['type']=='white','quality'] sns.set_style("dark") print(sns.distplot(red_wine,norm_hist=True,kde=False,color="red",label="Red Wine")) print(sns.distplot(white_wine,norm_hist=True,kde=False,color="white",label="White Wine")) sns.axlabel("Quality Score","Density") plt.title("Distribution of Quality by Wine Type") plt.legend() plt.show() #检验红葡萄酒和白葡萄酒的平均质量是否有所不同 print(wine.groupby(['type'])[['quality']].agg(['std']) tstat, pvalue, df = sm.stats.ttest_ind(red_wine,white_wine) print('tstat:%.3f pvalue:%.4f' % (tstat,pvalue)) ![图片说明](https://img-ask.csdn.net/upload/201811/10/1541840583_803202.png)

python使用pandas处理绘图问题

版本:python3.6、anaconda3(64bit) 电脑配置:i7 3.6HZ 8CPU/8G内存 问题描述:使用pandas成功获取SQL数据后,首先我用sql的一个测试库 只有10个数据绘制折线图成功;后用正式库里面有20W条数据,运行后 没有报警,也没有反应等了5分钟也没有。我想知道它有没有在处理,怎 么看(是前后加time语句吗?)还请大神指点 以下是引用的库 import pandas as pd import matplotlib as mb import matplotlib.pyplot as plt import pandas as pd import pymysql

panda包导入出错 python

报错信息: ``` Traceback (most recent call last): File "<input>", line 1, in <module> File "D:\PyCharm 2018.2.4\helpers\pydev\_pydev_bundle\pydev_umd.py", line 197, in runfile pydev_imports.execfile(filename, global_vars, local_vars) # execute the script File "D:\PyCharm 2018.2.4\helpers\pydev\_pydev_imps\_pydev_execfile.py", line 18, in execfile exec(compile(contents+"\n", file, 'exec'), glob, loc) File "D:/PycharmProject/KNN.py", line 3, in <module> import panda as pd File "D:\PyCharm 2018.2.4\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 20, in do_import module = self._system_import(name, *args, **kwargs) File "D:\PycharmProject\venv\lib\site-packages\panda\__init__.py", line 1, in <module> from request import PandaRequest ImportError: cannot import name 'PandaRequest' from 'request' (D:\PycharmProject\venv\lib\site-packages\request\__init__.py) ``` 该怎么解决 急 在线等

python报错:KeyError: 'user_id'

#coding:utf-8 import pandas as pd import numpy as np import time import datetime import gc from sklearn.preprocessing import LabelEncoder,OneHotEncoder def pre_process(data): cols = data.columns.tolist() keys = ['instance_id', 'day'] for k in keys: cols.remove(k) return data, cols def dorollWin(data): data['context_timestamp_str'] = data['context_timestamp'].astype(str) user_time_join = data.groupby(test.user_id)['context_timestamp_str'].agg(lambda x:';'.join(x)).reset_index() user_time_join.rename(columns={'context_timestamp_str':'user_time_join'},inplace = True) data = pd.merge(data,user_time_join,on=[test.user_id],how='left') user_shop_time_join = data.groupby([test.user_id,'shop_id'])['context_timestamp_str'].agg(lambda x:';'.join(x)).reset_index() user_shop_time_join.rename(columns={'context_timestamp_str':'user_shop_time_join'},inplace = True) data = pd.merge(data,user_shop_time_join,on=[test.user_id,'shop_id'],how='left') user_item_time_join = data.groupby([test.user_id,'item_id'])['context_timestamp_str'].agg(lambda x:';'.join(x)).reset_index() user_item_time_join.rename(columns={'context_timestamp_str':'user_item_time_join'},inplace = True) data = pd.merge(data,user_item_time_join,on=[test.user_id,'item_id'],how='left') data['index_']=data.index del user_time_join,user_shop_time_join,user_item_time_join nowtime=data.context_timestamp.values user_time=data.user_time_join.values user_shop_time=data.user_shop_time_join.values user_item_time=data.user_item_time_join.values data_len=data.shape[0] user_time_10_bf=np.zeros(data_len) user_time_10_af=np.zeros(data_len) user_shop_time_10_bf=np.zeros(data_len) user_shop_time_10_af=np.zeros(data_len) user_item_time_10_bf=np.zeros(data_len) user_item_time_10_af=np.zeros(data_len) a=time.time() for i in range(data_len): df1=nowtime[i] df2=user_time[i].split(';') df2_len=len(df2) for j in range(df2_len): if ((int(df2[j])-df1)<600) & ((int(df2[j])-df1)>0): user_time_10_bf[i]+=1 if ((int(df2[j])-df1)>-600) & ((int(df2[j])-df1)<0): user_time_10_af[i]+=1 df3=user_shop_time[i].split(';') df3_len=len(df3) for j in range(df3_len): if ((int(df3[j])-df1)<600) & ((int(df3[j])-df1)>0): user_shop_time_10_bf[i]+=1 if ((int(df3[j])-df1)>-600) & ((int(df3[j])-df1)<0): user_shop_time_10_af[i]+=1 df4=user_item_time[i].split(';') df4_len=len(df4) for j in range(df4_len): if ((int(df4[j])-df1)<600) & ((int(df4[j])-df1)>0): user_item_time_10_bf[i]+=1 if ((int(df4[j])-df1)>-600) & ((int(df4[j])-df1)<0): user_item_time_10_af[i]+=1 print(time.time()-a) data['user_count_10_bf']=user_time_10_bf data['user_count_10_af']=user_time_10_af data['user_shop_count_10_bf']=user_shop_time_10_bf data['user_shop_count_10_af']=user_shop_time_10_af data['user_item_count_10_bf']=user_item_time_10_bf data['user_item_count_10_af']=user_item_time_10_af drops = ['context_timestamp_str', 'user_time_join', 'user_shop_time_join', 'user_item_time_join', 'index_'] data = data.drop(drops, axis=1) return data def doSize(data): add = pd.DataFrame(data.groupby(["shop_id", "day"]).item_id.nunique()).reset_index() add.columns = ["shop_id", "day", "shop_item_unique_day"] data = data.merge(add, on=["shop_id", "day"], how="left") user_query_day = data.groupby(['user_id', 'day']).size().reset_index().rename(columns={0: 'user_id_query_day'}) data = pd.merge(data, user_query_day, how='left', on=['user_id', 'day']) data['min_10'] = data['minute'] // 10 data['min_15'] = data['minute'] // 15 data['min_30'] = data['minute'] // 30 data['min_45'] = data['minute'] // 45 # user 不同时间段点击次数 min10_user_click = data.groupby(['user_id', 'day', 'hour', 'min_10']).size().reset_index().rename(columns={0:'min10_user_click'}) min15_user_click = data.groupby(['user_id', 'day', 'hour', 'min_15']).size().reset_index().rename(columns={0:'min15_user_click'}) min30_user_click = data.groupby(['user_id', 'day', 'hour', 'min_30']).size().reset_index().rename(columns={0:'min30_user_click'}) min45_user_click = data.groupby(['user_id', 'day', 'hour', 'min_45']).size().reset_index().rename(columns={0:'min45_user_click'}) data = pd.merge(data, min10_user_click, 'left', on=['user_id', 'day', 'hour', 'min_10']) data = pd.merge(data, min15_user_click, 'left', on=['user_id', 'day', 'hour', 'min_15']) data = pd.merge(data, min30_user_click, 'left', on=['user_id', 'day', 'hour', 'min_30']) data = pd.merge(data, min45_user_click, 'left', on=['user_id', 'day', 'hour', 'min_45']) del data['min_10'] del data['min_15'] del data['min_30'] del data['min_45'] return data def doElse(data): pass def main(): path = 'F:/18ijcaidata/' train = pd.read_csv(path+'train_day7.csv',encoding='utf-8') test = pd.read_csv(path+'test_day7.csv',encoding='utf-8') data = pd.concat([train, test]) print('初始维度:', data.shape) data, cols = pre_process(data) print('pre_process:', data.shape) ################################## data = dorollWin(data) print('dorollWin:', data.shape) data = doSize(data) print('doSize:', data.shape) ################################## data = data.drop(cols, axis=1) # 得到7号训练集 data = data.loc[data.day == 7] data = data.drop('day', axis=1) print('经过处理后,7号数据集最终维度::',data.shape) print(data.columns.tolist()) data.to_csv(path+'103_statistics_feat.csv', index=False) if __name__ == '__main__': #??????????????运行此行,出现key error:'user_id' main() ``` ```

Jupyter notebook中import seaborn无效果

请问大家一个问题哈 为什么我import seaborn之后画的图还是和原来一样呢?所有包都已经装好了,正常运行无报错,系统环境是macOS Mojave 10.14.1, Python 3.7 代码如下,求指导,谢谢: ``` %matplotlib inline import matplotlib.pyplot as plt import matplotlib as mpl import numpy as np import pandas as pd import tushare as ts ``` ``` data = ts.get_k_data('600030', start = '2010-01-01', end='2017-06-30') ``` ``` data['close'].plot() ``` ``` import seaborn as sns ``` ``` data['close'].plot() ``` ![图片说明](https://img-ask.csdn.net/upload/201812/10/1544410076_914012.png)

执行pip install pandas_datareader出错?

C:\WINDOWS\system32>pip install pandas_datareader Collecting pandas_datareader Using cached https://files.pythonhosted.org/packages/14/52/accb990baebe0063977f26e02df36aa7eb4015ed4e86f828cd76273cd6f1/pandas_datareader-0.8.1-py2.py3-none-any.whl Requirement already satisfied: pandas>=0.21 in c:\users\administrator\appdata\local\programs\python\python35\lib\site-packages (from pandas_datareader) (0.25.2) ERROR: Package 'pandas' requires a different Python: 3.5.2 not in '>=3.5.3' ``` ```

sublime text3 下报错No module named pandas

使用Python 在idel上的pandas是可以正常使用的 但是在sublime text3下numpy可以用 但是pandas报错No module named pandas 这是为什么

如何将编辑完成的dataframe生成为xlsx文档并在文件名中加入系统当前日期时间

如题,刚进行了一系列读取excel处理数据的操作,现在想将得出的dataframe重新生成为xlsx文档,并在文件名末尾加上生成这个文档的系统时间,目前我用的生成代码如下(WS为编辑好的dataframe名称): ``` #生成最后的report文档 datestring = datetime.strftime(datetime.now(), '%Y%m%d-%H:%M:%S') WS.to_excel(excel_writer=r"C:/Users/DD/Desktop/Python/Testpro/{0}".format('upload_template' + datestring + '.xlsx')) ``` 执行后会报错: OSError: [Errno 22] Invalid argument: 'C:/Users/DD/Desktop/Python/Testpro/_upload_template20190124-10:10:30.xlsx' 请问要如何才能实现加入系统日期到文件名的操作呢?

pandas安装遇到的问题

最近在学习pandas,但是遇到些很纠结的问题,在网上也查询了但是好像都解决不了,只好请教各位了。由于没有pandas库,直接搜索下载:pandas-0.20.3-cp27-cp27m-win32.whl,安装: ![图片说明](https://img-ask.csdn.net/upload/201709/01/1504273428_811550.png) ![图片说明](https://img-ask.csdn.net/upload/201709/01/1504273438_587077.png) 成功了,但是,接下来有报错: ![图片说明](https://img-ask.csdn.net/upload/201709/01/1504273465_66267.png) 搜索各种攻略,尝试,先卸载已经安装的pandas,重启机器,再安装各种铺垫的库numpy/six等,尝试重新安装: ![图片说明](https://img-ask.csdn.net/upload/201709/01/1504273558_672292.jpg) 彻底无语了,请教各位大神指导一下,这个问题确实挺困惑的。谢谢

帮帮忙吧,急哭了:python实现拉格朗日插值进行缺失值插补时报错,出现Keyerror:0问题?

![图片说明](https://img-ask.csdn.net/upload/201911/13/1573618586_795847.png) 数据截图 ``` import pandas as pd from scipy.interpolate import lagrange inputfile = './test1.xlsx' outputfile = './test1_1.xlsx' def ployinterp_column(s,n,k=6): y = s[list(range(n-k,n)) + list(range(n+1,n+1-k))] y = y[y.notnull()] return lagrange(y.index,list(y))(n) for i in data.columns: for j in range(len(data)): if (data[i].isnull())[j]: data[i][j] = ployinterp_column(data[i],j) ``` 报错 ``` KeyError Traceback (most recent call last) <ipython-input-28-02cf873cddff> in <module>() 1 for i in data.columns: 2 for j in range(len(data)): ----> 3 if (data[i].isnull())[j]: 4 if (data[i].isnull())[j] in data: 5 data[i][j] = ployinterp_column(data[i],j) C:\Anaconda3\lib\site-packages\pandas\core\series.py in __getitem__(self, key) 765 key = com._apply_if_callable(key, self) 766 try: --> 767 result = self.index.get_value(self, key) 768 769 if not is_scalar(result): C:\Anaconda3\lib\site-packages\pandas\core\indexes\base.py in get_value(self, series, key) 3116 try: 3117 return self._engine.get_value(s, k, -> 3118 tz=getattr(series.dtype, 'tz', None)) 3119 except KeyError as e1: 3120 if len(self) > 0 and self.inferred_type in ['integer', 'boolean']: pandas\_libs\index.pyx in pandas._libs.index.IndexEngine.get_value() pandas\_libs\index.pyx in pandas._libs.index.IndexEngine.get_value() pandas\_libs\index.pyx in pandas._libs.index.IndexEngine.get_loc() pandas\_libs\hashtable_class_helper.pxi in pandas._libs.hashtable.Int64HashTable.get_item() pandas\_libs\hashtable_class_helper.pxi in pandas._libs.hashtable.Int64HashTable.get_item() KeyError: 0 ```

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

为什么本科以上学历的人只占中国人口的5%,但感觉遍地都是大学生?

中国大学生占总人口不到5% 2017年,中国整体的本科率仅有5.9%;如果算上研究生,这一比例可以进一步上升到6.5% 为什么在国家统计局推出的这份年鉴中,学历的最高一阶就是到研究生,而没有进一步再统计博士生的数量的。 原因其实并不难理解,相比全国和各省整体人口体量,博士生的占比非常之低,属于绝对意义上的小概率样本。 这一点,我们从上表中的各省研究生占比情况也可以看出端倪。除北京、天津、上海三...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

记录下入职中软一个月(外包华为)

我在年前从上一家公司离职,没想到过年期间疫情爆发,我也被困在家里,在家呆着的日子让人很焦躁,于是我疯狂的投简历,看面试题,希望可以进大公司去看看。 我也有幸面试了我觉得还挺大的公司的(虽然不是bat之类的大厂,但是作为一名二本计算机专业刚毕业的大学生bat那些大厂我连投简历的勇气都没有),最后选择了中软,我知道这是一家外包公司,待遇各方面甚至不如我的上一家公司,但是对我而言这可是外包华为,能...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

6年开发经验女程序员,面试京东Java岗要求薪资28K

写在开头: 上周面试了一位女程序员,上午10::30来我们部门面试,2B哥接待了她.来看看她的简历: 个人简历 个人技能: ● 熟悉spring mvc 、spring、mybatis 等框架 ● 熟悉 redis 、rocketmq、dubbo、zookeeper、netty 、nginx、tomcat、mysql。 ● 阅读过juc 中的线程池、锁的源...

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

大牛都会用的IDEA调试技巧!!!

导读 前天面试了一个985高校的实习生,问了他平时用什么开发工具,他想也没想的说IDEA,于是我抛砖引玉的问了一下IDEA的调试用过吧,你说说怎么设置断点...

都前后端分离了,咱就别做页面跳转了!统统 JSON 交互

文章目录1. 无状态登录1.1 什么是有状态1.2 什么是无状态1.3 如何实现无状态1.4 各自优缺点2. 登录交互2.1 前后端分离的数据交互2.2 登录成功2.3 登录失败3. 未认证处理方案4. 注销登录 这是本系列的第四篇,有小伙伴找不到之前文章,松哥给大家列一个索引出来: 挖一个大坑,Spring Security 开搞! 松哥手把手带你入门 Spring Security,别再问密...

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

立即提问