求助:CUDA的RuntimeError:cuda runtime error (30)
from torchvision import  models

use_gpu = torch.cuda.is_available()
model_ft = models.resnet18(pretrained = True)
if use_gpu:
    model_ft = model_ft.cuda()

运行后报错:

RuntimeError                              Traceback (most recent call last)
<ipython-input-6-87942ec8aa13> in <module>()
     11 model_ft.fc = nn.Linear(num_ftrs , 5)#############################2
     12 if use_gpu:
---> 13     model_ft = model_ft.cuda()
     14 #criterion = nn.MultiMarginLoss()
     15 criterion = nn.CrossEntropyLoss()

~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in cuda(self, device)
    258             Module: self
    259         """
--> 260         return self._apply(lambda t: t.cuda(device))
    261 
    262     def cpu(self):

~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in _apply(self, fn)
    185     def _apply(self, fn):
    186         for module in self.children():
--> 187             module._apply(fn)
    188 
    189         for param in self._parameters.values():

~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in _apply(self, fn)
    191                 # Tensors stored in modules are graph leaves, and we don't
    192                 # want to create copy nodes, so we have to unpack the data.
--> 193                 param.data = fn(param.data)
    194                 if param._grad is not None:
    195                     param._grad.data = fn(param._grad.data)

~\Anaconda3\lib\site-packages\torch\nn\modules\module.py in <lambda>(t)
    258             Module: self
    259         """
--> 260         return self._apply(lambda t: t.cuda(device))
    261 
    262     def cpu(self):

~\Anaconda3\lib\site-packages\torch\cuda\__init__.py in _lazy_init()
    160             "Cannot re-initialize CUDA in forked subprocess. " + msg)
    161     _check_driver()
--> 162     torch._C._cuda_init()
    163     _cudart = _load_cudart()
    164     _cudart.cudaGetErrorName.restype = ctypes.c_char_p

RuntimeError: cuda runtime error (30) : unknown error at ..\aten\src\THC\THCGeneral.cpp:87

Win10+Anaconda5.0.1+python3.6.3
Cuda driver version 10.1
Cuda Toolkit 10.1
pytorch 1.0.1
显卡GeForce GTX 1050 Ti
nvidia驱动版本430.39

求助啊!!!

weixin_40621204
Beccapan 请问有没有解决呢
11 个月之前 回复

4个回答

https://github.com/pytorch/pytorch/issues/20990
链接答案来源
import torch
torch.cuda.current_device()
torch.cuda._initialized = True
就加上上面两行就行了。

估计是你的显示卡已经被别的程序占用了,重新启动,关闭不必要的程序,包括网页、防病毒软件

再不行,考虑是你的pyTorch或者cuDNN没有安装对,重新安装匹配兼容的版本

我在官网上没有看到关于支持cuda10.1的说明,可能是cuda版本过高导致不兼容匹配。可以装cuda10.0或者9.x试试

我也有一样的问题,找了一天发现vscode,jupyter,pycharm这类交互式的都不行,但是直接运行文件可以。
这点不知道是不是和你一样,我重装了ipython,再重启就好了,再也没有出现过这个问题。
pip uninstall ipython
pip install ipython

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
pytorch使用cuda报错RuntimeError: CUDA error: unknown error,如何解决?

具体情况如下 ![](https://img-ask.csdn.net/upload/201907/14/1563082013_251355.jpg) cuda可用但是把tensor放到gpu上就会报这个错 ``` import torch as t tensor=t.Tensor(3,4) tensor.cuda(0) ``` 按照类似问题https://ask.csdn.net/questions/767989所给的方法,检查了cuda版本,全局设置全局设置首选图形处理器为“高性能NVIDIA处理器” 但还是报错 显卡是gtx1050 按照网上方法运行cuda自带的deviceQuery.exe的结果 ![图片说明](https://img-ask.csdn.net/upload/201907/14/1563082410_614414.jpg) 求助! 更新7.14 13:56 代码 ``` import torch as t tensor=t.Tensor(3,4) tensor.cuda(0) ``` 在pycharm上运行就没有报错。。。 不知道为什么。。。

pytorch将tensor放到GPU上出错,RuntimeError: CUDA error: unknown error怎么回事?

![pytorch将tensor放到GPU上出错,RuntimeError: CUDA error: unknown error怎么回事?](https://img-ask.csdn.net/upload/201907/02/1562073790_506236.png)

Cuda Error:CUDA驱动程序版本不适合CUDA运行时版本

Check failed: cudaSuccess == cudaStat (0 vs. 35) Cuda Error: CUDA driver version is insufficient for CUDA runtime version 练习百度的Paddle的机器翻译示例时,在docker中运行代码,出现这个错误,不知道该怎么解决。。。 ![图片说明](https://img-ask.csdn.net/upload/201805/03/1525348924_78151.png)

libsvm 运行easy.py 返回if rate is None: raise RuntimeError("get no rate")

libsvm 运行easy.py 返回if rate is None: raise RuntimeError("get no rate") 运行数据 大概 20000*20000维,数据量相对大一些,因此在grid.py 调用过程中返回此error" if rate is None: raise RuntimeError("get no rate") ". 哪位大神遇到过此问题,求解答.谢谢!!

关于pytorch里对cuda的报错:RuntimeError: expected device cuda:0 but got device cpu

运行时报错。 这是我的代码: ``` import numpy as np import matplotlib.pyplot as plt import torch import torch.nn as nn import torch.optim as optim from torch.autograd import Variable x_train = np.array([[3.3],[4.4],[5.5],[6.71],[6.93],[4.168],[9.779],[6.182],[7.59],[2.167],[7.042],[10.791],[5.313],[7.997],[3.1]], dtype=np.float32) y_train = np.array([[1.23],[3.24],[2.3],[2.14],[2.93],[3.168],[1.779],[2.182],[2.59],[3.167],[1.042],[3.791],[3.313],[2.997],[1.1]], dtype=np.float32) x_train = torch.from_numpy(x_train) y_train = torch.from_numpy(y_train) class LinearRegression(nn.Module): def __init__(self): super(LinearRegression,self).__init__() self.linear = nn.Linear(1,1) def forward(self,x): out = self.linear(x) return out if torch.cuda.is_available(): model = LinearRegression().cuda() else: model = LinearRegression() criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(),lr = 1e-3) num_epoch = 100 for epcoh in range(num_epoch): if torch.cuda.is_available(): inputs = Variable(x_train).cuda() outputs = Variable(y_train).cuda() else: inputs = Variable(x_train) outputs = Variable(y_train) out = model(inputs) target = y_train loss = criterion(out,target) optimizer.zero_grad() loss.backward() optimizer.step() if (epcoh+1)%20 == 0: print('Epoch[{}/{}],loss:{:.6f}' .format((epcoh+1,num_epoch,loss.data[0]))) model.eval() predict = model(Variable(x_train)) predict = predict.data.numpy() plt.plot(x_train.numpy(),y_train(),'ro',label = 'Original data') plt.plot(x_train.numpy(),predict,label = 'Fitting Line') plt.show() ``` 错误截图: ![图片说明](https://img-ask.csdn.net/upload/202004/20/1587376899_948649.png) 各位大佬们,这个错误是怎么回事啊,是cpu的问题吗?以下是cpu的信息截图: torch.cuda.current_device(): 0 torch.cuda.device(0): <torch.cuda.device object at 0x0000027EA4CE4CC0> torch.cuda.device_count(): 1 torch.cuda.get_device_name(0): GeForce MX250 torch.cuda.is_available(): True

fatal error: android_runtime/AndroidRuntime.h

最近搞jni各种坑啊~~~~~~~~ 想调用 ``` JNIEnv* env = AndroidRuntime::getJNIEnv(); ``` 获取env对象,在Android.mk中添加 ``` LOCAL_SHARED_LIBRARIES += libcutils libandroid_runtime libnativehelper ``` 并在调用处添加头文件 ``` #include "android_runtime/AndroidRuntime.h" ``` 就是编译不成功!! 是配置步骤错了?还是啥的?在线等

GO语言打开文件失败,runtime error

打开文件直接失败了,是接受文件内容的变量空间不够嘛?这种情况不应该出现在打开文件时吧,大佬们,救救~ ``` import ( ... "github.com/tealeg/xlsx" ) func main() { ... xlFile, err := xlsx.OpenFile(file.Name()) if err != nil { fmt.Printf("open file: %s --> failed: %s\n", file.Name(), err) } ``` ``` open file: test.xlsx --> failed: runtime error: index out of range [63] with length 0 panic: runtime error: invalid memory address or nil pointer dereference [signal 0xc0000005 code=0x0 addr=0x30 pc=0x51d3db] goroutine 1 [running]: main.main() c:/GoWorks/src/github.com/xxx/project/excel/main.go:39 +0x3cb exit status 2 ```

linux下使用pytorch框架出现cuda run out of memory问题

1.使用pytorch,数据量是图像224x224,总共4w张,框架使用的是VGG,出现cuda memory问题 ![图片说明](https://img-ask.csdn.net/upload/201904/12/1555035289_282502.png) 上图是gpu使用的情况,运行时使用的batch_size为32 显存问题怎么解决呢? 求大神指点指点,实在不知道怎么解决了。。。

使用pytorch的dataloader时报错:RuntimeError: DataLoader worker (pid(s) 1004, 4680) exited unexpectedly

运行的是这一段代码,spyder老报错 RuntimeError: DataLoader worker (pid(s) 1004, 4680) exited unexpectedly 奇怪的是,同样的代码我在jupyter notebook里就能正常运行。 请问该如何解决 ``` import torch import torch.utils.data as Data import torch.nn.functional as F from torch.autograd import Variable import matplotlib.pyplot as plt torch.manual_seed(1) # 设定随机数种子 # 定义超参数 LR = 0.01 # 学习率 BATCH_SIZE = 32 # 批大小 EPOCH = 12 # 迭代次数 x = torch.unsqueeze(torch.linspace(-1, 1, 1000), dim=1) y = x.pow(2) + 0.1*torch.normal(torch.zeros(*x.size())) #plt.scatter(x.numpy(), y.numpy()) #plt.show() # 将数据转换为torch的dataset格式 torch_dataset = Data.TensorDataset(x, y) # 将torch_dataset置入Dataloader中 loader = Data.DataLoader(dataset=torch_dataset, batch_size=BATCH_SIZE, shuffle=True, num_workers=2) class Net(torch.nn.Module): def __init__(self): super(Net, self).__init__() self.hidden = torch.nn.Linear(1, 20) self.predict = torch.nn.Linear(20, 1) def forward(self, x): x = F.relu(self.hidden(x)) x = self.predict(x) return x # 为每个优化器创建一个Net net_SGD = Net() net_Momentum = Net() net_RMSprop = Net() net_Adam = Net() nets = [net_SGD, net_Momentum, net_RMSprop, net_Adam] # 初始化优化器 opt_SGD = torch.optim.SGD(net_SGD.parameters(), lr=LR) opt_Momentum = torch.optim.SGD(net_Momentum.parameters(), lr=LR, momentum=0.8) opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=LR, alpha=0.9) opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=LR, betas=(0.9, 0.99)) optimizers = [opt_SGD, opt_Momentum, opt_RMSprop, opt_Adam] # 定义损失函数 loss_function = torch.nn.MSELoss() losses_history = [[], [], [], []] # 记录training时不同神经网络的loss值 for epoch in range(EPOCH): print('Epoch:', epoch + 1, 'Training...') for step, (batch_x, batch_y) in enumerate(loader): b_x = Variable(batch_x) b_y = Variable(batch_y) for net, opt, l_his in zip(nets, optimizers, losses_history): output = net(b_x) loss = loss_function(output, b_y) opt.zero_grad() loss.backward() opt.step() l_his.append(loss.item()) labels = ['SGD', 'Momentum', 'RMSprop', 'Adam'] for i, l_his in enumerate(losses_history): plt.plot(l_his, label=labels[i]) plt.legend(loc='best') plt.xlabel('Steps') plt.ylabel('Loss') plt.ylim((0, 0.2)) plt.show() ```

Pytorch运行错误:RuntimeError: error executing torch_shm_manager

执行一个python训练文件时,报错如下,请问是什么原因呀? 在mac上执行的,cpu方式,不知道是不是资源问题? File "/Users/xxx/anaconda3/envs/deepkeTest/lib/python3.7/multiprocessing/queues.py", line 236, in _feed obj = _ForkingPickler.dumps(obj) File "/Users/xxx/anaconda3/envs/deepkeTest/lib/python3.7/multiprocessing/reduction.py", line 51, in dumps cls(buf, protocol).dump(obj) File "/Users/xxx/anaconda3/envs/deepkeTest/lib/python3.7/site-packages/torch/multiprocessing/reductions.py", line 324, in reduce_storage metadata = storage._share_filename_() RuntimeError: error executing torch_shm_manager at "/Users/xxx/anaconda3/envs/deepkeTest/lib/python3.7/site-packages/torch/bin/torch_shm_manager" at ../torch/lib/libshm/core.cpp:99

LeetCode #547 总是提示runtime error

题目的意思就是计算有多少个无向连通图,我用bfs解决 一直提示runtime error,实在不知道哪里越界或是怎么了,在IDE上跑了几组数据没问题,谢谢各位大神指点一下 class Solution { public: int findCircleNum(vector<vector<int>>& M) {//M是邻接矩阵 vector<bool>visited(M.size(),false); int count=0; queue<int>q; for(int i=0;i<M.size();i++){ if(!visited[i]){ q.push(i); while(q.size()){ int x=q.front(); q.pop(); visited[x]=true; for(int j=0;i<M[x].size();j++){ if(M[x][j]==1&&!visited[j]){ q.push(j); } } } count++; } } return count; } };

新手求助代码为什么会runtime error

Description 斐波那契(Fibonacci,意大利数学家,1170年-1240年)数列,又称黄金分割数列,指的是这样一个数列:0、1、1、2、3、5、8、13、21、……。这个数列从第三项开始,每一项都等于前两项之和。在现代物理、准晶体结构、化学等领域,斐波纳契数列都有直接的应用。 已知斐波那契数列第n项的计算公式如下。在计算时有两种算法:递归和非递归,请给出其中一种算法。 当n=0时,Fib(n)=0,当n=1时,Fib(n)=1,当n>1时,Fib(n)= Fib(n-1)+ Fib(n-2) Input 第一行是测试数据的组数m,后面跟着m行输入。每行包括一个项数n和一个正整数a。(m,n,a均大于0,且均小于10000000) Output 输出包含m行,每行对应一个输入,若a不大于Fib(n),则输出Yes,否则输出No(中间没有空行) Sample Input 3 1 3 10 50 24 20000 Sample Output No Yes Yes #include<stdio.h> int count(int n) {int sum=0,a[100],i; if(n==1) sum=1; else if(n==0) sum=0; else{a[0]=0;a[1]=1; for(i=0;i<n-2;i++) {a[i+2]=a[i]+a[i+1];} for(i=0;i<n;i++) sum+=a[i]; } return sum;} int main() {int n,a,m,x; while(scanf("%d",&n)!=EOF) {while(n--) {scanf("%d %d",&m,&a); x=count(m); if(a>x) printf("No\n"); else printf("Yes\n");}} return 0;}

pytorch中出现RuntimeError: CUDA out of memory. Tried to allocate 58.00 MiB (GPU 0; 6.00 GiB total capacity; 3.97 GiB already allocated; 12.14 MiB free; 4.59 GiB reserved in total by PyTorch)

我已经成功迭代2次了,前两个epoch都没问题,在第三次epoch时突然报超出内存![图片说明](https://img-ask.csdn.net/upload/202003/14/1584190238_940662.png) 请问有朋友知道这是什么情况吗?

【九度1014】代码在本地运行正确,提交就是runtime error

[题目链接](http://ac.jobdu.com/problem.php?pid=1014 "") 希望能得到高人指点 ``` #include <iostream> #include <string> #include <vector> #include <sstream> #include <fstream> #include <cstring> #include <algorithm> using namespace std; class Student { public: string name; vector<int> vct_sc; int sum; void _sum(){ for(int i = 0; i < vct_sc.size(); i++){ sum += vct_sc[i]; } return; } void _print(){ cout << "stu print : " << name << " total score : " << sum << endl; } }; bool cmp_stu(Student *s1, Student *s2){ return s1->sum == s2->sum ? (s1->name < s2->name) : (s1->sum > s2->sum); } int main(){ // cout << "hello world" << endl; int status = 0; string s; string temp; // read from file /* ifstream rdata("1024.input"); if(!rdata.is_open()){ //cout << "can't open data file" << endl; return 1; } */ stringstream iss; vector<int> vct_fs; vector<Student*> vct_stu; bool flag = true; int nums[3]; int i_temp; int i; while(flag){ switch(status){ case 0: //cout << "status : 0 " << endl; getline(cin, s); //cout << "get line : " << s << endl; iss.clear(); iss << s; i = 0; while(iss >> i_temp){ nums[i] = i_temp; // cout << "nums[]: " << nums[i] << endl; i++; } if(nums[0] == 0) flag = false; else{ } status++; break; case 1: //cout << "status : 1 " << endl; getline(cin, s); //cout << "get line : " << s << endl; iss.clear(); iss << s; vct_fs.clear(); while(iss >> i_temp){ vct_fs.push_back(i_temp); //cout << "vct push: " << i_temp << endl; } status++; break; case 2: vct_stu.clear(); //cout << "status : 2 " << endl; for(int i = 0; i < nums[0]; i++){ getline(cin, s); //cout << "get line : " << s << endl; iss.clear(); iss << s; iss >> s; int fix_num; iss >> fix_num; Student *st = new Student(); st->name = s; while(iss >> i_temp){ //cout <<"case 3: " << temp << enOdl ; st->vct_sc.push_back(vct_fs[i_temp-1]); } st->_sum(); //st->_print(); vct_stu.push_back(st); } status=3; break; case 3: //cout << "status : 3 " << endl; //cout << "the result :" << endl; //cout << "score line is : " << nums[2] << endl; // calc(ute testroom int pass[vct_stu.size()]; memset(pass, 0, sizeof(int)*vct_stu.size()); int count = 0; sort(vct_stu.begin(),vct_stu.end(), cmp_stu); for(int i = 0; i < vct_stu.size(); i++){ if(vct_stu[i]->sum >= nums[2]){ pass[i] = 1; count += 1; } } cout << count << endl; for(int i = 0; i < vct_stu.size(); i++){ if(pass[i] == 1){ cout << vct_stu[i]->name << " " << vct_stu[i]->sum << endl; } } status = 0; break; finally: break; } } //cout << "over bye ~" << endl; return 0; } ```

vc开发的程序提示runtime error217,是怎么回事

软件在退出时有时会提示runtime error 217,请教各路神仙大侠,一般哪些原因会造成runtime error啊

no kernel image is available for execution on the device,计算能力不匹配的问题?

在运行网上下载的gipuma源码时遇到这个问题,以为是CUDA版本问题就换了笔记本试,源码核心的源文件见https://github.com/kysucix/gipuma/blob/master/gipuma.cu 笔记本:WIN10,VS2015,OPENCV2.4.13,CUDA9.0,显卡GTX950M,计算能力5.0,显卡驱动版本388.73 台式:WIN7家庭版,VS2015,OPENCV2.4.13,CUDA8.0,显卡QUADRO K2000,计算能力3.0,显卡驱动版本417.35 在网上查是code generation不对,其中-arch表示gpu architecture,于是在CMakeLists里将set(CUDA_NVCC_FLAGS ${CUDA_NVCC_FLAGS};-O3 --use_fast_math --ptxas-options=-v -std=c++11 --compiler-options -Wall -gencode arch=compute_30,code=sm_30 -gencode arch=compute_52,code=sm_52 -gencode arch=compute_61,code=sm_61) 笔记本里改成了set(CUDA_NVCC_FLAGS_RELEASE ${CUDA_NVCC_FLAGS};-O3 --use_fast_math --ptxas-options=-v -std=c++11 --compiler-options -Wall -arch=sm_50 -gencode=arch=compute_50,code=sm_50) 台式里改为了set(CUDA_NVCC_FLAGS_RELEASE ${CUDA_NVCC_FLAGS};-O3 --use_fast_math --ptxas-options=-v -std=c++11 --compiler-options -Wall -arch=sm_30 -gencode=arch=compute_30,code=sm_30) 结果还是不行,也换了其他所有可能的数字都不行,在CMake生成的工程属性页CUDA C/C++里也进行了修改(不知道对不对),也不行,求求各位帮忙看一下!可能问题有描述不清的地方,我会尽力解释的。PS:积分用完了,之后赚回来再悬赏吧

新手求助代码为什么runtimeerror

Description 斐波那契(Fibonacci,意大利数学家,1170年-1240年)数列,又称黄金分割数列,指的是这样一个数列:0、1、1、2、3、5、8、13、21、……。这个数列从第三项开始,每一项都等于前两项之和。在现代物理、准晶体结构、化学等领域,斐波纳契数列都有直接的应用。 已知斐波那契数列第n项的计算公式如下。在计算时有两种算法:递归和非递归,请给出其中一种算法。 当n=0时,Fib(n)=0,当n=1时,Fib(n)=1,当n>1时,Fib(n)= Fib(n-1)+ Fib(n-2) Input 第一行是测试数据的组数m,后面跟着m行输入。每行包括一个项数n和一个正整数a。(m,n,a均大于0,且均小于10000000) Output 输出包含m行,每行对应一个输入,若a不大于Fib(n),则输出Yes,否则输出No(中间没有空行) Sample Input 3 1 3 10 50 24 20000 Sample Output No Yes Yes #include<stdio.h> int count(int n) {int sum=0,a[100],i; if(n==1) sum=1; else if(n==0) sum=0; else{a[0]=0;a[1]=1; for(i=0;i<n-2;i++) {a[i+2]=a[i]+a[i+1];} for(i=0;i<n;i++) sum+=a[i]; } return sum;} int main() {int n,a,m,x; while(scanf("%d",&n)!=EOF) {while(n--) {scanf("%d %d",&m,&a); x=count(m); if(a>x) printf("No\n"); else printf("Yes\n");}} return 0;}

紧急:流错误:流ID 1; 协议错误

<div class="post-text" itemprop="text"> <p>I am using goquery to get the DOM of a webpage. I tried looking into the godocs but I'm not sure why I get this error:</p> <p>All I'm trying to do here is fetching a webpage content in a url. </p> <p>snippet:</p> <pre><code>response, err := http.Get(somedotcom) doc, err := goquery.NewDocumentFromReader(response.Body) if err != nil { panic(err) // the panic is coming from here } else { return doc } </code></pre> <p><strong>output:</strong></p> <pre><code>panic: stream error: stream ID 1; PROTOCOL_ERROR </code></pre> </div>

最近在使用YOLOv3进行测试时候,会报错cuda out of memory

最近在使用YOLOv3进行测试时候,会报错cuda out of memory,然后自己也尝试了一些方法,比如缩小测试图片尺寸等等,但是问题依然没有解决。想问一下各位大佬,有没有什么好的解决办法,或者YOLOv3有没有提供一些函数来释放显存,就是模型用完以后直接释放掉。谢谢谢!!!

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

程序员写出这样的代码,能不挨骂吗?

当你换槽填坑时,面对一个新的环境。能够快速熟练,上手实现业务需求是关键。但是,哪些因素会影响你快速上手呢?是原有代码写的不够好?还是注释写的不够好?昨夜...

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

C语言的灵魂之指针

指针在C语言中非常的重要,也比较的难。你对指针的掌握程度也决定了你对C语言的掌握程度。在学习C语言的时候因当搞清楚取值运算符和取地址运算符各自的含义。我们这里就通过取值运算符和取地址运算符展开讲指针。

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

10个提升效率的编程好习惯

文章目录00、前言01、双屏02、手机静音03、只学一个 00、前言 最近有读者反映学习编程困难,想放弃,询问是不是真的有不适合编程的人?我结合最近自己的学习经历和思考以及最近在数据结构与算法的折磨下得出的一些心得。 唐代大臣魏徵的【谏太宗十思疏】中写道,“善始者实繁,克终者盖寡”。大概的意思是:如果有好多人同时做一件事情,善于开始去做的人是非常多的,但是能够把这件事做好的人就寥寥无几了。 这句千...

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

《Java经典编程365例》000:学妹的优秀成绩单

内容导航: 1、题目 2、代码实现 2.1、Student类 2.2、测试类Client 2.3、输出结果 前言 这是一个真实的故事,就发生在CSDN…其它学弟学妹开始抄吧! 1、题目 新建一个学生(Student),成员变量(属性)有: 姓名 性别 年龄(int) 成绩(double) 成员方法有两个: print()方法 功能为:输出名字 + 性别 + 年龄。

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

Python爬虫,高清美图我全都要(彼岸桌面壁纸)

爬取彼岸桌面网站较为简单,用到了requests、lxml、Beautiful Soup4

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

6年开发经验女程序员,面试京东Java岗要求薪资28K

写在开头: 上周面试了一位女程序员,上午10::30来我们部门面试,2B哥接待了她.来看看她的简历: 个人简历 个人技能: ● 熟悉spring mvc 、spring、mybatis 等框架 ● 熟悉 redis 、rocketmq、dubbo、zookeeper、netty 、nginx、tomcat、mysql。 ● 阅读过juc 中的线程池、锁的源...

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

都前后端分离了,咱就别做页面跳转了!统统 JSON 交互

文章目录1. 无状态登录1.1 什么是有状态1.2 什么是无状态1.3 如何实现无状态1.4 各自优缺点2. 登录交互2.1 前后端分离的数据交互2.2 登录成功2.3 登录失败3. 未认证处理方案4. 注销登录 这是本系列的第四篇,有小伙伴找不到之前文章,松哥给大家列一个索引出来: 挖一个大坑,Spring Security 开搞! 松哥手把手带你入门 Spring Security,别再问密...

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

程序员是做全栈工程师好?还是专注一个领域好?

昨天,有位大一的同学私信我,说他要做全栈工程师。 我一听,这不害了孩子么,必须制止啊。 谁知,讲到最后,更确定了他做全栈程序员的梦想。 但凡做全栈工程师的,要么很惨,要么很牛! 但凡很牛的,绝不是一开始就是做全栈的! 全栈工程师听起来好听,但绝没有你想象的那么简单。 今天听我来给你唠,记得帮我点赞哦。 一、全栈工程师的职责 如果你学习编程的目的只是玩玩,那随意,想怎么学怎么学。...

立即提问
相关内容推荐