pytorch自定义loss,如何进行后向传播loss.backward()?

之前loss用自带的MSE,这样写的

criterion = nn.MSELoss(size_average=False).cuda()
...
loss = criterion(output, target)
loss.backward()

这样是没有问题的


现在需要用自定义loss函数newLoss,因为要逐个像素进行loss运算(算法需要)

#this is in model.py
class newLoss(nn.Module):
    def __init__(self):
        super(newLoss, self).__init__()
    def forward(self, output, gt):
        loss = 0
        for row_out, row_gt :
            for pixel_out, pixel_gt :
                loss += something pixelwise
        return loss
# this is in train.py
newloss = newLoss()
loss = newloss(output,gt)

这样计算出来的loss是float类型的,下面的代码会报
''AttributeError: 'float' object has no attribute 'backward''
的错


我现在的做法是:把newloss数值加到原来的MSE类型loss上:

criterion = nn.MSELoss(size_average=False).cuda()
...
loss = criterion(output, target)
newloss= newLoss()
loss += newloss(output,gt)
loss.backward()

这样写我新加的newloss在后向传播时能生效吗?

1个回答

你这是数据类型的问题吧,把newLoss装载进cuda里,还有类定义的变量用torch类型,能够反向传播是要求torch.tensor

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
pytorch自定义初始化权重后模型loss一直在2点几

``` class Net(nn.Module): def __init__(self): super(Net,self).__init__() self.conv1 = nn.Conv2d(3,64,3,padding=1,bias=False) self.conv2 = nn.Conv2d(64,64,3,padding=1,bias=False) self.pool1 = nn.MaxPool2d(2, 2) self.bn1 = nn.BatchNorm2d(64) self.relu1 = nn.ReLU() self.conv3 = nn.Conv2d(64,128,3,padding=1,bias=False) self.conv4 = nn.Conv2d(128, 128, 3,padding=1,bias=False) self.pool2 = nn.MaxPool2d(2, 2, padding=1) self.bn2 = nn.BatchNorm2d(128) self.relu2 = nn.ReLU() self.conv5 = nn.Conv2d(128,128, 3,padding=1,bias=False) self.conv6 = nn.Conv2d(128, 128, 3,padding=1,bias=False) self.conv7 = nn.Conv2d(128, 128, 1,padding=1,bias=False) self.pool3 = nn.MaxPool2d(2, 2, padding=1) self.bn3 = nn.BatchNorm2d(128) self.relu3 = nn.ReLU() self.conv8 = nn.Conv2d(128, 256, 3,padding=1,bias=False) self.conv9 = nn.Conv2d(256, 256, 3, padding=1,bias=False) self.conv10 = nn.Conv2d(256, 256, 1, padding=1,bias=False) self.pool4 = nn.MaxPool2d(2, 2, padding=1) self.bn4 = nn.BatchNorm2d(256) self.relu4 = nn.ReLU() self.conv11 = nn.Conv2d(256, 512, 3, padding=1,bias=False) self.conv12 = nn.Conv2d(512, 512, 3, padding=1,bias=False) self.conv13 = nn.Conv2d(512, 512, 1, padding=1,bias=False) self.pool5 = nn.MaxPool2d(2, 2, padding=1) self.bn5 = nn.BatchNorm2d(512) self.relu5 = nn.ReLU() self.fc14 = nn.Linear(512*4*4,1024) self.drop1 = nn.Dropout2d() self.fc15 = nn.Linear(1024,1024) self.drop2 = nn.Dropout2d() self.fc16 = nn.Linear(1024,10) def forward(self,x): x = self.conv1(x) x = self.conv2(x) x = self.pool1(x) x = self.bn1(x) x = self.relu1(x) x = self.conv3(x) x = self.conv4(x) x = self.pool2(x) x = self.bn2(x) x = self.relu2(x) x = self.conv5(x) x = self.conv6(x) x = self.conv7(x) x = self.pool3(x) x = self.bn3(x) x = self.relu3(x) x = self.conv8(x) x = self.conv9(x) x = self.conv10(x) x = self.pool4(x) x = self.bn4(x) x = self.relu4(x) x = self.conv11(x) x = self.conv12(x) x = self.conv13(x) x = self.pool5(x) x = self.bn5(x) x = self.relu5(x) # print(" x shape ",x.size()) x = x.view(-1,512*4*4) x = F.relu(self.fc14(x)) x = self.drop1(x) x = F.relu(self.fc15(x)) x = self.drop2(x) x = self.fc16(x) return x model = Net() #model = torch.nn.DataParallel(model) if t.cuda.is_available(): model.cuda() print(model) # torchvision输出的是PILImage,值的范围是[0, 1]. # 我们将其转化为tensor数据,并归一化为[-1, 1]。 transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)), ]) # 训练集,将相对目录./data下的cifar-10-batches-py文件夹中的全部数据(50000张图片作为训练数据)加载到内存中,若download为True时,会自动从网上下载数据并解压 trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=False, transform=transform) # 将训练集的50000张图片划分成12500份,每份4张图,用于mini-batch输入。shffule=True在表示不同批次的数据遍历时,打乱顺序。num_workers=2表示使用两个子进程来加载数据 trainloader = torch.utils.data.DataLoader(trainset, batch_size=100, shuffle=False, num_workers=1) #测试集,将相对目录./data下的cifar-10-batches-py文件夹中的全部数据(10000张图片作为测试数据)加载到内存中,若download为True时,会自动从网上下载数据并解压 testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=False, transform=transform) # 将测试集的10000张图片划分成2500份,每份4张图,用于mini-batch输入。 testloader = torch.utils.data.DataLoader(testset, batch_size=50, shuffle=False, num_workers=1) criterion = nn.CrossEntropyLoss()#叉熵损失函数 optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)#使用SGD(随机梯度下降)优化,学习率为0.001,动量为0.9 for epoch in range(1): # 遍历数据集10次 running_loss = 0.0 # enumerate(sequence, [start=0]),i序号,data是数据 for i, data in enumerate(trainloader, 0): #for i in range(1000): # get the inputs #data is list inputs, labels = data # data的结构是:[4x3x32x32的张量,长度4的张量] # wrap them in Variable inputs = Variable(inputs) labels=Variable(labels)# 把input数据从tensor转为variable if t.cuda.is_available(): inputs=inputs.cuda() labels=labels.cuda() #inputs,labels= inputs.type(torch.FloatTensor),labels.type(torch.FloatTensor) # zero the parameter gradients optimizer.zero_grad() # 将参数的grad值初始化为0 # forward + backward + optimize outputs = model(inputs) loss = criterion(outputs, labels) # 将output和labels使用叉熵计算损失 loss.backward() # 反向传播 optimizer.step() # 用SGD更新参数 # 每2000批数据打印一次平均loss值 running_loss += loss.item() # loss本身为Variable类型,所以要使用data获取其Tensor,因为其为标量,所以取0 或使用loss.item() if i % 500 == 499: # 每2000批打印一次 print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 500)) running_loss = 0.0 print('Finished Training') start = time.clock()#.time correct = 0 total = 0 for data in testloader: images, labels = data images=images.cuda() labels=labels.cuda() outputs = model(Variable(images)) print(outputs.shape) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum() print('Accuracy of the network on the 10000 test images: %d %%' % ( 100 * correct / total)) end = time.clock()#.time print("Running time: %s Seconds" % (end-start)) weight0=np.random.random((64,3,3,3)) weight0=nn.Parameter(torch.FloatTensor(weight0).cuda(),requires_grad=True) #weight1=np.random.random((64,64,3,3),dtype=np.float32) weight1=np.random.random((64,64,3,3)) weight1=nn.Parameter(torch.FloatTensor(weight1).cuda(),requires_grad=True) weight2=np.random.random((128,64,3,3)) weight2=nn.Parameter(torch.FloatTensor(weight2).cuda(),requires_grad=True) weight3=np.random.random((128,128,3,3)) weight3=nn.Parameter(torch.FloatTensor(weight3).cuda(),requires_grad=True) weight4=np.random.random((128,128,3,3)) weight4=nn.Parameter(torch.FloatTensor(weight4).cuda(),requires_grad=True) weight5=np.random.random((128,128,3,3)) weight5=nn.Parameter(torch.FloatTensor(weight5).cuda(),requires_grad=True) weight6=np.random.random((128,128,1,1)) weight6=nn.Parameter(torch.FloatTensor(weight6).cuda(),requires_grad=True) weight7=np.random.random((256,128,3,3)) weight7=nn.Parameter(torch.FloatTensor(weight7).cuda(),requires_grad=True) weight8=np.random.random((256,256,3,3)) weight8=nn.Parameter(torch.FloatTensor(weight8).cuda(),requires_grad=True) weight9=np.random.random((256,256,1,1)) weight9=nn.Parameter(torch.FloatTensor(weight9).cuda(),requires_grad=True) weight10=np.random.random((512,256,3,3)) weight10=nn.Parameter(torch.FloatTensor(weight10).cuda(),requires_grad=True) weight11=np.random.random((512,512,3,3)) weight11=nn.Parameter(torch.FloatTensor(weight11).cuda(),requires_grad=True) weight12=np.random.random((512,512,1,1)) weight12=nn.Parameter(torch.FloatTensor(weight12).cuda(),requires_grad=True) new_layer_id=0 for m1 in model.modules(): if isinstance(m1, nn.Conv2d): if (new_layer_id==0): m1.weight = weight0 elif(new_layer_id==1): m1.weight= weight1 elif(new_layer_id==2): m1.weight = weight2 elif(new_layer_id==3): m1.weight = weight3 elif(new_layer_id==4): m1.weight = weight4 elif(new_layer_id==5): m1.weight = weight5 elif(new_layer_id==6): m1.weight = weight6 elif(new_layer_id==7): m1.weight = weight7 elif(new_layer_id==8): m1.weight = weight8 elif(new_layer_id==9): m1.weight = weight9 elif(new_layer_id==10): m1.weight = weight10 elif(new_layer_id==11): m1.weight = weight11 elif(new_layer_id==12): m1.weight = weight12 new_layer_id=new_layer_id+1 elif isinstance(m1, nn.BatchNorm2d): m1.weight = m1.weight m1.bias = m1.bias elif isinstance(m1, nn.Linear): m1.weight = m1.weight m1.bias = m1.bias #torchvision输出的是PILImage,值的范围是[0, 1]. # 我们将其转化为tensor数据,并归一化为[-1, 1]。 transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)), ]) # 训练集,将相对目录./data下的cifar-10-batches-py文件夹中的全部数据(50000张图片作为训练数据)加载到内存中,若download为True时,会自动从网上下载数据并解压 trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=False, transform=transform) # 将训练集的50000张图片划分成12500份,每份4张图,用于mini-batch输入。shffule=True在表示不同批次的数据遍历时,打乱顺序。num_workers=2表示使用两个子进程来加载数据 trainloader = torch.utils.data.DataLoader(trainset, batch_size=100, shuffle=False, num_workers=1) #测试集,将相对目录./data下的cifar-10-batches-py文件夹中的全部数据(10000张图片作为测试数据)加载到内存中,若download为True时,会自动从网上下载数据并解压 testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=False, transform=transform) # 将测试集的10000张图片划分成2500份,每份4张图,用于mini-batch输入。 testloader = torch.utils.data.DataLoader(testset, batch_size=50, shuffle=False, num_workers=1) criterion1 = nn.CrossEntropyLoss()#叉熵损失函数 optimizer1 = optim.Adam(model.parameters(), lr=0.001)#使用SGD(随机梯度下降)优化,学习率为0.001,动量为0.9 #momentum=0.9 start = time.clock()#.time correct = 0 total = 0 for data in testloader: images, labels = data images=images.cuda() labels=labels.cuda() outputs = model(Variable(images)) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum() print('Accuracy of the Newmodel1 on the 10000 test images: %d %%' % ( 100 * correct / total)) end = time.clock()#.time print("Running time: %s Seconds" % (end-start)) for epoch in range(20): running_loss = 0.0 for i, data in enumerate(trainloader, 0): #for i in range(1000): inputs, labels = data inputs = Variable(inputs) #print(inputs.shape) labels=Variable(labels) inputs=inputs.cuda() labels=labels.cuda() optimizer1.zero_grad() outputs = model(inputs) loss = criterion1(outputs, labels) loss.backward() optimizer1.step() running_loss += loss.item() if i % 500 == 499: print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 500)) ```

pytorch的Process finished with exit code -1073741819 (0xC0000005)

请问用pytorch跑cuda的程序总是中断,Process finished with exit code -1073741819 (0xC0000005)出现这个问题,调试的时候是loss backward()这里出问题了,但是测试cuda一切正常,求解决 ``` import torch print(torch.cuda.is_available()) print(torch.cuda.device_count()) print(torch.cuda.get_device_name()) print(torch.cuda.current_device()) #True #1 #GeForce RTX 2060 SUPER #0 ```

pytorch ,Cifar10 ,Lenet5 ,损失函数不收敛

``` import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import torchvision import torchvision.transforms as transforms import torchvision.datasets as datasets import time #归一化处理 ## Compose 是创建 transform = transforms.Compose([transforms.ToTensor(),#把数据转换成tensor transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5)) #数据归一化 ,第一组参数是所有channel的平均值,第2组参数是方差 # 为什么需要平均值的原因是 ,所有图片都有的 ,数据不需要学习,因为平均值都在每张图片里了是干扰项目 ]) #训练数据 ## 数据在哪 train_data = datasets.CIFAR10('./data',train=True,transform=transform,download=True) ## 数据加载 train_loader = torch.utils.data.DataLoader(dataset=train_data,batch_size=4,shuffle=True,num_workers=2) #测试数据 ## 数据在哪里 test_data = datasets.CIFAR10('./test',train=False,transform=transform,download=True) ##数据加载 test_loader = torch.utils.data.DataLoader(dataset=test_data,batch_size=4,shuffle=True,num_workers=2) # min-batch的图片显示 import matplotlib.pyplot as plt import numpy as np ## 一般显示图片都是numpy array的数据来进行显示的 def imgsshow(img): ##? 这里有个包升级的问题 ,导致目前没有解决 img = img/2 + 0.5 #由于在归一化 transform里有去掉平均的处理 在这里需要变回来 img = img.numpy() # numpay array img = np.transpose(img,(1,2,0)) # (c,h,w) -> (h,w,c) 符合正常显示的数据的方式 plt.show(img) data_iter = iter(train_loader) #随机加载一个min batch images , labels = data_iter.next() # 把图片 和 label 分开 # imgsshow(torchvision.utils.make_grid(images)) class Net(nn.Module): def __init__(self): super(Net,self).__init__() # LeCun # N = (input_size - kernel_size + 2 padding)/stripe +1 self.conv1 = nn.Sequential(nn.Conv2d(3,6,5,1), # out = (32 -5 + 2*0)/1+1 =28 nn.ReLU(), nn.MaxPool2d(kernel_size=2,stride=2)) # out = 14 self.conv2 = nn.Sequential( nn.Conv2d(6,16,5), # out = (14 -5 +0)1 +1 =10 nn.ReLU(), nn.MaxPool2d(kernel_size=2,stride =2) # out = 10/2 = 5 ) self.fc1 = nn.Sequential( nn.Linear(16*5*5,120), nn.ReLU() ) self.fc2 = nn.Sequential( nn.Linear(120,84), nn.ReLU() ) self.fc3 = nn.Linear(84,10) def forward(self, x): x = self.conv1(x) x = self.conv2(x) x = x.view(-1, 16*5*5) print ("%%"*50) print ('dimision change',x.shape) x = self.fc1(x) x = self.fc2(x) x = self.fc3(x) return x net = Net() print("current net is ",net) # 定义损失 criterion = nn.CrossEntropyLoss() #定义优化器 ,(一旦损失backforward 后,如何更新 weight ,已经更新谁的weight) tunner = optim.SGD(net.parameters(),lr=0.0001,momentum=0.9) traning_loss_history = [] test_loss_history = [] for epoch in range(1000): net.train() running_loss = 0.0 print ("training.... epoch{0}".format(epoch)) start_epoc = time.time() for i ,data in enumerate(train_loader,0): #一次仅仅提取一个minbatch ,一致到所有的数据取完 batch_time = time.time() imges, labels = data # imges, labels = Variable(images),Variable(labels) tunner.zero_grad() outs = net(images) loss = criterion(outs, labels) # tunner.zero_grad() loss.backward() tunner.step() if i % 1000 == 0: print ("i {0} : loss {1} : duration {2}".format(i, loss.item(), (time.time()-batch_time))) running_loss += loss.item() if i%250 == 0 : net.eval() with torch.no_grad(): for data in test_loader: test_images ,test_label = data test_outs = net(test_images) test_loss = criterion(test_outs,test_label) traning_loss_history .append(running_loss/250) test_loss_history.append(test_loss.item()) running_loss = 0.0 print("epoch {0} :: loss {1} :: duration {2}".format(epoch,loss.item(),time.time()-start_epoc)) # 为什么损失函数会有regression呢 ? 原因 1 ,minbatch的偶然性导致 ,比如这几次都是飞机 2, learning rrate {} #画图 plt.figure() plt.plot(traning_loss_history) plt.plot(test_loss_history) plt.legend('training loss','test loss') plt.tile("Traing /Test loss") plt.xlabel('#mini_batch *250') plt.ylabel('Loss') ```

'float' object has no attribute 'backward'的问题

``` import torch import math x0 = torch.tensor(2.00,requires_grad=True) w0 = torch.tensor(-1.00,requires_grad=True) x1 = torch.tensor(-2.00,requires_grad=True) w1 = torch.tensor(-3.00,requires_grad=True) w2 = torch.tensor(-3.00,requires_grad=True) y0 = w0 * x0 y1 = x1 * w1 z0 = y0 + y1 z1 = z0 + w2 z2 = z1 * -1 z3 = math.exp(z2) z4 = z3 + 1 z5 = 1/z4 print(y0) print(y1) print(z0) print(z1) print(z2) print(z3) print(z4) print(z5) z5.backward() print(w0.grad) print(x0.grad) print(w1.grad) print(x1.grad) print(w2.grad) print(y0.grad) print(y1.grad) print(z0.grad) print(z1.grad) print(z2.grad) print(z3.grad) print(z4.grad) print(z5.grad) ``` ![图片说明](https://img-ask.csdn.net/upload/202002/26/1582714717_561961.png) 有大佬知道应该怎么改吗?

Pytorch CiFar10 , Lenet5 ,损失函数不收敛

问题 同标题 import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import torchvision import torchvision.transforms as transforms import torchvision.datasets as datasets import time transform = transforms.Compose([transforms.ToTensor(),#把数据转换成tensor transforms.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5)) #数据归一化 ,第一组参数是所有channel的平均值,第2组参数是方差 # 为什么需要平均值的原因是 ,所有图片都有的 ,数据不需要学习,因为平均值都在每张图片里了是干扰项目 ]) train_data = datasets.CIFAR10('./data',train=True,transform=transform,download=True) train_loader = torch.utils.data.DataLoader(dataset=train_data,batch_size=4,shuffle=True,num_workers=2) test_data = datasets.CIFAR10('./test',train=False,transform=transform,download=True) test_loader = torch.utils.data.DataLoader(dataset=test_data,batch_size=4,shuffle=True,num_workers=2) import matplotlib.pyplot as plt import numpy as np def imgsshow(img): ##? 这里有个包升级的问题 ,导致目前没有解决 img = img/2 + 0.5 #由于在归一化 transform里有去掉平均的处理 在这里需要变回来 img = img.numpy() # numpay array img = np.transpose(img,(1,2,0)) # (c,h,w) -> (h,w,c) 符合正常显示的数据的方式 plt.show(img) data_iter = iter(train_loader) #随机加载一个min batch images , labels = data_iter.next() # 把图片 和 label 分开 class Net(nn.Module): def __init__(self): super(Net,self).__init__() # LeCun # N = (input_size - kernel_size + 2 padding)/stripe +1 self.conv1 = nn.Sequential(nn.Conv2d(3,6,5,1), # out = (32 -5 + 2*0)/1+1 =28 nn.ReLU(), nn.MaxPool2d(kernel_size=2,stride=2)) # out = 14 self.conv2 = nn.Sequential( nn.Conv2d(6,16,5), # out = (14 -5 +0)1 +1 =10 nn.ReLU(), nn.MaxPool2d(kernel_size=2,stride =2) # out = 10/2 = 5 ) self.fc1 = nn.Sequential( nn.Linear(16*5*5,120), nn.ReLU() ) self.fc2 = nn.Sequential( nn.Linear(120,84), nn.ReLU() ) self.fc3 = nn.Linear(84,10) def forward(self, x): x = self.conv1(x) x = self.conv2(x) x = x.view(-1, 16*5*5) print ("%%"*50) print ('dimision change',x.shape) x = self.fc1(x) x = self.fc2(x) x = self.fc3(x) return x net = Net() print("current net is ",net) criterion = nn.CrossEntropyLoss() tunner = optim.SGD(net.parameters(),lr=0.0001,momentum=0.9) traning_loss_history = [] test_loss_history = [] for epoch in range(1000): net.train() running_loss = 0.0 print ("training.... epoch{0}".format(epoch)) start_epoc = time.time() for i ,data in enumerate(train_loader,0): #一次仅仅提取一个minbatch ,一致到所有的数据取完 batch_time = time.time() imges, labels = data # imges, labels = Variable(images),Variable(labels) tunner.zero_grad() outs = net(images) loss = criterion(outs, labels) # tunner.zero_grad() loss.backward() tunner.step() if i % 1000 == 0: print ("i {0} : loss {1} : duration {2}".format(i, loss.item(), (time.time()-batch_time))) running_loss += loss.item() if i%250 == 0 : net.eval() with torch.no_grad(): for data in test_loader: test_images ,test_label = data test_outs = net(test_images) test_loss = criterion(test_outs,test_label) traning_loss_history .append(running_loss/250) test_loss_history.append(test_loss.item()) running_loss = 0.0 print("epoch {0} :: loss {1} :: duration {2}".format(epoch,loss.item(),time.time()-start_epoc)) # 为什么损失函数会有regression呢 ? 原因 1 ,minbatch的偶然性导致 ,比如这几次都是飞机 2, learning rrate {} plt.figure() plt.plot(traning_loss_history) plt.plot(test_loss_history) plt.legend('training loss','test loss') plt.tile("Traing /Test loss") plt.xlabel('#mini_batch *250') plt.ylabel('Loss')

有关pytorch中梯度为None的情况

一直在用现成的框架写东西,这几天有空心血来潮想自己写个简单的神经网络,结果不知道怎么回事backward到第二步的时候w1.grad和w2.grad都是None 求各位解答: ``` import torch import numpy as np N, D_in, H, D_out = 64, 1000, 100, 10 learning_rate = 1e-6 x = torch.randn(N, D_in) y = torch.randn(N, D_out) w1 = torch.randn(D_in, H) w2 = torch.randn(H, D_out) learning_rate = 1e-6 for it in range(500): w1=w1.requires_grad_() w2=w2.requires_grad_() # Forward pass y_pred = x.mm(w1).clamp(min=0).mm(w2) # compute loss loss = (y_pred - y).pow(2).sum() # computation graph print(it, loss.item()) # Backward pass loss.backward() w1=(w1-learning_rate*w1.grad) w2=(w2-learning_rate*w2.grad) ```

如何使用matplotlib可视化此元学习过程中的损失函数?

# 问题描述: 新手题主看到了 https://github.com/ikostrikov/pytorch-meta-optimizer 中作者基于Pytorch实现Learning to learn by gradient descent by gradient descent 第二个MNIST实验的代码。 遗憾的是其只输出了每次训练后的损失函数值,并没有可视化训练过程中损失函数的变化。 **题主想得到原文中所示的最优损失函数的下降曲线** ![图片说明](https://img-ask.csdn.net/upload/202004/24/1587737332_926090.png) 使用matplotlib应该添加哪些代码呢? main.py文件如下: ``` import argparse import operator import sys import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import matplotlib.pyplot as plt import numpy as np from data import get_batch from meta_optimizer import MetaModel, MetaOptimizer, FastMetaOptimizer from model import Model from torch.autograd import Variable from torchvision import datasets, transforms parser = argparse.ArgumentParser(description='PyTorch REINFORCE example') parser.add_argument('--batch_size', type=int, default=32, metavar='N', help='batch size (default: 32)') parser.add_argument('--optimizer_steps', type=int, default=100, metavar='N', help='number of meta optimizer steps (default: 100)') parser.add_argument('--truncated_bptt_step', type=int, default=20, metavar='N', help='step at which it truncates bptt (default: 20)') parser.add_argument('--updates_per_epoch', type=int, default=10, metavar='N', help='updates per epoch (default: 100)') parser.add_argument('--max_epoch', type=int, default=1000, metavar='N', help='number of epoch (default: 10000)') parser.add_argument('--hidden_size', type=int, default=10, metavar='N', help='hidden size of the meta optimizer (default: 10)') parser.add_argument('--num_layers', type=int, default=2, metavar='N', help='number of LSTM layers (default: 2)') parser.add_argument('--no-cuda', action='store_true', default=False, help='enables CUDA training') args = parser.parse_args() args.cuda = not args.no_cuda and torch.cuda.is_available() assert args.optimizer_steps % args.truncated_bptt_step == 0 kwargs = {'num_workers': 1, 'pin_memory': True} if args.cuda else {} train_loader = torch.utils.data.DataLoader( datasets.MNIST('../data', train=True, download=True, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])), batch_size=args.batch_size, shuffle=True, **kwargs) test_loader = torch.utils.data.DataLoader( datasets.MNIST('../data', train=False, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])), batch_size=args.batch_size, shuffle=True, **kwargs) def main(): # Create a meta optimizer that wraps a model into a meta model # to keep track of the meta updates. meta_model = Model() if args.cuda: meta_model.cuda() meta_optimizer = FastMetaOptimizer(MetaModel(meta_model), args.num_layers, args.hidden_size) if args.cuda: meta_optimizer.cuda() optimizer = optim.Adam(meta_optimizer.parameters(), lr=1e-3) for epoch in range(args.max_epoch): decrease_in_loss = 0.0 final_loss = 0.0 train_iter = iter(train_loader) for i in range(args.updates_per_epoch): # Sample a new model model = Model() if args.cuda: model.cuda() x, y = next(train_iter) if args.cuda: x, y = x.cuda(), y.cuda() x, y = Variable(x), Variable(y) # Compute initial loss of the model f_x = model(x) initial_loss = F.nll_loss(f_x, y) for k in range(args.optimizer_steps // args.truncated_bptt_step): # Keep states for truncated BPTT meta_optimizer.reset_lstm( keep_states=k > 0, model=model, use_cuda=args.cuda) loss_sum = 0 prev_loss = torch.zeros(1) if args.cuda: prev_loss = prev_loss.cuda() for j in range(args.truncated_bptt_step): x, y = next(train_iter) if args.cuda: x, y = x.cuda(), y.cuda() x, y = Variable(x), Variable(y) # First we need to compute the gradients of the model f_x = model(x) loss = F.nll_loss(f_x, y) model.zero_grad() loss.backward() # Perfom a meta update using gradients from model # and return the current meta model saved in the optimizer meta_model = meta_optimizer.meta_update(model, loss.data) # Compute a loss for a step the meta optimizer f_x = meta_model(x) loss = F.nll_loss(f_x, y) loss_sum += (loss - Variable(prev_loss)) prev_loss = loss.data # Update the parameters of the meta optimizer meta_optimizer.zero_grad() loss_sum.backward() for param in meta_optimizer.parameters(): param.grad.data.clamp_(-1, 1) optimizer.step() # Compute relative decrease in the loss function w.r.t initial # value decrease_in_loss += loss.item() / initial_loss.item() final_loss += loss.item() #plt.plot(final_loss,label='LSTM') #plt.yscale('log') #plt.title('Loss') #plt.pause(0.5) #plt.show() print("Epoch: {}, final loss {}, average final/initial loss ratio: {}".format(epoch, final_loss / args.updates_per_epoch, decrease_in_loss / args.updates_per_epoch)) if __name__ == "__main__": main() ```

pytorch expected Tensor as element 0 in argument 0, but got tuple

做风格迁移学习时,在 target_feature=model(style_img).clone()发生错误,expected Tensor as element 0 in argument 0, but got tuple 然而style_img的格式是torch.cuda.FloatTensor import torch import torch.nn as nn from torch.autograd import Variable import torch.optim as optim from PIL import Image import matplotlib.pyplot as plt import torchvision.transforms as transforms import torchvision.models as models import copy use_cuda=torch.cuda.is_available() dtype=torch.cuda.FloatTensor if use_cuda else torch.FloatTensor style='images/timg.jpg' content='images/123.jpg' style_weight=1000 content_weight=1 imsize=128 loader=transforms.Compose([ transforms.Resize(imsize), transforms.ToTensor() ]) def image_loader(image_name): image=Image.open(image_name) image=Variable(loader(image)) image=image.unsqueeze(0) return image style_img=image_loader(style).type(dtype) content_img=image_loader(content).type(dtype) print(style_img) assert style_img.size()==content_img.size() def imshow(tensor,title=None): image=tensor.clone().cpu() image=image.view(3,imsize,imsize) image=unloader(image) plt.imshow(image) if title is not None: plt.title(title) plt.pause(0.001) unloader=transforms.ToPILImage() # plt.ion() # # plt.figure() # imshow(style_img.data,title='Style Image') # # plt.figure() # imshow(content_img.data,title='Content Image') # 加载网络 cnn=models.vgg19(pretrained=True).features if use_cuda: cnn=cnn.cuda() class ContentLoss(nn.Module): def __init__(self,target,weight): super(ContentLoss,self).__init__() self.target=target.detach()*weight self.weight=weight self.criterion=nn.MSELoss() def forward(self, *input): self.loss=self.criterion(input*self.weight,self.target) self.output=input return self.output def backward(self,retain_graph=True): self.loss.backward(retain_graph=retain_graph) return self.loss class StyleLoss(nn.Module): def __init__(self,target,weight): super(StyleLoss,self).__init__() self.target=target.detach()*weight self.weight=weight #self.gram=GramMatrix() self.criterion=nn.MSELoss() def forward(self,input): self.output=input.clone() input=input.cuda() self_G=Gram(input) self_G.mul(self.weight) self.loss=self.criterion(self_G,self.target) return self.output def backward(self,retain_graph=True): self.loss.backward(retain_graph=retain_graph) return self.loss def Gram(input): a,b,c,d=input.size() features=input.view(a*b,c*d) G=torch.mm(features,features.t()) return G.div(a*b*c*d) content_layers=['conv_4'] style_layers=['conv_1','conv_2','conv_3','conv_4','conv_5'] content_losses=[] style_losses=[] model=nn.Sequential() if use_cuda: model=model.cuda() i=1 for layer in list(cnn): if isinstance(layer,nn.Conv2d): name='conv_'+str(i) model.add_module(name,layer) if name in content_layers: target=model(content_img).clone() content_loss=ContentLoss(target,content_weight) content_loss=content_loss.cuda() if use_cuda else content_loss model.add_module('content_loss'+str(i),content_loss) content_losses.append(content_loss) if name in style_layers: target_feature=model(style_img).clone() target_feature=target_feature.cuda() if use_cuda else target_feature target_feature_gram=Gram(target_feature) style_loss=StyleLoss(target_feature_gram,style_weight) style_loss=style_loss.cuda() if use_cuda else style_loss model.add_module("style_loss"+str(i),style_loss) style_losses.append(style_loss) if isinstance(layer,nn.ReLU): name='relu'+str(i) model.add_module(name,layer) i+=1 if isinstance(layer,nn.MaxPool2d): name="pool"+str(i) model.add_module(name,layer) input_img=Variable(torch.randn(content_img.data.size())) if use_cuda: input_img=input_img.cuda() content_img=content_img.cuda() style_img=style_img.cuda() plt.figure() imshow(input_img.data,title='Input Image')

求问大神,这段pytorch编程的代码里面为什么会有问题,问题出在哪里?

``` ```import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # torch.manual_seed(1) # reproducible # np.random.seed(1) # Hyper Parameters BATCH_SIZE = 64 LR_G = 0.0001 # learning rate for generator LR_D = 0.0001 # learning rate for discriminator N_IDEAS = 5 # think of this as number of ideas for generating an art work (Generator) ART_COMPONENTS = 15 # it could be total point G can draw in the canvas PAINT_POINTS = np.vstack([np.linspace(-1, 1, ART_COMPONENTS) for _ in range(BATCH_SIZE)]) # show our beautiful painting range # plt.plot(PAINT_POINTS[0], 2 * np.power(PAINT_POINTS[0], 2) + 1, c='#74BCFF', lw=3, label='upper bound') # plt.plot(PAINT_POINTS[0], 1 * np.power(PAINT_POINTS[0], 2) + 0, c='#FF9359', lw=3, label='lower bound') # plt.legend(loc='upper right') # plt.show() def artist_works(): # painting from the famous artist (real target) a = np.random.uniform(1, 2, size=BATCH_SIZE)[:, np.newaxis] paintings = a * np.power(PAINT_POINTS, 2) + (a-1) paint = torch.from_numpy(paintings).float() return paint G = nn.Sequential( # Generator nn.Linear(N_IDEAS, 128), # random ideas (could from normal distribution) nn.ReLU(), nn.Linear(128, ART_COMPONENTS), # making a painting from these random ideas ) D = nn.Sequential( # Discriminator nn.Linear(ART_COMPONENTS, 128), # receive art work either from the famous artist or a newbie like G nn.ReLU(), nn.Linear(128, 1), nn.Sigmoid(), # tell the probability that the art work is made by artist ) opt_D = torch.optim.Adam(D.parameters(), lr=LR_D) opt_G = torch.optim.Adam(G.parameters(), lr=LR_G) plt.ion() # something about continuous plotting for step in range(10000): artist_paintings = artist_works() # real painting from artist G_ideas = torch.randn(BATCH_SIZE, N_IDEAS) # random ideas G_paintings = G(G_ideas) # fake painting from G (random ideas) prob_artist0 = D(artist_paintings) # D try to increase this prob prob_artist1 = D(G_paintings) # D try to reduce this prob D_loss = - torch.mean(torch.log(prob_artist0) + torch.log(1. - prob_artist1)) G_loss = torch.mean(torch.log(1. - prob_artist1)) opt_D.zero_grad() D_loss.backward(retain_graph=True) # reusing computational graph opt_D.step() opt_G.zero_grad() G_loss.backward() opt_G.step() 显示错误:RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.FloatTensor [128, 1]], which is output 0 of TBackward, is at version 2; expected version 1 instead.

关于pytorch里对cuda的报错:RuntimeError: expected device cuda:0 but got device cpu

运行时报错。 这是我的代码: ``` import numpy as np import matplotlib.pyplot as plt import torch import torch.nn as nn import torch.optim as optim from torch.autograd import Variable x_train = np.array([[3.3],[4.4],[5.5],[6.71],[6.93],[4.168],[9.779],[6.182],[7.59],[2.167],[7.042],[10.791],[5.313],[7.997],[3.1]], dtype=np.float32) y_train = np.array([[1.23],[3.24],[2.3],[2.14],[2.93],[3.168],[1.779],[2.182],[2.59],[3.167],[1.042],[3.791],[3.313],[2.997],[1.1]], dtype=np.float32) x_train = torch.from_numpy(x_train) y_train = torch.from_numpy(y_train) class LinearRegression(nn.Module): def __init__(self): super(LinearRegression,self).__init__() self.linear = nn.Linear(1,1) def forward(self,x): out = self.linear(x) return out if torch.cuda.is_available(): model = LinearRegression().cuda() else: model = LinearRegression() criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(),lr = 1e-3) num_epoch = 100 for epcoh in range(num_epoch): if torch.cuda.is_available(): inputs = Variable(x_train).cuda() outputs = Variable(y_train).cuda() else: inputs = Variable(x_train) outputs = Variable(y_train) out = model(inputs) target = y_train loss = criterion(out,target) optimizer.zero_grad() loss.backward() optimizer.step() if (epcoh+1)%20 == 0: print('Epoch[{}/{}],loss:{:.6f}' .format((epcoh+1,num_epoch,loss.data[0]))) model.eval() predict = model(Variable(x_train)) predict = predict.data.numpy() plt.plot(x_train.numpy(),y_train(),'ro',label = 'Original data') plt.plot(x_train.numpy(),predict,label = 'Fitting Line') plt.show() ``` 错误截图: ![图片说明](https://img-ask.csdn.net/upload/202004/20/1587376899_948649.png) 各位大佬们,这个错误是怎么回事啊,是cpu的问题吗?以下是cpu的信息截图: torch.cuda.current_device(): 0 torch.cuda.device(0): <torch.cuda.device object at 0x0000027EA4CE4CC0> torch.cuda.device_count(): 1 torch.cuda.get_device_name(0): GeForce MX250 torch.cuda.is_available(): True

使用pytorch的dataloader时报错:RuntimeError: DataLoader worker (pid(s) 1004, 4680) exited unexpectedly

运行的是这一段代码,spyder老报错 RuntimeError: DataLoader worker (pid(s) 1004, 4680) exited unexpectedly 奇怪的是,同样的代码我在jupyter notebook里就能正常运行。 请问该如何解决 ``` import torch import torch.utils.data as Data import torch.nn.functional as F from torch.autograd import Variable import matplotlib.pyplot as plt torch.manual_seed(1) # 设定随机数种子 # 定义超参数 LR = 0.01 # 学习率 BATCH_SIZE = 32 # 批大小 EPOCH = 12 # 迭代次数 x = torch.unsqueeze(torch.linspace(-1, 1, 1000), dim=1) y = x.pow(2) + 0.1*torch.normal(torch.zeros(*x.size())) #plt.scatter(x.numpy(), y.numpy()) #plt.show() # 将数据转换为torch的dataset格式 torch_dataset = Data.TensorDataset(x, y) # 将torch_dataset置入Dataloader中 loader = Data.DataLoader(dataset=torch_dataset, batch_size=BATCH_SIZE, shuffle=True, num_workers=2) class Net(torch.nn.Module): def __init__(self): super(Net, self).__init__() self.hidden = torch.nn.Linear(1, 20) self.predict = torch.nn.Linear(20, 1) def forward(self, x): x = F.relu(self.hidden(x)) x = self.predict(x) return x # 为每个优化器创建一个Net net_SGD = Net() net_Momentum = Net() net_RMSprop = Net() net_Adam = Net() nets = [net_SGD, net_Momentum, net_RMSprop, net_Adam] # 初始化优化器 opt_SGD = torch.optim.SGD(net_SGD.parameters(), lr=LR) opt_Momentum = torch.optim.SGD(net_Momentum.parameters(), lr=LR, momentum=0.8) opt_RMSprop = torch.optim.RMSprop(net_RMSprop.parameters(), lr=LR, alpha=0.9) opt_Adam = torch.optim.Adam(net_Adam.parameters(), lr=LR, betas=(0.9, 0.99)) optimizers = [opt_SGD, opt_Momentum, opt_RMSprop, opt_Adam] # 定义损失函数 loss_function = torch.nn.MSELoss() losses_history = [[], [], [], []] # 记录training时不同神经网络的loss值 for epoch in range(EPOCH): print('Epoch:', epoch + 1, 'Training...') for step, (batch_x, batch_y) in enumerate(loader): b_x = Variable(batch_x) b_y = Variable(batch_y) for net, opt, l_his in zip(nets, optimizers, losses_history): output = net(b_x) loss = loss_function(output, b_y) opt.zero_grad() loss.backward() opt.step() l_his.append(loss.item()) labels = ['SGD', 'Momentum', 'RMSprop', 'Adam'] for i, l_his in enumerate(losses_history): plt.plot(l_his, label=labels[i]) plt.legend(loc='best') plt.xlabel('Steps') plt.ylabel('Loss') plt.ylim((0, 0.2)) plt.show() ```

请求大神帮帮我,加载MNIST数据集后,显示IndexError: too many indices for tensor of dimension 0

我想用线性的模型训练一下MNIST数据集,在运行到 def train(epoch): running_loss = 0.0 for batch_idx,data in enumerate(train_loader): 语句后显示 IndexError: too many indices for tensor of dimension 0 这是为什么呢??甚至都还没到将数据放到模型中训练,应该和模型没关系,我也看了其他人的代码,在加载数据这些代码中也没找到什么问题。所以在这请教一下大神,万分感谢Orz 以下是我的代码: ``` import torch from torch.utils.data import DataLoader from torchvision import transforms from torchvision import datasets import torch.nn.functional as F import torch.optim as optim batch_size = 64 transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307),(0.3081))]) train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform) train_loader = DataLoader(dataset=train_dataset, shuffle=True, batch_size=batch_size) test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform) test_loader = DataLoader(dataset=test_dataset, shuffle=False, batch_size=batch_size) class Net(torch.nn.Module): def __init__(self):#构造函数 super(Net,self).__init__() self.linear1 = torch.nn.Linear(784,512) self.linear2 = torch.nn.Linear(512,256) self.linear3 = torch.nn.Linear(256,128) self.linear4 = torch.nn.Linear(128,64) self.linear5 = torch.nn.Linear(64,10) def forward(self, x): x=x.view(-1,784) x = F.relu(self.linear1(x)) x = F.relu(self.linear2(x)) x = F.relu(self.linear3(x)) x = F.relu(self.linear4(x)) return self.linear5(x) model = Net()#实例化模型 criterion = torch.nn.CrossEntropyLoss() optimizer = optim.SGD(model.parameters(),lr=0.1,momentum=0.5)#lr为学习率 def train(epoch): running_loss = 0.0 for batch_idx,data in enumerate(train_loader): inputs, target = data optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, target) loss.backward() optimizer.step() running_loss +=loss.item() if batch_idx%300 == 299: print('[%d,%5d] loss: %.3f' %(epoch+1,batch_idx+1,running_loss/300)) running_loss = 0.0 if __name__=='__main__': for epoch in range(10): train(epoch) ```

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

ArrayList源码分析(入门篇)

ArrayList源码分析 前言: 写这篇博客的主要原因是,在我上一次参加千牵科技Java实习生面试时,有被面试官问到ArrayList为什么查找的速度较快,插入和删除的速度较慢?当时我回答得不好,很大的一部分原因是因为我没有阅读过ArrayList源码,虽然最后收到Offer了,但我拒绝了,打算寒假学得再深入些再广泛些,下学期开学后再去投递其他更好的公司。为了更加深入理解ArrayList,也为

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

玩转springboot启动banner定义所得

最近接手了一个springboot项目,不是不熟悉这个框架,启动时打印的信息吸引了我。 这不是我熟悉的常用springboot的打印信息啊,我打开自己的项目: 还真是的,不用默认的感觉也挺高大上的。一时兴起,就去研究了一下源代码,还正是有些收获,稍后我会总结一下。正常情况下做为一个老程序员,是不会对这种小儿科感兴趣的,不就是一个控制台打印嘛。哈哈! 于是出于最初的好奇,研究了项目的源代码。看到

带了6个月的徒弟当了面试官,而身为高级工程师的我天天修Bug......

即将毕业的应届毕业生一枚,现在只拿到了两家offer,但最近听到一些消息,其中一个offer,我这个组据说客户很少,很有可能整组被裁掉。 想问大家: 如果我刚入职这个组就被裁了怎么办呢? 大家都是什么时候知道自己要被裁了的? 面试软技能指导: BQ/Project/Resume 试听内容: 除了刷题,还有哪些技能是拿到offer不可或缺的要素 如何提升面试软实力:简历, 行为面试,沟通能...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

你打算用Java 8一辈子都不打算升级到Java 14,真香

我们程序员应该抱着尝鲜、猎奇的心态,否则就容易固步自封,技术停滞不前。

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

Java岗开发3年,公司临时抽查算法,离职后这几题我记一辈子

前几天我们公司做了一件蠢事,非常非常愚蠢的事情。我原以为从学校出来之后,除了找工作有测试外,不会有任何与考试有关的事儿。 但是,天有不测风云,公司技术总监、人事总监两位大佬突然降临到我们事业线,叫上我老大,给我们组织了一场别开生面的“考试”。 那是一个风和日丽的下午,我翘着二郎腿,左手端着一杯卡布奇诺,右手抓着我的罗技鼠标,滚动着轮轴,穿梭在头条热点之间。 “淡黄的长裙~蓬松的头发...

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

爬虫(九十七)不爬妹子图的爬虫不是一只好爬虫

不爬妹子图的爬虫不是一只好爬虫。----鲁迅还是一样,我们在爬取妹子图片的时候,首先要分析一下 DOM这里的img是就封面,如果只抓取封面的话,到这就可以了,但是我们取的是所有图片,所...

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐