用tensorflow跑卷积网络报错:InternalError (see above for traceback): cudnn PoolForward launch failed

图片说明
用tf跑一个卷积神经网络时报错!
我查看了很多关于报该类型的错误文档,大多都说是因为tensorflow是一个很贪心的框架,总是试图为自己分配全部的GPU资源,但实际上GPU资源不可能完全一点不被其他程序占用,导致初始化失败。解决的办法都是再创建session时加上配置参数:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = Session(config=tf.ConfigProto(gpu_options=gpu_options))
还有许多其他的参数,我都试了,但还是报了相同的错误,心里苦,跪求各位dalao!

lvtao913
泠零〇 最后搞定了吗?我也是碰到这个问题,都想去装个LINUX了。。。
9 个月之前 回复

2个回答

有没有tf的dalao来看看呀!

https://github.com/tensorflow/tensorflow/issues/19567
pip install tf-nightly-gpu. This may help.

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
使用TensorFlow的卷积神经网络算法实现图片分类
环境:Ubuntu 14.04.5 LTS, Python3.4 参考代码:http://blog.csdn.net/kkk584520/article/details/51477537 我的代码:参考上述代码逻辑进行我自己的图片分类,修改点:1、修改读取数据的接口,来读取自己的数据集,数据集结构和mnist的数据集结构完全一致,2、修类别又10修改为47,将IMAGE_SIZE修改为1920(图片的大小为1920*1920),运行时报错如下:InvalidArgumentError (see above for traceback): Incompatible shapes: [2,47] vs. [3200,47]
TensorFlow实现卷积神经网络,出现类型转换异常
ERROR:tensorflow:Exception in QueueRunner: Cast string to int32 is not supported [[Node: Cast_1 = Cast[DstT=DT_INT32, SrcT=DT_STRING, _device="/job:localhost/replica:0/task:0/device:CPU:0"](Cast_1/x)]]
tensorflow中卷积神经网络输出层除了能做分类,还有哪些其他的输出层?
想通过卷积神经网络实现对图像与标签的拟合(不是图像分类),因此输出层应输出一个连续值,而不是离散的标签值,该如何实现?
TensorFlow训练卷积神经网络中,输入数据必须是什么类型的?
![图片说明](https://img-ask.csdn.net/upload/201806/26/1530015094_303171.jpg)
关于tensorflow的卷积神经网络模型问题,出现这种问题是为什么呢?
![图片说明](https://img-ask.csdn.net/upload/201801/18/1516248788_139053.jpg) 各位大佬,为什么我用单张测试的结果一致是这样的,永远一个分类可能性还都是1。我的模型是两分类,两个类的图片比例为5000:3000,这种是什么问题呢?大神可以讲解一下吗
TensorFlow卷积神经网络实现,图片与对应标签的拟合。一直显示卡在正在运行。
#python3代码 #TensorFlow卷积神经网络实现,图片与对应标签的拟合 #程序不报错,一直显示正在运行 #请问错在哪里? #数据集 https://pan.baidu.com/s/1Z7_ULAW3LFrUk4WkHC0s3Q import os import numpy as np from PIL import Image import tensorflow as tf import matplotlib.pyplot as plt #-------------获取数据集,构造批数据:batch----------------------------------------- def get_files(file_dir): pictures = [] numbers = [] for file in os.listdir(file_dir): # 7000.jpg name = file.split(sep='.') pictures.append(file_dir+"\\"+file) numbers.append(name[0]) print('There are %d pictures'%(len(pictures))) temp = np.array([pictures,numbers]) temp = temp.transpose() np.random.shuffle(temp) pictures_list = list(temp[:,0]) numbers_list = list(temp[:,1]) #numbers_list = [int(float(i)) for i in numbers_list] return pictures_list,numbers_list #返回两个list def get_batch(image,label,image_W,image_H,batch_size,capacity): # image = pictures label = numbers image = tf.cast(image,tf.string) label = tf.cast(label,tf.int32) #tf.cast()用来做类型转换 input_queue = tf.train.slice_input_producer([image,label]) #加入队列 label = input_queue[1] image_contents = tf.read_file(input_queue[0]) image = tf.image.decode_jpeg(image_contents,channels=3) #jpeg或者jpg格式都用decode_jpeg函数,其他格式可以去查看官方文档 image = tf.image.resize_image_with_crop_or_pad(image,image_W,image_H) #resize image = tf.image.per_image_standardization(image) #对resize后的图片进行标准化处理 image_batch,label_batch = tf.train.batch([image,label],batch_size = batch_size,num_threads=16,capacity = capacity) label_batch = tf.reshape(label_batch,[batch_size]) return image_batch,label_batch #获取两个batch,两个batch即为传入神经网络的数据 #-----------卷积神经网络节点,搭建卷积神经网络---------------------------------------------------- def conv_op(input_op,name,kh,kw,n_out,dh,dw): n_in = input_op.get_shape()[-1].value with tf.name_scope(name) as scope: kernel=tf.get_variable(scope+"w", shape=[kh,kw,n_in,n_out],dtype=tf.float32, initializer=tf.contrib.layers.xavier_initializer_conv2d()) conv=tf.nn.conv2d(input_op,kernel,(1,dh,dw,1),padding='SAME') bias_init_val=tf.constant(0.0,shape=[n_out],dtype=tf.float32) biases=tf.Variable(bias_init_val,trainable=True,name='b') z=tf.nn.bias_add(conv,biases) activation=tf.nn.relu(z,name=scope) return activation def fc_op(input_op,name,n_out): n_in=input_op.get_shape()[-1].value with tf.name_scope(name) as scope: kernel = tf.get_variable(scope+"w",shape=[n_in,n_out], dtype=tf.float32, initializer=tf.contrib.layers.xavier_initializer()) biases=tf.Variable(tf.constant(0.1, shape=[n_out],dtype=tf.float32),name='b') activation=tf.nn.relu_layer(input_op,kernel,biases,name=scope) return activation def fc_end_layer(inputs,in_size,out_size,activation_function=None): Weights=tf.Variable(tf.random_normal([in_size,out_size])) biases=tf.Variable(tf.zeros([1,out_size])+0.1) Wx_plus_b=tf.matmul(inputs,Weights)+biases if activation_function is None: outputs=Wx_plus_b else: outputs=activation_function(Wx_plus_b) return outputs def mpool_op(input_op,name,kh,kw,dh,dw): return tf.nn.max_pool(input_op,ksize=[1,kh,kw,1], strides=[1,dh,dw,1],padding='SAME',name=name) def inference_op(input_op,keep_prob): conv1_1=conv_op(input_op,name="conv1_1",kh=3,kw=3,n_out=64,dh=1, dw=1) conv1_2=conv_op(conv1_1,name="conv1_2",kh=3,kw=3,n_out=64,dh=1, dw=1) pool1=mpool_op(conv1_2,name="pool1",kh=2,kw=2,dw=2,dh=2) conv2_1=conv_op(pool1,name="conv2_1",kh=3,kw=3,n_out=128,dh=1, dw=1) conv2_2=conv_op(conv2_1,name="conv2_2",kh=3,kw=3,n_out=128,dh=1, dw=1) pool2=mpool_op(conv2_2,name="pool2",kh=2,kw=2,dh=2,dw=2) conv3_1=conv_op(pool2,name="conv3_1",kh=3,kw=3,n_out=256,dh=1, dw=1) conv3_2=conv_op(conv3_1,name="conv3_2",kh=3,kw=3,n_out=256,dh=1, dw=1) conv3_3=conv_op(conv3_2,name="conv3_3",kh=3,kw=3,n_out=256,dh=1, dw=1) pool3=mpool_op(conv3_3,name="pool3",kh=2,kw=2,dh=2,dw=2) conv4_1=conv_op(pool3,name="conv4_1",kh=3,kw=3,n_out=512,dh=1, dw=1) conv4_2=conv_op(conv4_1,name="conv4_2",kh=3,kw=3,n_out=512,dh=1, dw=1) conv4_3=conv_op(conv4_2,name="conv4_3",kh=3,kw=3,n_out=512,dh=1, dw=1) pool4=mpool_op(conv4_3,name="pool4",kh=2,kw=2,dh=2,dw=2) conv5_1=conv_op(pool4,name="conv5_1",kh=3,kw=3,n_out=512,dh=1, dw=1) conv5_2=conv_op(conv5_1,name="conv5_2",kh=3,kw=3,n_out=512,dh=1, dw=1) conv5_3=conv_op(conv5_2,name="conv5_3",kh=3,kw=3,n_out=512,dh=1, dw=1) pool5=mpool_op(conv5_3,name="pool5",kh=2,kw=2,dw=2,dh=2) shp=pool5.get_shape() flattened_shape=shp[1].value*shp[2].value*shp[3].value resh1=tf.reshape(pool5,[-1,flattened_shape],name="resh1") fc6=fc_op(resh1,name="fc6",n_out=4096) fc6_drop=tf.nn.dropout(fc6,keep_prob,name="fc6_drop") fc7=fc_op(fc6_drop,name="fc7",n_out=4096) fc7_drop=tf.nn.dropout(fc7,keep_prob,name="fc7_drop") fc8=fc_op(fc7_drop,name="fc8",n_out=1000) prediction=fc_end_layer(fc8,1000,1,activation_function=None) return prediction #---------构造损失节点:loss 优化节点:optimizer 训练节点:train--------------------------------------- x=tf.placeholder(tf.float32,[None,28,28,3]) y=tf.placeholder(tf.float32,[None,1]) prediction = inference_op(x,0.5) loss = tf.reduce_mean(tf.square(y - prediction)) optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss) #--------运行网络-------------------------------------------------- IMG_W = 28 IMG_H = 28 BATCH_SIZE = 4 CAPACITY = 24 MAX_STEP = 100 learning_rate = 0.0005 train_dir = 'D:\\VGGNet-16\\fatigue_cycle_picture' pictures_list,numbers_list = get_files(train_dir) image_batch,label_batch = get_batch(pictures_list,numbers_list,IMG_W,IMG_H,BATCH_SIZE,CAPACITY) #label_batch=tf.to_float(label_batch) sess = tf.Session() sess.run(tf.global_variables_initializer()) for i in range(100): print(i) print(sess.run(image_batch)) sess.run(train,feed_dict={x:image_batch.eval(session=sess),y:label_batch.eval(session=sess)}) sess.close()
卷积神经网络的嵌入式问题
本人现在有基于tensorflow和keras训练好的卷积神经网络模型H5文件,我想把它搞到嵌入式开发板中间去,然后外接摄像头实时获取图片然后输入到CNN模型进行识别输出,只是为了毕业,请问有什么好用的开发板推荐码? 或者树莓派4和jeston nano哪个对于新手来说好搞啊? 求指点
FCN中的deconv反卷积问题请教,在线等....
我需要使用tensorflow实现反卷积网络,但是对于反卷积的计算一直没有搞明白,怎么计算呢?假如我想让一个6x6的转变成一个8X8的特征图?
卷积神经网络训练图片报错未定义和没有足够的值解包
def get_batch(data,label,batch_size): for start_index in range(0,len(data)-batch_size+1,batch_size): slice_index = slice(start_index,start_index+batch_size) yield data[slice_index],label[slice_index] with tf.Session() as sess: if train: print("训练模式") sess.run(tf.global_variables_initializer()) batch_size=80 for step in range(600): for train_data_batch,train_label_batch in get_batch(x_train,y_train,batch_size): train_feed_dict={datas_placeholder:train_data_batch,labels_placeholder:train_label_batch,dropout_placeholdr:0.65} _, mean_loss_val = sess.run([optimizer, mean_loss], feed_dict=train_feed_dict) 这段代码的报错是mean_loss_val中的train_feed_dict未定义 然后我尝试改动这个for内的代码 def get_batch(data,label,batch_size): for start_index in range(0,len(data)-batch_size+1,batch_size): slice_index = slice(start_index,start_index+batch_size) yield data[slice_index],label[slice_index] with tf.Session() as sess: if train: print("训练模式") sess.run(tf.global_variables_initializer()) batch_size=80 for step in range(600): train_data_batch,train_label_batch = get_batch(x_train,y_train,batch_size) train_feed_dict={datas_placeholder:train_data_batch,labels_placeholder:train_label_batch,dropout_placeholdr:0.65} _, mean_loss_val = sess.run([optimizer, mean_loss], feed_dict=train_feed_dict) 这段代码报错ValueError: not enough values to unpack (expected 2, got 0
关于使用卷积神经网络训练图像识别需要图像集的数量
请问使用卷积神经网络训练图像识别,一般需要多少张图像?一般需要包含多少图像块? 请问大家一般是如何获取这些训练用的图片?感觉ImageNet速度太慢了,国内有没有ImageNet的镜像,或者其他的图像资源网站,多谢了!有没有自己做训练用的图片的?
3D卷积神经网络python代码
请问哪里有3D卷积神经网络开源python代码吗?小白求学习?
神经网络训练时,损失值在0.1波动,不再下降,是否认为已经收敛?
在利用卷积神经网络训练一组数据时,损失值从3.7左右下降到0.15左右,之后损失值不再下降,这种情况是否可以认为已经收敛?但此时的测试集准确率只有92%左右,如果想要继续提高准确率,应该从哪方面入手:数据集本身?网络模型?训练参数?还是其它方面? 这是训练的两张图:![图片说明](https://img-ask.csdn.net/upload/202001/10/1578621222_918843.png)![图片说明](https://img-ask.csdn.net/upload/202001/10/1578621233_171361.png)
LSTM的格式 与卷积 。。。。。。。。。。。
``` inputs = Input(shape=(28, 140, 1)) s_model = Sequential() s_model.add(LSTM(11, input_shape=(28, 140, 1))) s_model.add(LSTM(11, dropout=0.2, recurrent_dropout=0.2)) x = Conv2D(5, (3, 3), activation='relu')(inputs) s_model.add(x=Conv2D(5, (3, 3), activation='relu')(x)) s_model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) s_model.fit(x_train, y_train, batch_size=32, epochs=1) predict_test = s_model.predict(x_test) predict_list = [] ``` 错误: ``` Using TensorFlow backend. WARNING:tensorflow:From D:\Python\lib\site-packages\tensorflow\python\framework\op_def_library.py:263: colocate_with (from tensorflow.python.framework.ops) is deprecated and will be removed in a future version. Instructions for updating: Colocations handled automatically by placer. 2019-06-18 23:20:57.371797: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 Traceback (most recent call last): File "C:/Users/13544/Documents/yhz-internship/work.py", line 86, in <module> s_model.add(LSTM(11, input_shape=(28, 140, 1))) File "D:\Python\lib\site-packages\keras\engine\sequential.py", line 165, in add layer(x) File "D:\Python\lib\site-packages\keras\layers\recurrent.py", line 532, in __call__ return super(RNN, self).__call__(inputs, **kwargs) File "D:\Python\lib\site-packages\keras\engine\base_layer.py", line 414, in __call__ self.assert_input_compatibility(inputs) File "D:\Python\lib\site-packages\keras\engine\base_layer.py", line 311, in assert_input_compatibility str(K.ndim(x))) ValueError: Input 0 is incompatible with layer lstm_1: expected ndim=3, found ndim=4 4 ```
卷积神经网络中,用Im2col实现卷积层,但是在调用convolution类时报错
这是实现代码,是深度学习入门书上的代码 ``` import numpy as np def im2col(input_data, filter_h, filter_w, stride=1, pad=0): """ Parameters ---------- input_data : 由(数据量, 通道, 高, 长)的4维数组构成的输入数据 filter_h : 卷积核的高 filter_w : 卷积核的长 stride : 步幅 pad : 填充 Returns ------- col : 2维数组 """ # 输入数据的形状 # N:批数目,C:通道数,H:输入数据高,W:输入数据长 N, C, H, W = input_data.shape out_h = (H + 2 * pad - filter_h) // stride + 1 # 输出数据的高 out_w = (W + 2 * pad - filter_w) // stride + 1 # 输出数据的长 # 填充 H,W img = np.pad(input_data, [(0, 0), (0, 0), (pad, pad), (pad, pad)], 'constant') # (N, C, filter_h, filter_w, out_h, out_w)的0矩阵 col = np.zeros((N, C, filter_h, filter_w, out_h, out_w)) for y in range(filter_h): y_max = y + stride * out_h for x in range(filter_w): x_max = x + stride * out_w col[:, :, y, x, :, :] = img[:, :, y:y_max:stride, x:x_max:stride] # 按(0, 4, 5, 1, 2, 3)顺序,交换col的列,然后改变形状 col = col.transpose(0, 4, 5, 1, 2, 3).reshape(N * out_h * out_w, -1) return col class Convolution: def __init__(self,W,b,stride=1,pad=0): self.W = W self.b = b self.stride = stride self.pad = pad def forward(self,x): FN,C,FH,FW=self.W.shape N,C,H,W = x.shape out_h = int(1+(H+ 2*self.pad - FH) / self.stride) out_w = int(1+(W + 2*self.pad -FW) / self.stride) col = im2col(x,FH,FW,self.stride,self.pad) col_W = self.W.reshape(FN,-1).T #矩阵的转置 out = np.dot(col,col_W) + self.b print(self.W) out = out.reshape(N,out_h,out_w,-1).transpose(0,3,1,2) return out e = np.array([[2,0,1],[0,1,2],[1,0,2]]) x = np.array([[1,2,3,0],[0,1,2,3],[3,0,1,2],[2,3,0,1]]) gdd = Convolution(e,3,1,0) gdd.forward(x) ``` 在gdd.forward(x)出现错误: Traceback (most recent call last): File "E:/PycharmProjects/untitled2/kk.py", line 61, in <module> gdd.forward(x) File "E:/PycharmProjects/untitled2/kk.py", line 46, in forward FN,C,FH,FW=self.W.shape ValueError: not enough values to unpack (expected 4, got 2)
c++内如何导入tensorflow中训练好的模型
我现在用tensorflow训练了一个自己搭建的卷积神经网络,现在需要再用c++实现该网络,不知道如何将这个模型保存成文本文件,然后再导入c++
如何利用Keras的函数式模型搭建一个局部连接的卷积神经网络模型?
最近在学习卷积神经网络模型,在对CNN鼻祖LeNet5进行构建时遇到了如下问题: 首先有这样一个连接模式: ![图片说明](https://img-ask.csdn.net/upload/201910/28/1572246925_411564.jpg) 需要由S2层的6个特征图谱生成C3层的16个特征图谱,但这16个map并不都是与上一层进行全连接卷积求和得到的 例如C3的map1只与S2的map1,2,3进行局部连接,卷积求和在加上一个bias就得到了C3的第一个特征图谱 那么这样的连接模式怎么使用Keras来表示呢? 首先考虑最简单的序贯模型,发现并没有相关的API可以用来指定上一层的某一部分特征图作为一下层的输入(也许是我没发现),然后考虑函数式模型: ``` import keras from keras.layers import Conv2D, MaxPooling2D, Input, Dense, Flatten from keras.models import Model input_LeNet5=Input(shape=(32,32,1)) c1=Conv2D(6,(5,5))(input_LeNet5) s2=MaxPooling2D((2,2))(c1) print(np.shape(s2)) ``` 这里我搭建出了LeNet5的前两层,并打印出了S2的形状,是一个(?,14,14,6)的张量,这里的6显然就是代表了S2中6张不同的map ``` TensorShape([Dimension(None), Dimension(14), Dimension(14), Dimension(6)]) ``` 那么是不是就可以考虑对张量的最后一维进行切片,如下,将S21作为c31的输入,代码是可以编译通过的 ``` s21=s2[:,:,:,0:3] c31=Conv2D(1,(5,5))(S21) ``` 但是最后调用Model对整个模型进行编译时就出错了 ``` model = Model(inputs=input_LeNet5, outputs=C31) ``` ``` AttributeError: 'NoneType' object has no attribute '_inbound_nodes' ``` 经过测试发现只要是对上一层的输入进行切片就会出现这样的问题,猜测是切片使得S21丢失了S2的数据类型以及属性 看了很多别人搭建的模型也没有涉及这一操作的,keras文档也没有相关描述。 特来请教有没有大牛搭建过类似的模型,不用keras也行
卷积神经网络如何初始化与调整卷积核参数
卷积神经网络,个数,维数是根据经验,请问初始化怎样,听说是初始化为很小值,请问 又根据什么调整卷积核的参数呢?
卷积神经网络准确率提高后突降变很低是为什么?
卷积神经网络准确率提高后突降变很低是为什么?</br> ![图片说明](https://img-ask.csdn.net/upload/201903/24/1553409807_905308.png)</br> 训练数据集分成 275 批, 前面每批 16 个数据,最后一批 15 个数据,共4399个。是硬件问题(显存太小,950M 4G)还是程序编写问题。 卷积网络模型就是2个卷积池化+2个全连接。
卷积神经网络中卷积核权值是怎么计算梯度的?
卷积神经网络中卷积核权值是怎么计算梯度的?希望详细一点,知道链式法则,可是反向传播到了卷积操作这里,卷积操作后得到矩阵怎么对卷积核里的各权值求导有点迷糊?望大神不吝赐教~!
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载 点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。 ...
字节跳动视频编解码面经
三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时想着能进去就不错了,管他哪个岗呢,就同意了面试...
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
Python 基础(一):入门必备知识
Python 入门必备知识,你都掌握了吗?
兼职程序员一般可以从什么平台接私活?
这个问题我进行了系统性的总结,以下将进行言简意赅的说明和渠道提供,希望对各位小猿/小媛们有帮助~ 根据我们的经验,程序员兼职主要分为三种:兼职职位众包、项目整包和自由职业者驻场。 所谓的兼职职位众包,指的是需求方这边有自有工程师配合,只需要某个职位的工程师开发某个模块的项目。比如开发一个 app,后端接口有人开发,但是缺少 iOS 前端开发工程师,那么他们就会发布一个职位招聘前端,来配合公司一...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
写了很久,这是一份最适合/贴切普通大众/科班/非科班的『学习路线』
说实话,对于学习路线这种文章我一般是不写的,大家看我的文章也知道,我是很少写建议别人怎么样怎么样的文章,更多的是,写自己的真实经历,然后供大家去参考,这样子,我内心也比较踏实,也不怕误导他人。 但是,最近好多人问我学习路线,而且很多大一大二的,说自己很迷茫,看到我那篇 普普通通,我的三年大学 之后很受激励,觉得自己也能行,(是的,别太浪,你一定能行)希望我能给他个学习路线,说...
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看...
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1...
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI 算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC
8年经验面试官详解 Java 面试秘诀
    作者 | 胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。   Java程序员准备和投递简历的实
面试官如何考察你的思维方式?
1.两种思维方式在求职面试中,经常会考察这种问题:北京有多少量特斯拉汽车? 某胡同口的煎饼摊一年能卖出多少个煎饼? 深圳有多少个产品经理? 一辆公交车里能装下多少个乒乓球? 一
碎片化的时代,如何学习
今天周末,和大家聊聊学习这件事情。 在如今这个社会,我们的时间被各类 APP 撕的粉碎。 刷知乎、刷微博、刷朋友圈; 看论坛、看博客、看公号; 等等形形色色的信息和知识获取方式一个都不错过。 貌似学了很多,但是却感觉没什么用。 要解决上面这些问题,首先要分清楚一点,什么是信息,什么是知识。 那什么是信息呢? 你一切听到的、看到的,都是信息,比如微博上的明星出轨、微信中的表情大战、抖音上的...
so easy! 10行代码写个"狗屁不通"文章生成器
前几天,GitHub 有个开源项目特别火,只要输入标题就可以生成一篇长长的文章。 背后实现代码一定很复杂吧,里面一定有很多高深莫测的机器学习等复杂算法 不过,当我看了源代码之后 这程序不到50行 尽管我有多年的Python经验,但我竟然一时也没有看懂 当然啦,原作者也说了,这个代码也是在无聊中诞生的,平时撸码是不写中文变量名的, 中文...
知乎高赞:中国有什么拿得出手的开源软件产品?(整理自本人原创回答)
知乎高赞:中国有什么拿得出手的开源软件产品? 在知乎上,有个问题问“中国有什么拿得出手的开源软件产品(在 GitHub 等社区受欢迎度较好的)?” 事实上,还不少呢~ 本人于2019.7.6进行了较为全面的回答,对这些受欢迎的 Github 开源项目分类整理如下: 分布式计算、云平台相关工具类 1.SkyWalking,作者吴晟、刘浩杨 等等 仓库地址: apache/skywalking 更...
相关热词 c#选择结构应用基本算法 c# 收到udp包后回包 c#oracle 头文件 c# 序列化对象 自定义 c# tcp 心跳 c# ice连接服务端 c# md5 解密 c# 文字导航控件 c#注册dll文件 c#安装.net
立即提问