排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

最新最热悬赏待采纳 筛选
  • 0

    回答

  • 2

    浏览

救命,有无大佬知道 tf.contrib.layers.apply_regularization 这个在tensorflow2.0中的替代方法是什么啊 我想要这样用: self.l2_loss = tf.contrib.layers.apply_regularization( # regularizer=tf.contrib.layers.l2_regularizer(self.l2_alpha), regularizer=tf.keras.regularizers.l2(self.l2_alpha), weights_list=tf.trainable_variables()) self.loss = tf.reduce_mean(losses) + self.l2_loss contrib在2.0里好像废了,我看回到1.0好像很麻烦,这个方法在2.0里有没有替代啊

  • 0

    回答

  • 4

    浏览

  class LSTM(nn.Module): def __init__(self): super(LSTM, self).__init__() self.lstm = nn.LSTM(input_size=input_size, hidden_size=hidden_size, num_layers=num_layers, batch_first=True, bidirectional = True) self.output_layer = nn.Linear(in_features=hidden_size*2, out_features=4) self.dropout = nn.Dropout(p=0.5) def forward(self, x): lstm_out, (h_n, h_c) = self.lstm(x, None) lstm_out = self.dropout(lstm_out) output = self.output_layer(lstm_out[:, -1, :]) return output lstm = LSTM() lstm = lstm.float() print(lstm) optimizer = torch.optim.Adam(lstm.parameters(), lr=learning_rate) loss_function = nn.CrossEntropyLoss() for epoch in range(epoches): print("进行第{}个epoch".format(epoch)) for step, (batch_x, batch_y) in enumerate(train_loader): optimizer.zero_grad() batch_x = batch_x.view(-1,1,300) output = lstm(batch_x.float()) loss = loss_function(output, batch_y.long()) loss.backward() optimizer.step() if step % 50 == 0: test_x = dev.x.view(-1,1,300) test_output = lstm(test_x.float()) pred_y = torch.max(test_output, dim=1)[1].data.numpy() accuracy = ((pred_y == dev.y.data.numpy()).astype(int).sum()) / float(dev.y.size(0)) print('Epoch: ', epoch, '| train loss: %.4f' % loss.data.numpy(), '| test accuracy: %.2f' % accuracy)  这是一个根据文本内容分析用户地点的lstm,正确率一直没法提高,是哪里出了问题,有没有可以改进的地方?

  • 0

    回答

  • 10

    浏览

请问YOLOv4可以和LSTM网络结合吗?用YOLOv4检测结果,用LSTM来计算时间。

  • 1

    回答

  • 7

    浏览

不知道models是什么模块,有大神能解释一下吗  

  • 3

    回答

  • 18

    浏览

def per_class(imagefile): image = Image.open(imagefile) image = image.resize([227, 227]) image_array = np.array(image) image = tf.cast(image_array, tf.float32) #image = tf.image.resize_image_with_crop_or_pad(image, 227, 227) #image = tf.image.per_image_standardization(image) #图形标准化 image = tf.image.resize_image_with_crop_or_pad(image, 227, 227) image = tf.image.per_image_standardization(image) image = tf.reshape(image, [1, 227, 227, 3]) saver = tf.train.Saver() with tf.Session() as sess: save_model = tf.train.latest_checkpoint(r'D:\C盘桌面搬家—桌面\BelgiumTSC_Testing\XUNLIAN') saver.restore(sess, save_model) image = tf.reshape(image, [1, 227, 227, 3]) image = sess.run(image) prediction = sess.run(fc3, feed_dict={x: image}) # print('prediction',prediction) max_index = np.argmax(prediction) imagefile1=imagefile.split('\\')[-1] print(imagefile1+'图片属于第'+str(max_index)+"类交通路标") return max_index # 执行以上程序 imagefiles = r"D:\C盘桌面搬家—桌面\GTSRB_Final_Test_Images\b\1" for root, sub_folders, files in os.walk(imagefiles): for name in files: imagefile = os.path.join(root, name) #print(imagefile) a=per_class(imagefile) 请问图像识别检测算法最后是否要分类检测后的数据呢,还有准确率怎么算呢,可以给个代码吗,十分感谢

  • 2

    回答

  • 38

    浏览

我在做一个音乐声纹的尝试,先把歌曲做人声分离,然后人声段检测出来做了数据分割,然后做了数据集做歌手识别的训练。我这边音乐歌曲还挺多。 现在遇到的问题是。测试样本准确率上不去,一般还有什么办法么,我训练样本5千个的时候,测试样本准确率停留在0.2左右,后来我把训练样本增加到两万了,测试准确率提升到了0.6,但是我现在把训练样本增加到了6万,测试准确率还是停留在0.6 左右 我用的这个项目的网络模型 https://github.com/yeyupiaoling/VoiceprintRecognition-Tensorflow 下一步应该怎么提升在测试样本上的准确率呢。除了增加样本之外(主要一直在增加样本,没什么变化)

  • 3

    回答

  • 17

    浏览

为什么用自己训练的模型,使用官方的yolov5代码,预测时能正常运行,但是结果只有图片,没有预测结果

  • 3

    回答

  • 39

    浏览

最近因为工作需要在学习神经网络(本人工作10年了,主要做服务器相关的业务),现在是和其他AI部门合作相关能力,本人自己也对这块感兴趣,我的疑问是: 别人的模型对自己学习是否有借鉴意义 ———我理解应该是的,可以看别人的模型参数设置,甚至可以直接拿来设置给自己的数据训练用对吧。?这块具体该如何操作呢,感觉有好几个可视化的方法,到具体怎么操作,我就不太理解了,另外,该如何评估对方的模型是否具备优化空间。?

  • 1

    回答

  • 30

    浏览

如果测试集的dataloader中的参数batch_size设置不是整个测试集的个数时模型在测试集上表现很差相当与胡乱预测,当batch_size设置成整个测试集个数时表现正常。代码检查没有什么问题,猜测是pytorch出现了bug

  • 0

    回答

  • 9

    浏览

这是nuke13的深度学习节点报错说是CUDA_CACHE_MAXSIZE的值设置太小,网上翻了半天教程配置环境都没解决,我用的是3090的显卡,本来在其他电脑上用1060的显卡使用深度学习节点都没有问题。到3090电脑上就出现这个问题了。

  • 4

    回答

  • 19

    浏览

import os import config import shutil for split in (config.TRAIN,config.VALID,config.TEST): print('[INFO] processing {} split:'.format(split)) imagePaths=os.listdir(os.path.join(config.ORIG_DATA_PATH,split)) for ele in imagePaths: if not ele.endswith('.jpg'): imagePaths.remove(ele) for imagePath in imagePaths: label=config.CLASSES[int(imagePath.split('_')[0])] dst=os.path.join(config.BASE_PATH,split,label) if not os.path.exists(dst): os.makedirs(dst) #复制图片 shutil.copy2(os.path.join(config.ORIG_DATA_PATH,config.TRAIN,imagePath), os.path.join(dst,imagePath)) print('[INFO] All is done' ) 这是卷积神经网络的训练集测试集验证集按类别进行划分,我觉得倒数第二行的代码中的config.TRAIN应该改为split,不知道对不对,请解答一下

  • 3

    回答

  • 15

    浏览

使用python实现BP神经网络或LSTM长短期记忆网络进行超短期功率预测,样本从文档中读取,输入数据需要归一化处理,UI界面展示

  • 0

    回答

  • 11

    浏览

  • 0

    回答

  • 7

    浏览

如题,图片经过卷积运算后,通道数不再是3,而是变为64,128,256等数,如何将各层特征图提取出来并保存成图片呢?先谢谢了

  • 0

    回答

  • 18

    浏览

运行python setup.py build develop时出现下面两个错误,有大佬知道怎么解决吗,挺急的 Error: Internal Compiler Error (codegen): "there was an error in verifying the lgenfe output!"   error: command 'C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v10.0\\bin\\nvcc.exe' failed with exit status 2  

  • 0

    回答

  • 11

    浏览

class Actor(nn.Module):     def __init__(self, d_in, d_hidden, d_out):         super(Actor, self).__init__()         self.linear1 = nn.Linear(d_in, d_hidden)         self.linear2 = nn.Linear(d_hidden, d_hidden)         self.linear3 = nn.Linear(d_hidden, d_hidden)         self.linear4 = nn.Linear(d_hidden, d_hidden)         self.linear5 = nn.Linear(d_hidden, d_out)     # x represents our data     def forward(self, x):         x = self.linear1(x)         x = F.sigmoid(x)         x = self.linear2(x)         x = F.sigmoid(x)         x = self.linear3(x)         x = F.sigmoid(x)         x = self.linear4(x)         x = F.sigmoid(x)         x = self.linear5(x)         x = F.relu(x)         # x = F.softmax(x, dim=1)         # x = 10*x         output = x.type(torch.float64)         return output   请问这段代码的神经网络宽度如何计算

  • 0

    回答

  • 6

    浏览

参数说明 输入层神经元n个 隐藏层神经元p个 输出层神经元q个 起始输入X = [x1,x2,,,,xn](n * 1) 期望输出d=[d1,d2,,,dq](q * 1) 隐藏层输入输出分别为H_in,H_out 输出层输入输出分别为Y_in,Y_out 从输入层到隐藏层的权重矩阵我记为W (p * n) 从隐藏层到输出层的权重矩阵我记为V(q * p) 用梯度下降法反向误差传导,我得到W,V的修正量记为dW,dV 激活函数选择 1 / (1 + np.exp(-x)) sigmiod_der 表示对该函数求导 只对一组数据做训练,整一天了,实在不知道是哪出问题了 delta2 = (d - Y_out) * sigmoid_der(Y_in) delta1 = ((V.T).dot(delta2)) * sigmoid_der(H_in) dV = delta2.dot(H_out.T) dW = delta1.dot(x.T) W -= learning_rate * dW V -= learning_rate * dV  

  • 3

    回答

  • 14

    浏览

我使用的是服务器端ubuntu16.4 在完成RPN和RCNN阶段训练以后,需要对训练结果进行评估 但是我运行评估单个检查点的代码时,按下回车后就没有任何反应了 强制退出后运行评估所以检查点的代码,按下回车后虽然有结果,但是卡在Averate Precision: 这里也就不动了 想问一下有人知道怎么解决吗

  • 0

    回答

  • 12

    浏览

yolov5官方计算的是mAP0.5和mAP0.5:0.95,这两个跟大部分论文里面计算的方法都不太一样,比如coco里面的,会计算一个总的mAP,怎么处理这个问题

  • 0

    回答

  • 6

    浏览

1.是不是自适应动态规划中的ADHDP都得提前收集数据

  • 0

    回答

  • 11

    浏览

import numpy as np from tensorflow import keras from tensorflow.keras.preprocessing import image from tensorflow.keras.preprocessing.image import ImageDataGenerator from tensorflow.keras.applications.mobilenet_v2 import MobileNetV2 import tensorflow as tf import os os.environ['CUDA_VISIBLE_DEVICES'] = '/gpu:0'   target_size = 96 base_model = MobileNetV2(weights='imagenet', include_top=False, input_shape=(target_size,target_size,3)) model = keras.Sequential([ base_model, keras.layers.GlobalAveragePooling2D(), keras.layers.Dropout(0.5), keras.layers.Dense(1024, activation='relu'), keras.layers.Dense(5) ]) train_path = 'C:/Users/11500/Desktop/ai人工智能导论/垃圾分类data/垃圾分类/training/' test_path = 'C:/Users/11500/Desktop/ai人工智能导论/垃圾分类data/垃圾分类/test/' train_data = ImageDataGenerator( rescale=1./225, #数值归一化 ) test_data = ImageDataGenerator( rescale=1./225, #数值归一化 ) train_generator = train_data.flow_from_directory( train_path, target_size=(target_size, target_size), batch_size=4, class_mode='categorical', seed=0) test_generator = train_data.flow_from_directory( test_path, target_size=(target_size, target_size), batch_size=4, class_mode='categorical', seed=0) labels = train_generator.class_indices print(labels) labels = dict((v, k) for k, v in labels.items()) print(labels) def scheduler(epoch, lr): ''' 学习率调整策略函数: 可以尝试在不同的epoch之间使用不同的学习率 ''' if epoch < 2: return lr else: return lr * 0.1 lr_callback = keras.callbacks.LearningRateScheduler(schedule=scheduler, verbose=1) #模型保存策略 root = '.eckpointsapter01' folder = 'chapter01' name = 'mobilenet' ckpt_callback = keras.callbacks.ModelCheckpoint( filepath = os.path.join(root, folder, name + '-ep{epoch:03d}-loss{loss:.3f}-val_accuracy{val_accuracy:.3f}.h5'), monitor='val_loss', #monitor:需要监视的值 save_weights_only=False, # 保存整个模型 save_best_only=False, mode='auto', period=1, #保存模型的间隔数,1表示每个epoch训练结束后都会保存一个模型 ) callback = [ckpt_callback, lr_callback] SGD = keras.optimizers.SGD(lr=0.001, momentum=0.9) loss = keras.losses.CategoricalCrossentropy(from_logits=True) model.compile(optimizer=SGD, loss=loss, metrics=['accuracy']) model.fit_generator( generator = train_generator, epochs = 4, steps_per_epoch = len(train_generator), validation_data = test_generator, validation_steps = len(test_generator), callbacks=callback )   我的代码如上: 报错如下: 事先自己新建好了这三个文件夹  求问,哪里出问题了? 

  • 2

    回答

  • 60

    浏览

想用matlab来实现一个回归问题,首先尝试了图片到图片的回归,我最想用mat文件实现,因为mat文件对于图片到图片还是图片到向量都是很方便的。首先,我的思路是将输入和输出得mat文件用datastore 函数读进去,然后再进行combine,生成一个训练pair,最后用于训练,训练集和验证机放在不同的文件夹里面,代码里指定即可。 下面是我的代码, inputData=fileDatastore(fullfile('A:\wtl\New\CNN3\1\'),'ReadFcn',...     @load,'FileExtensions','.mat'); targetData=fileDatastore(fullfile('A:\wtl\New\CNN3\2\'),'ReadFcn',...     @load,'FileExtensions','.mat'); trainData=combine(inputData,targetData);  %%训练数据 % validation data inputDatat=fileDatastore(fullfile('A:\wtl\New\CNN3\3\'),'ReadFcn',...     @load,'FileExtensions','.mat'); targetDatat=fileDatastore(fullfile('A:\wtl\New\CNN3\4\'),'ReadFcn',...     @load,'FileExtensions','.mat'); valData=combine(inputDatat,targetDatat);%%验证数据 %% 训练参数 Minibatchsize=4; options = trainingOptions('adam', ... 'MaxEpochs',10, ... 'MiniBatchSize',Minibatchsize, ... 'ValidationData',valData, ... 'Plots','training-progress', ... 'Verbose',false); net = trainNetwork(trainData,layers_1,options); %%训练网络 然后在我开始训练网络的时候 遇到了一个问题,就是说我的训练数据里面有NaN数据,可是我所有的mat文件都没有NaN,我的数据和官网中给的例子不同的是:我的输入和输出不能通过transform函数得到,两组数据都是独立采集的,但是又存在一些联系。 Error using trainNetwork (line 183) Invalid training data. For regression tasks, responses must be a vector, a matrix, or a 4-D array of numeric responses. Responses must not contain NaNs.   然后我又尝试了在保存mat文件的时候用isnan函数再处理一下即将要保存的数据,还是同样的问题。 最后,我又尝试了自己生成矩阵,然后保存为mat文件,矩阵很简单就是[1 2 3; 4 5 6], 所有的数据集都是这个。 但是还是存在同样的错误。 所以有没有大神遇到过同样的问题? 求解决,解决了星巴克 奶茶 现金都可以。 我有一个思路是自己写一个transform函数 函数里面说就是isnan函数,但是我尝试了自己写的transform函数 老报错。 做过的大佬帮忙解决一下,谢谢!

  • 5

    回答

  • 27

    浏览

如图。代码是现成源代码是对的。但是结果总出现这个问题。我查看了文件夹里的python是3.7版本的,在anaconda prompt中也把版本numpy版本换到了1.20.1,但还是不行???为啥

  • 0

    回答

  • 6

    浏览

Privacy-preserving model training architecture for intelligent edge computing 这篇论文里第二阶段是怎么确定分层有哪位大佬知道吗  

  • 1

    回答

  • 12

    浏览

size(XTrain)=1*70*1*13434  size(YTrain)=13434*1 网络分析也没有出错。 但是就是报错

  • 1

    回答

  • 19

    浏览

进行机器学习时,数据集包含多个子数据包 然后训练时,得到的结果就按照数据集分段了 请问如何训练或者设计才能让结果变成若干(即测试集数目)条从0开始的曲线,而不是连接在一起的折线?

  • 1

    回答

  • 22

    浏览

训练时前向传播过程中,out6数据正常,conv3就是1x1的二维卷积,它的weight也是正常的,bias设置的False,是没有的,所以也不会产生影响。 卷积难道不是只涉及到相乘和相加吗,怎么计算出来会得到inf无穷大数据呢

  • 3

    回答

  • 19

    浏览

请求有采用VOC2007数据集基于PyTorch的cornernet检测算法的代码,谢谢了

  • 0

    回答

  • 6

    浏览

Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs代码运行问题 该论文中的模型参数量巨大,请问复现过该程序的大佬都是用什么样的配置来运行的? 我用的配置为: 硬件环境:Intel(R) Core(TM)i5-6500,3.20GHz的CPU,12G内存计算机, NVDIA Geforce RTX 2080Ti的GPU计算机。 训练FB15k-237数据集,将batch_size_gat 由272115 缩小至100,epoch由3000缩小至5,运行了一天,且得到的结果与论文结果相比很差。 所以我是否可以租用阿里云来训练模型,且需多大,多长时间?

  • 0

    回答

  • 8

    浏览