想请问各位老师,应该用什么函数来构造LSTM与SVR的全连接层呢,顶层用SVR做预测的,麻烦啦,我比较着急呢!

直接高速我就行啦,我想画一个LSTM-SVR的模型结构图但是

1个回答

dense层就是全连接层,你可以把dense加在lstm后面

weixin_44505313
橙子皮 好哒谢谢你啦
一年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
请问各位老师,SVR和LSTM的交叉熵损失函数的区别主要是什么呢,顶层用哪一个函数做预测的效果会好一点呢?

非常感谢啦,我找了很久都没有得到答案,可能是缺乏经验。。。。。。。。。。。谢谢谢谢谢谢

LSTM模型增加了实验的输入样本数量,损失函数的变化如两图所示

![图片说明](https://img-ask.csdn.net/upload/201903/05/1551784615_673147.png) 上图是1000个样本训练模型的损失函数(mape 平均绝对百分误差)结果,下图为样本数量增加到2000个,损失函数就看不懂了,每个epoch下降到80左右就上跳到一个较大的值,尤其是当mape在80多的时候accracy都为0。然后开始下降 ![图片说明](https://img-ask.csdn.net/upload/201903/05/1551784714_123808.png) 附上模型代码 ``` ### model taxi_id = Input(shape=(50, 1)) mask_1 = Masking(mask_value=0)(taxi_id) embedding_1 = Embedding(15000, 14, mask_zero=True)(mask_1) time_id = Input(shape=(50, 1)) mask_2 = Masking(mask_value=0)(time_id) embedding_2 = Embedding(1440, 6, mask_zero=True)(mask_2) busy = Input(shape=(50, 1)) mask_3 = Masking(mask_value=0)(busy) embedding_3 = Embedding(2, 2, mask_zero=True)(mask_3) concatenate_1 = Concatenate(axis=3)([embedding_1,embedding_2,embedding_3]) concatenate_1 = Lambda(dim_squeeze)(concatenate_1) num_input = Input(shape=(50, 3)) mask_4 = Masking(mask_value=0, input_shape=())(num_input) concatenate_2 = Concatenate(axis=2)([concatenate_1, mask_4]) blstm_1 = Bidirectional(LSTM(128, activation='tanh', return_sequences=True, dropout=0.2))(concatenate_2) blstm_2 = Bidirectional(LSTM(256, activation='tanh', return_sequences=True, dropout=0.2))(blstm_1) blstm_3 = Bidirectional(LSTM(128, activation='tanh', return_sequences=True, dropout=0.2))(blstm_2) dense_1 = Dense(128)(blstm_3) leaky_relu_1 = advanced_activations.LeakyReLU(alpha=0.3)(dense_1) dense_2 = Dense(128)(leaky_relu_1) leaky_relu_2 = advanced_activations.LeakyReLU(alpha=0.3)(dense_2) dense_3 = Dense(128)(leaky_relu_2) leaky_relu_3 = advanced_activations.LeakyReLU(alpha=0.3)(dense_3) dense_4 = Dense(128)(leaky_relu_3) leaky_relu_4 = advanced_activations.LeakyReLU(alpha=0.3)(dense_4) add_1 = add([leaky_relu_1, leaky_relu_2, leaky_relu_3, leaky_relu_4]) dense_5 = Dense(1, activation='linear')(add_1) dense_5 = Lambda(dim_squeeze)(dense_5) dense_5 = Dense(units = 1, activation='linear')(dense_5) model = Model([taxi_id, time_id, busy, num_input], dense_5) ``` 求大佬过目指点迷津,这样的损失函数意味着哪里出了问题,先行谢过

如何在知道LSTM中偏置和权重情况下,使用tensorflow或者MATLAB中的工具箱来建立LSTM网络

我在使用群智能优化算法对weight和bias进行寻优,得出weights和bias大致范围,但不知如何直接使用这些数值,希望大佬指点

请问各位前辈:LSTM如何使用多个时间序列(比如30组0秒—2000秒的数据)的数据进行训练?

各位前辈好,我在使用LSTM训练的过程中,手上有多个时间序列的原始数据集,大约几十组0秒至2000秒的数据,目前我做的工作是用其中的第一组数据进行了训练,然后用第二组数据进行了微调,发现结果不太理想,请问前辈对这几十组的数据我该做如何训练,是拿后面的每一组都进行微调吗?如何可以的话请前辈们用代码解释一下! 如蒙赐教,不胜感激!

LSTM时间序列分类的输出结果和输出单元h有什么关系?

打算用时间序列做分类,即单纯每个序列做分类。我是这么想的,可以分别理解为单纯的lstm的两个问题,many to one 和 many to many 1.多对一,就是直接输出分类结果,但是分类结果是怎么计算来的?和lstm的输出单元h与最后的分类结果有什么关系? 2.多对多,就是输出每个类别的概率,比如3个类别做分类,输出一个3个元素的概率向量,那么这个向量和lstm的输出单元h是什么关系?

为什么LSTM预测股票,预测结果为一条直线?

``` import numpy as np import tensorflow as tf import matplotlib as mpl import pandas as pd from matplotlib import pyplot as plt HIDDEN_SIZE =128 NUM_LAYERS=2 TIMESTEPS=10 TRAINING_STEPS=10000 BATCH_SIZE=60 def generate_data(seq): x=[] y=[] for i in range(len(seq)-TIMESTEPS): x.append([seq[i:i+TIMESTEPS]]) y.append([seq[i+TIMESTEPS]]) return np.array(x,dtype=np.float32),np.array(y,dtype=np.float32) def lstm_model(x,y,is_training): lstm_cell=tf.nn.rnn_cell.BasicLSTMCell cell=tf.nn.rnn_cell.MultiRNNCell([lstm_cell(HIDDEN_SIZE) for _ in range(NUM_LAYERS)]) ''' cell=tf.nn.rnn_cell.MultiRNNCell( [tf.nn.rnn_cell.DropoutWrapper(lstm_cell(HIDDEN_SIZE)) for _ in range(NUM_LAYERS)]) ''' outputs,_=tf.nn.dynamic_rnn(cell,x,dtype=tf.float32) output=outputs[:,-1,:] predictions=tf.contrib.layers.fully_connected(output,1,activation_fn=tf.nn.relu) if not is_training: return predictions,None,None loss=tf.losses.mean_squared_error(labels=y,predictions=predictions) train_op=tf.contrib.layers.optimize_loss(loss,tf.train.get_global_step(),optimizer="Adam",learning_rate=0.01) return predictions,loss,train_op def train(sess,train_x,train_y): ds=tf.data.Dataset.from_tensor_slices((train_x,train_y)) ds=ds.repeat().shuffle(1000).batch(BATCH_SIZE) x,y=ds.make_one_shot_iterator().get_next() with tf.variable_scope("model"): predictions,loss,train_op=lstm_model(x,y,True) sess.run(tf.global_variables_initializer()) for i in range(TRAINING_STEPS): _,l=sess.run([train_op,loss]) if i%100==0: print("train step:"+str(i)+", loss:"+str(l)) def run_eval(sess,test_X,test_y): ds=tf.data.Dataset.from_tensor_slices((test_X,test_y)) ds=ds.batch(1) x,y=ds.make_one_shot_iterator().get_next() with tf.variable_scope("model",reuse=True): prediction,_,_=lstm_model(x,[0.0],False) predictions=[] labels=[] for i in range(200): p,l=sess.run([prediction,y]) predictions.append(p) labels.append(l) predictions=np.array(predictions).squeeze() labels=np.array(labels).squeeze() rmse=np.sqrt(((predictions-labels)**2).mean(axis=0)) print("Mean Square Error is %f" % rmse) plt.figure() plt.plot(predictions,label='predictions') plt.plot(labels,label='real') plt.legend() plt.show() f=open('IBM.csv') df=pd.read_csv(f) seq=df.iloc[:,1].values train_data=seq[2:504] test_data=seq[505:750] train_x,train_y=generate_data(train_data) test_x,test_y=generate_data(test_data) with tf.Session() as sess: train(sess,train_x,train_y) run_eval(sess,test_x,test_y) ``` ![图片说明](https://img-ask.csdn.net/upload/201905/13/1557747601_155392.png)

为什么LSTM用于分类任务效果很差?

新人一枚,之前见过有教程使用LSTM对MNIST手写数字进行分类识别,取的是LSTM最后一步的输出进行分类,准确率能达到95左右。后来我按照这个思想使用LSTM进行文本分类,为什么效果很差,loss降低的很慢,train与test的准确率始终维持在0.5左右?

tensorflow多层lstm为什么只使用了一层的权重参数?

如题,所有资料中 使用了multi rnncell函数的,都没有另外增加参数组也没有进行WX+b的运算,是怎么回事

新手用2层LSTM做NLP时遇到一个问题

本来是想把文章输入后,第一层lstm取每个句子的最后作为输出,输入到第二层的LSTM,但是这样一想,每篇文章句子数不一样,是不是要按句子padding,然后每个句子字数也不一样,还要按单词做padding,一下子感觉好蠢。请问有没有简单明了点的方法? 如果用句向量的话,是不是也要按句子padding?目前了解的句向量是相当于这句话的词向量的平均值,这样padding的句向量是一个[embedding size,1]的0矩阵吗?

LSTM的格式 与卷积 。。。。。。。。。。。

``` inputs = Input(shape=(28, 140, 1)) s_model = Sequential() s_model.add(LSTM(11, input_shape=(28, 140, 1))) s_model.add(LSTM(11, dropout=0.2, recurrent_dropout=0.2)) x = Conv2D(5, (3, 3), activation='relu')(inputs) s_model.add(x=Conv2D(5, (3, 3), activation='relu')(x)) s_model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) s_model.fit(x_train, y_train, batch_size=32, epochs=1) predict_test = s_model.predict(x_test) predict_list = [] ``` 错误: ``` Using TensorFlow backend. WARNING:tensorflow:From D:\Python\lib\site-packages\tensorflow\python\framework\op_def_library.py:263: colocate_with (from tensorflow.python.framework.ops) is deprecated and will be removed in a future version. Instructions for updating: Colocations handled automatically by placer. 2019-06-18 23:20:57.371797: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 Traceback (most recent call last): File "C:/Users/13544/Documents/yhz-internship/work.py", line 86, in <module> s_model.add(LSTM(11, input_shape=(28, 140, 1))) File "D:\Python\lib\site-packages\keras\engine\sequential.py", line 165, in add layer(x) File "D:\Python\lib\site-packages\keras\layers\recurrent.py", line 532, in __call__ return super(RNN, self).__call__(inputs, **kwargs) File "D:\Python\lib\site-packages\keras\engine\base_layer.py", line 414, in __call__ self.assert_input_compatibility(inputs) File "D:\Python\lib\site-packages\keras\engine\base_layer.py", line 311, in assert_input_compatibility str(K.ndim(x))) ValueError: Input 0 is incompatible with layer lstm_1: expected ndim=3, found ndim=4 4 ```

keras下用RNN中的lstm来进行图片分类,输入维数的错误

1.如题,我是在keras下用lstm来对本地文件夹中六类垃圾进行图片分类 这是我的部分代码: (我本地的图片是512 ✖384的,进行resize为200✖160了) ``` nb_lstm_outputs = 128 #神经元个数 nb_time_steps = 200 #时间序列长度 nb_input_vector = 160 #输入序列 # 读取数据和标签 print("------开始读取数据------") data = [] labels = [] # 拿到图像数据路径,方便后续读取 imagePaths = sorted(list(utils_paths.list_images('./dataset-resized'))) random.seed(42) random.shuffle(imagePaths) # 遍历读取数据 for imagePath in imagePaths: # 读取图像数据 image = cv2.imread(imagePath) image = cv2.resize(image, (160,200)) data.append(image) # 读取标签 label = imagePath.split(os.path.sep)[-2] labels.append(label) # 对图像数据做scale操作 data=np.array(data, dtype="float") / 255.0 labels = np.array(labels) # 数据集切分 (trainX, testX, trainY, testY) = train_test_split(data,labels, test_size=0.25, random_state=42) # 转换标签为one-hot encoding格式 lb = LabelBinarizer() trainY = lb.fit_transform(trainY) testY = lb.transform(testY) # 设置初始化超参数 EPOCHS = 5 BS = 71 ``` 以上就是我的数据预处理操作 下面是我构建的模型: ``` model = Sequential() model.add(LSTM(units=nb_lstm_outputs, return_sequences=True, input_shape=(nb_time_steps, nb_input_vector))) # returns a sequence of vectors of dimension 30 model.add(LSTM(units=nb_lstm_outputs, return_sequences=True)) # returns a sequence of vectors of dimension 30 model.add(LSTM(units=nb_lstm_outputs)) # return a single vector of dimension 30 model.add(Dense(1, activation='softmax')) model.add(Dense(6, activation='softmax')) adam=Adam(lr=1e-4) model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) model.fit(trainX, trainY, epochs = EPOCHS, batch_size = BS, verbose = 1, validation_data = (testX,testY)) ``` 后续就是优化和生成loss等的代码了。 然而运行时遇到了以下维度错误: ![图片说明](https://img-ask.csdn.net/upload/202004/26/1587884348_141131.png) 然后我我试着修改不同的尺寸,发现都有上述错误,感觉应该是维度错误,但是不太明白1895是怎么来的? 2.遇到上述维度问题后,不太清楚怎么解决,于是我将代码中读取图片cv2.imread,将图像进行了灰度化: ``` image = cv2.imread(imagePath,CV2.IMREAD_GRAYSCALE) ``` 调整后,代码可以运行,然而并未按照预先设定的Batchsize进行训练,而是直接以划分的整体比例进行训练,想请问下这是怎么回事?已经输入BS到batch_size的参数了 ![图片说明](https://img-ask.csdn.net/upload/202004/26/1587884791_796238.png) 所以想请问各位大神,怎么解决维度问题,还有就是为什么后面BS传进去不管用啊,有没有清楚怎么一回事的啊? 谢谢各位大神了!!是个小白QAQ谢谢!

LSTM输入数据格式问题

输入样本train_x1 标签train_y1 样本与标签都是(20000,10) 然后我reshape变成三维(20000,1,10)报错 求该如何修改格式 输入十个数值,输出十个数值。 train_x1 = np.reshape(train_x1, (train_x1.shape[0],1,train_x1.shape[1])) train_y1 = np.reshape(train_y1, (train_y1.shape[0],1,train_y1.shape[1])) model = Sequential() model.add(LSTM(50, input_shape=(train_x1.shape[1], train_x1.shape[2]))) model.add(Dense(10)) model.compile(loss='mse', optimizer='adam') model.fit(train_x1, train_y1, nb_epoch = 300, batch_size = 10) model.save_weights('LSTM.model')

如何提高LSTM拟合准确度

如图所示黄色是原始波形,蓝色是拟合出的曲线,该模型不管在训练集还是测试集上拟合程度都不高,只能拟合出大概趋势,无法拟合的更好, 数据集大小: 训练集:(85000, 50, 5) (85000,) 测试集(9000, 50, 5) (9000,) 最终loss: 0.0021 - val_loss: 0.0013,基本上无法再下降了 怎样才能提高精度使拟合度更高呢,想让拟合出来的结果和曲线本身尽可能接近 ``` inputs1 = Input(shape=(train_x.shape[1], train_x.shape[2])) lstm1,state_h,state_c = LSTM(64,return_sequences=True,return_state=True)(inputs1) lstm2 = LSTM(64)(lstm1) lstm2 = Dense(16)(lstm2) lstm2 = Dropout(0.5)(lstm2) lstm4 = Dense(1)(lstm2) model = Model(input = inputs1,outputs = [lstm4]) model.summary() model.compile(loss='mse', optimizer='adam',) history = model.fit(train_x, train_y, epochs=600, batch_size=256, validation_data=(test_x,test_y),verbose=2, shuffle=False) # validation_data=(test_x,test_y) ``` ![图片说明](https://img-ask.csdn.net/upload/202005/29/1590716450_762209.png)![图片说明](https://img-ask.csdn.net/upload/202005/29/1590716461_922655.png)

用LSTM做时间序列预测,图画的挺准,准确度怎么这么差,有大佬知道大概怎么回事吗

**用LSTM在jupyter上做一个股市预测,发现训练完了出的结果画的图还凑合,但是准确度为什么这么低啊。。 ** ![图片说明](https://img-ask.csdn.net/upload/202004/08/1586359422_601423.png) ![图片说明](https://img-ask.csdn.net/upload/202004/08/1586359429_857978.png) 萌新初学,求教大佬,万分感激 追加悬赏!!!!

pytorch训练LSTM模型的代码疑问

原博文链接地址:https://blog.csdn.net/Sebastien23/article/details/80574918 其中有不少代码完全看不太懂,想来这里求教下各位大神~~ ``` class Sequence(nn.Module): def __init__(self): super(Sequence,self).__init__() self.lstm1 = nn.LSTMCell(1,51) self.lstm2 = nn.LSTMCell(51,51) self.linear = nn.Linear(51,1) #上面三行代码是设置网络结构吧?为什么用的是LSTMCell,而不是LSTM?? def forward(self,inputs,future= 0): #这里的前向传播名称必须是forward,而不能随意更改??因为后面的模型调用过程中,并没有看到该方法的实现 outputs = [] h_t = torch.zeros(inputs.size(0),51) c_t = torch.zeros(inputs.size(0),51) h_t2 = torch.zeros(inputs.size(0),51) c_t2 = torch.zeros(inputs.size(0),51) #下面的代码中,LSTM的原理是要求三个输入:前一层的细胞状态、隐藏层状态和当前层的数据输入。这里却只有2个输入?? for i,input_t in enumerate(inputs.chunk(inputs.size(1),dim =1)): h_t,c_t = self.lstm1(input_t,(h_t,c_t)) h_t2,c_t2 = self.lstm2(h_t,(h_t2,c_t2)) output = self.linear(h_t2) outputs +=[output] for i in range(future): h_t,c_t = self.lstm1(output,(h_t,c_t)) h_t2,c_t2 = self.lstm2(h_t,(h_t2,c_t2)) output = self.linear(h_t2) outputs +=[output] #下面将所有的输出在第一维上相拼接,并剪除维度为2的数据??目的是什么? outputs = torch.stack(outputs,1).squeeze(2) return outputs ```

关于LSTM模型提取数据特征

# define model model = Sequential() model.add(LSTM(128, activation='relu', input_shape=(timesteps,n_features), return_sequences=True)) model.add(LSTM(64, activation='relu', return_sequences=False)) model.add(RepeatVector(timesteps)) model.add(LSTM(64, activation='relu', return_sequences=True)) model.add(LSTM(128, activation='relu', return_sequences=True)) model.add(TimeDistributed(Dense(n_features))) model.compile(optimizer='adam', loss='mse') model.summary() 代码如上,我需要提取一段语音序列的特征,我的理解是需要得到编码后的结果,也就是model.add(LSTM(64, activation='relu', return_sequences=False))的这一模型的输出作为特征,那么我应该怎样用代码实现这个特征输出呢?

基于lstm的恶意评论检测为什么准确率远高于朴素贝叶斯?

基于lstm的恶意评论检测为什么准确率远高于朴素贝叶斯? 如果可以的话,我更想搞懂lstm的工作原理。

如何理解LSTM中的timestep,并与大神博客中的示意图对应起来?

本人初学LSTM神经网络,看了一些博客,如:[Understanding LSTM Networks](http://colah.github.io/posts/2015-08-Understanding-LSTMs/ "") 但还是有些疑问,请大神不吝赐教。 问题:LSTM神经网络的输入输出格式是[samples, timesteps, features],那么请问对于1个samples,此图中 ![图片说明](https://img-ask.csdn.net/upload/201907/01/1561968109_105645.png) t就对应的是timesteps吗?也就是说,如果输入数据形状为[1,2,3],即1个样本假设为[[0 1 2] [3 4 5]],那么是否按上图展开就变成 ![图片说明](https://img-ask.csdn.net/upload/201907/01/1561975042_466235.png) 其中,X0 = [0 1 2], X1 = [3 4 5]? 对于h0,h1的长度,如果使用python中的keras库,是由model.add(LSTM(len))决定的? 即如果len=10,则len(h0) = 10? 由于本人是初学,理解可能有误,请大家不要笑话。 目前已经查看过[LSTM的神经元个数](https://www.cnblogs.com/wushaogui/p/9176617.html "")这篇文章,但没有具体解释timesteps

请问我那个lstm建完了之后,我想预测接下来几天数据,直接model. predict(起始,终止)不行吗

请问我那个lstm建完了之后,我想预测接下来几天数据,直接model. predict(起始,终止)不行吗![图片说明](https://img-ask.csdn.net/upload/202004/16/1587007513_839563.jpg)![图片说明](https://img-ask.csdn.net/upload/202004/16/1587007519_242319.jpg)![图片说明](https://img-ask.csdn.net/upload/202004/16/1587007526_709444.jpg)

2019 AI开发者大会

2019 AI开发者大会(AI ProCon 2019)是由中国IT社区CSDN主办的AI技术与产业年度盛会。多年经验淬炼,如今蓄势待发:2019年9月6-7日,大会将有近百位中美顶尖AI专家、知名企业代表以及千余名AI开发者齐聚北京,进行技术解读和产业论证。我们不空谈口号,只谈技术,诚挚邀请AI业内人士一起共铸人工智能新篇章!

实现简单的文件系统

实验内容: 通过对具体的文件存储空间的管理、文件的物理结构、目录结构和文件操作的实现,加深对文件系统内部功能和实现过程的理解。 要求: 1.在内存中开辟一个虚拟磁盘空间作为文件存储器,在其上实现一个简

MIPS单周期CPU-组成原理实验-华中科技大学

使用logisim布线完成的MIPS单周期CPU,可支持28条指令。跑马灯的代码已经装入了寄存器,可以直接开启时钟运行。

2019数学建模A题高压油管的压力控制 省一论文即代码

2019数学建模A题高压油管的压力控制省一完整论文即详细C++和Matlab代码,希望对同学们有所帮助

基于QT和OpenCV的五子棋实现源码

一个简单的五子棋应用,基于QT和OpenCV的实现源码,通过相邻棋子判断是否获胜,不包含人工智能算法,适合新手入门

Git 实用技巧

这几年越来越多的开发团队使用了Git,掌握Git的使用已经越来越重要,已经是一个开发者必备的一项技能;但很多人在刚开始学习Git的时候会遇到很多疑问,比如之前使用过SVN的开发者想不通Git提交代码为什么需要先commit然后再去push,而不是一条命令一次性搞定; 更多的开发者对Git已经入门,不过在遇到一些代码冲突、需要恢复Git代码时候就不知所措,这个时候哪些对 Git掌握得比较好的少数人,就像团队中的神一样,在队友遇到 Git 相关的问题的时候用各种流利的操作来帮助队友于水火。 我去年刚加入新团队,发现一些同事对Git的常规操作没太大问题,但对Git的理解还是比较生疏,比如说分支和分支之间的关联关系、合并代码时候的冲突解决、提交代码前未拉取新代码导致冲突问题的处理等,我在协助处理这些问题的时候也记录各种问题的解决办法,希望整理后通过教程帮助到更多对Git操作进阶的开发者。 本期教程学习方法分为“掌握基础——稳步进阶——熟悉协作”三个层次。从掌握基础的 Git的推送和拉取开始,以案例进行演示,分析每一个步骤的操作方式和原理,从理解Git 工具的操作到学会代码存储结构、演示不同场景下Git遇到问题的不同处理方案。循序渐进让同学们掌握Git工具在团队协作中的整体协作流程。 在教程中会通过大量案例进行分析,案例会模拟在工作中遇到的问题,从最基础的代码提交和拉取、代码冲突解决、代码仓库的数据维护、Git服务端搭建等。为了让同学们容易理解,对Git简单易懂,文章中详细记录了详细的操作步骤,提供大量演示截图和解析。在教程的最后部分,会从提升团队整体效率的角度对Git工具进行讲解,包括规范操作、Gitlab的搭建、钩子事件的应用等。 为了让同学们可以利用碎片化时间来灵活学习,在教程文章中大程度降低了上下文的依赖,让大家可以在工作之余进行学习与实战,并同时掌握里面涉及的Git不常见操作的相关知识,理解Git工具在工作遇到的问题解决思路和方法,相信一定会对大家的前端技能进阶大有帮助。

实用主义学Python(小白也容易上手的Python实用案例)

原价169,限时立减100元! 系统掌握Python核心语法16点,轻松应对工作中80%以上的Python使用场景! 69元=72讲+源码+社群答疑+讲师社群分享会&nbsp; 【哪些人适合学习这门课程?】 1)大学生,平时只学习了Python理论,并未接触Python实战问题; 2)对Python实用技能掌握薄弱的人,自动化、爬虫、数据分析能让你快速提高工作效率; 3)想学习新技术,如:人工智能、机器学习、深度学习等,这门课程是你的必修课程; 4)想修炼更好的编程内功,优秀的工程师肯定不能只会一门语言,Python语言功能强大、使用高效、简单易学。 【超实用技能】 从零开始 自动生成工作周报 职场升级 豆瓣电影数据爬取 实用案例 奥运冠军数据分析 自动化办公:通过Python自动化分析Excel数据并自动操作Word文档,最终获得一份基于Excel表格的数据分析报告。 豆瓣电影爬虫:通过Python自动爬取豆瓣电影信息并将电影图片保存到本地。 奥运会数据分析实战 简介:通过Python分析120年间奥运会的数据,从不同角度入手分析,从而得出一些有趣的结论。 【超人气老师】 二两 中国人工智能协会高级会员 生成对抗神经网络研究者 《深入浅出生成对抗网络:原理剖析与TensorFlow实现》一书作者 阿里云大学云学院导师 前大型游戏公司后端工程师 【超丰富实用案例】 0)图片背景去除案例 1)自动生成工作周报案例 2)豆瓣电影数据爬取案例 3)奥运会数据分析案例 4)自动处理邮件案例 5)github信息爬取/更新提醒案例 6)B站百大UP信息爬取与分析案例 7)构建自己的论文网站案例

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

C/C++跨平台研发从基础到高阶实战系列套餐

一 专题从基础的C语言核心到c++ 和stl完成基础强化; 二 再到数据结构,设计模式完成专业计算机技能强化; 三 通过跨平台网络编程,linux编程,qt界面编程,mfc编程,windows编程,c++与lua联合编程来完成应用强化 四 最后通过基于ffmpeg的音视频播放器,直播推流,屏幕录像,

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

Python界面版学生管理系统

前不久上传了一个控制台版本的学生管理系统,这个是Python界面版学生管理系统,这个是使用pycharm开发的一个有界面的学生管理系统,基本的增删改查,里面又演示视频和完整代码,有需要的伙伴可以自行下

Vue.js 2.0之全家桶系列视频课程

基于新的Vue.js 2.3版本, 目前新全的Vue.js教学视频,让你少走弯路,直达技术前沿! 1. 包含Vue.js全家桶(vue.js、vue-router、axios、vuex、vue-cli、webpack、ElementUI等) 2. 采用笔记+代码案例的形式讲解,通俗易懂

linux“开发工具三剑客”速成攻略

工欲善其事,必先利其器。Vim+Git+Makefile是Linux环境下嵌入式开发常用的工具。本专题主要面向初次接触Linux的新手,熟练掌握工作中常用的工具,在以后的学习和工作中提高效率。

JAVA初级工程师面试36问(完结)

第三十一问: 说一下线程中sleep()和wait()区别? 1 . sleep()是让正在执行的线程主动让出CPU,当时间到了,在回到自己的线程让程序运行。但是它并没有释放同步资源锁只是让出。 2.wait()是让当前线程暂时退让出同步资源锁,让其他线程来获取到这个同步资源在调用notify()方法,才会让其解除wait状态,再次参与抢资源。 3. sleep()方法可以在任何地方使用,而wait()只能在同步方法或同步块使用。 ...

java jdk 8 帮助文档 中文 文档 chm 谷歌翻译

JDK1.8 API 中文谷歌翻译版 java帮助文档 JDK API java 帮助文档 谷歌翻译 JDK1.8 API 中文 谷歌翻译版 java帮助文档 Java最新帮助文档 本帮助文档是使用谷

我以为我对Mysql事务很熟,直到我遇到了阿里面试官

太惨了,面试又被吊打

智鼎(附答案).zip

并不是完整题库,但是有智鼎在线2019年9、10、11三个月的试题,有十七套以上题目,普通的网申行测题足以对付,可以在做题时自己总结一些规律,都不是很难

Visual Assist X 破解补丁

vs a's'sixt插件 支持vs2008-vs2019 亲测可以破解,希望可以帮助到大家

150讲轻松搞定Python网络爬虫

【为什么学爬虫?】 &nbsp; &nbsp; &nbsp; &nbsp;1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到! &nbsp; &nbsp; &nbsp; &nbsp;2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 &nbsp; 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑

JavaWEB商城项目(包括数据库)

功能描述:包括用户的登录注册,以及个人资料的修改.商品的分类展示,详情,加入购物车,生成订单,到银行支付等!另外还有收货地址的和我的收藏等常用操作.环境(JDK 1.7 ,mysql 5.5,Ecli

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

一学即懂的计算机视觉(第一季)

图像处理和计算机视觉的课程大家已经看过很多,但总有“听不透”,“用不了”的感觉。课程致力于创建人人都能听的懂的计算机视觉,通过生动、细腻的讲解配合实战演练,让学生真正学懂、用会。 【超实用课程内容】 课程内容分为三篇,包括视觉系统构成,图像处理基础,特征提取与描述,运动跟踪,位姿估计,三维重构等内容。课程理论与实战结合,注重教学内容的可视化和工程实践,为人工智能视觉研发及算法工程师等相关高薪职位就业打下坚实基础。 【课程如何观看?】 PC端:https://edu.csdn.net/course/detail/26281 移动端:CSDN 学院APP(注意不是CSDN APP哦) 本课程为录播课,课程2年有效观看时长,但是大家可以抓紧时间学习后一起讨论哦~ 【学员专享增值服务】 源码开放 课件、课程案例代码完全开放给你,你可以根据所学知识,自行修改、优化 下载方式:电脑登录https://edu.csdn.net/course/detail/26281,点击右下方课程资料、代码、课件等打包下载

软件测试2小时入门

本课程内容系统、全面、简洁、通俗易懂,通过2个多小时的介绍,让大家对软件测试有个系统的理解和认识,具备基本的软件测试理论基础。 主要内容分为5个部分: 1 软件测试概述,了解测试是什么、测试的对象、原则、流程、方法、模型;&nbsp; 2.常用的黑盒测试用例设计方法及示例演示;&nbsp; 3 常用白盒测试用例设计方法及示例演示;&nbsp; 4.自动化测试优缺点、使用范围及示例‘;&nbsp; 5.测试经验谈。

初级玩转Linux+Ubuntu(嵌入式开发基础课程)

课程主要面向嵌入式Linux初学者、工程师、学生 主要从一下几方面进行讲解: 1.linux学习路线、基本命令、高级命令 2.shell、vi及vim入门讲解 3.软件安装下载、NFS、Samba、FTP等服务器配置及使用

2019 Python开发者日-培训

本次活动将秉承“只讲技术,拒绝空谈”的理念,邀请十余位身处一线的Python技术专家,重点围绕Web开发、自动化运维、数据分析、人工智能等技术模块,分享真实生产环境中使用Python应对IT挑战的真知灼见。此外,针对不同层次的开发者,大会还安排了深度培训实操环节,为开发者们带来更多深度实战的机会。

快速入门Android开发 视频 教程 android studio

这是一门快速入门Android开发课程,顾名思义是让大家能快速入门Android开发。 学完能让你学会如下知识点: Android的发展历程 搭建Java开发环境 搭建Android开发环境 Android Studio基础使用方法 Android Studio创建项目 项目运行到模拟器 项目运行到真实手机 Android中常用控件 排查开发中的错误 Android中请求网络 常用Android开发命令 快速入门Gradle构建系统 项目实战:看美图 常用Android Studio使用技巧 项目签名打包 如何上架市场

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

4小时玩转微信小程序——基础入门与微信支付实战

这是一个门针对零基础学员学习微信小程序开发的视频教学课程。课程采用腾讯官方文档作为教程的唯一技术资料来源。杜绝网络上质量良莠不齐的资料给学员学习带来的障碍。 视频课程按照开发工具的下载、安装、使用、程序结构、视图层、逻辑层、微信小程序等几个部分组织课程,详细讲解整个小程序的开发过程

相关热词 c#中如何设置提交按钮 c#帮助怎么用 c# 读取合并单元格的值 c#带阻程序 c# 替换span内容 c# rpc c#控制台点阵字输出 c#do while循环 c#调用dll多线程 c#找出两个集合不同的
立即提问