排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

最新最热悬赏待采纳 筛选
  • 2

    回答

  • 18

    浏览

同质异质划分的区别是准确率的高低?还是按照算法是相同的还是不同的来分? Adaboost为什么能不同的算法进行集成吗?比如这么调用,这段代码报错了,说是这么集成不对。 print('=========Adaboost&GradientBoostingClassifier&LogisticRegression&DecisionTreeClassifier==================') clf = AdaBoostClassifier(n_estimators=10, base_estimator= [GradientBoostingClassifier(),LogisticRegression(),DecisionTreeClassifier()], learning_rate=0.6) clf.fit(train,y) predicted = clf.predict(test) predicted_roc = clf.predict_proba(test) estimate(y_test,predicted,predicted_roc)  

  • 4

    回答

  • 15

    浏览

如题,还是说将所有的变量放到算法里就好了。变量太多运行会慢,可不可以先看相关性,挑选相关性高的变量放到算法里。 感谢!

  • 3

    回答

  • 23

    浏览

最近遇到一个文本处理的作业,老师给到了tfidf和glove处理好的数据,如何把这些处理好的数据导入模型? 具体内容入图,第一个是词的id,第二个是tfidf  

  • 3

    回答

  • 21

    浏览

麻烦大佬帮忙看一下生什么情况?

  • 4

    回答

  • 22

    浏览

K均值聚类算法,谱聚类算法,Viola-Jones算法 这三种算法怎么通过对比分析找到它们各自在不同应用领域的优势,若应用于输油管道巡检的漏油点识别应该如何进行优化

  • 3

    回答

  • 13

    浏览

      想探究一下优秀企业的名字的特征,比如字符长度,难易程度,地域特点,行业特点等。有没有什么方法可以用。 目前比较没有头绪,有没有大佬来指点指点。

  • 3

    回答

  • 10

    浏览

    正在创建库 C:/Users/SuperMike/build/lib/Release/_caffe.lib 和对象 C:/Users/SuperMike/build/lib/Release/_caffe.exp _caffe.obj : error LNK2019: 无法解析的外部符号 "__declspec(dllimport) struct _object * __cdecl boost::python::detail::init_module(struct PyModuleDef &,void (__cdecl*)(v oid))" (__imp_?init_module@detail@python@boost@@YAPEAU_object@@AEAUPyModuleDef@@P6AXXZ@Z),该符号在函数 PyInit__caffe 中被引用 [C:\Users\SuperMike\build\python\pycaffe.vc xproj] C:\Users\SuperMike\build\lib\Release\_caffe.pyd : fatal error LNK1120: 1 个无法解析的外部命令 [C:\Users\SuperMike\build\python\pycaffe.vcxproj]   test_net.cpp   Unknown compiler version - please run the configure tests and report the results

  • 1

    回答

  • 23

    浏览

考虑区域Z,其中0≤x <1,0≤y <1。考虑Z→{true,false}的二元类分类问题。   假设如果x <0.5则为true,如果x> = 0.5则为false。   作为训练数据,从真实范围中随机选择n个点,从错误范围中随机选择n个点。   作为泛化性能,从Z中随机选择100个点,并获得估计结果与真实值之间的匹配率。   (1)当n = 2时,尝试100次实验得出1-NN的泛化性能。(匹配率的平均值和标准偏差。   (2)当n = 10时,尝试100次试验以找出1-NN的泛化性能。(匹配率的平均值和标准偏差。   (3)假设n = 10,但十分之一是噪声。     此时,比较1-NN的泛化性能和3-NN的泛化性能。尝试100次表示出结果。 求相关设计思路和代码

  • 1

    回答

  • 35

    浏览

求助,我现在在做一个类似二分类的算法,通过学习我获得了一个指标我这里称其为A,那么我的评判标准就是A>T,则是类别1,A<T为类别二。但是呢,我发现这个分类效果并不好,正确分类的准确度太低,于是我就开始想办法,突然我通过数学公式推导出这个指标A在计算过程中可以拆分为A=B*C(过程我就不给了),于是我想这个公式表明A是另外两个指标的乘积(B和C我也做实验了,实验证明B和C也可以做为二分类的指标,即B>T1为类别1,B<T1为类别2,C同理,但是呢B的分类准确度确比A和C好许多),那么我将它拆分一下,变成A1=k1*B+k2*C (k1和k2是参数,可以调参),最终我得出这种线性组合的方式得到的指标A1比最开始的A在分类效果上好许多,现在我想问的是这个该如何解释呢(为什么A1比A好),用什么理论解释呢?还请各路大神帮忙解答一下。

  • 3

    回答

  • 35

    浏览

我想要把这个表格按照酒店名称和入住房型做聚类,去掉评论日期,把评论详情合并到一起。我利用pandas的聚合处理只能算出每个聚类有多少条评论。各位大神有什么方法么?

  • 6

    回答

  • 33

    浏览

这里用到的roi是在原视频上读取每帧图片,对前景进行轮廓检测,将检测到的行人目标用矩形标注出来。 利用roi=frame(rect(x0,y0,w0,z0))进行的roi标定。 希望利用detectanddraw(hog,img)对img区域进行行人检测 代码运行到hog.detectmultiscale(img) 这个时候运行到这里出现 OpenCV Error: Assertion failed (y == 0 || (data && dims >= 1 && (unsigned)y < (unsigned)size.p[0])) in cv::Mat::ptr

  • 3

    回答

  • 23

    浏览

我想使用串口调试软件发送数据给变频器控制它的启动结果响应报错代码。 发送的数据是:01 05 17 A0 FF 00 89 AC 报错返回:01 85 02 C3 51 请问是地址错误吗,怎么样才能控制它的启动?

  • 3

    回答

  • 26

    浏览

使用yolov3训练模型 coco_classes.txt和voc_classes.txt在训练前就已经改好了出现了这个错误,我的文件已经训练好了,不知道是哪一步出现了问题

  • 5

    回答

  • 249

    浏览

import random import numpy as np import sympy arry11=np.zeros((20,20)) def func1_V2(data_distance): #计算V2 V1=np.zeros(20) W=np.zeros(20) a=np.zeros((20,20)) b=np.zeros((20,20)) c=np.zeros(20) V2=np.zeros(20) for i in range(20): for j in range(20): a[i][j]=0.2061*sympy.exp((-10.229) * (data_distance[i][j])-1) V1[i]=V1[i]+a[i][j] for i in range(20): for j in range(20): b[i][j]=1.79*sympy.exp((-2*4.036) * (data_distance[i][j])-1) V2[i]=V2[i]+b[i][j] return V2 def func_distance(arry11): #原子之间的距离公式 data_distance = np.zeros((20, 20)) for i in range(20): for j in range(20 - i): data_distance[i][j] = sympy.sqrt((arry11[i][0] - arry11[j][0]) ** 2 + (arry11[i][1] - arry11[j][1]) ** 2 + (arry11[i][2] - arry11[j][2]) ** 2) return data_distance def func_gradient(data_distance): #计算梯度 V2=func1_V2(data_distance) r1 = np.zeros((20, 20)) r2 = np.zeros((20, 20)) r3 = np.zeros((20, 20)) for i in range(20): for j in range(20): r1[i][j] = 0.2061 * (-10.229) * sympy.exp((-10.229) * (data_distance[i][j] - 1)) r2[i][j] = 0.5 * V2[i] * 1.79 * (-2 * 4.036) * sympy.exp((-2 * 4.036) * (data_distance[i][j] - 1)) r3[i][j] = r1[i][j] - r2[i][j] return r3 def func1_Gupta(data_distance): #计算Gupta势能 V1=np.zeros(20) a=np.zeros((20,20)) b=np.zeros((20,20)) c=np.zeros(20) V2=np.zeros(20) V3 = np.zeros(20) V_W=0 for i in range(20): for j in range(20): a[i][j]=0.2061*sympy.exp((-10.229) * (data_distance[i][j])-1) V1[i]=V1[i]+a[i][j] for i in range(20): for j in range(20): b[i][j]=1.79*sympy.exp((-2*4.036) * (data_distance[i][j])-1) V2[i]=V2[i]+b[i][j] for i in range(20): V3[i]=sympy.sqrt(V2[i]) for i in range(20): c[i]=V1[i]-V3[i] for i in range(20): V_W=V_W+c[i] return V_W def DFP(arry11): #局部极小化 a=sympy.symbols("a") r=np.zeros((20,20)) r1=np.zeros((20, 20)) H=np.eye(20) Nolmprove=0 data_distance1=np.zeros((20,20)) data_distance1=func_distance(arry11) while True: r1=func_gradient(data_distance1) p=-np.dot(H,r1) arry11 = arry11 for i in range(20): for j in range(3): arry11[i][j]=arry11[i][j]+a alpha=func1_Gupta(arry11) difyL_a = sympy.diff(alpha, a) aa = sympy.solve([difyL_a], [a]) a = aa.get(a) arry11_1=arry11 arry11=arry11+np.dot(a,p) arry11_2=arry11 data_distance2=func_distance(arry11) r2=func_gradient(data_distance2) for i in range(20): for j in range(20): r[i][j]=r2[i][j]-r1[i][j] arry11_3=arry11_2-arry11_1 H1=np.dot(arry11_3,np.transpose(arry11_3))/np.dot(np.transpose(arry11_3),r)-np.dot(H,np.dot(r,np.transpose(np.dot(H,r))))/np.dot(transpose(r),np.dot(H,r)) H=H+H1 Nolmprove=Nolmprove+1 if Nolmprove ==40: return arry11 break else: continue if __name__ == '__main__': print("开始运行!") arry11=np.zeros((20,20)) for i in range(20): for j in range(20): arry11[i][j]=random.uniform(-2,2) data_distance_1 = np.zeros(20) arry11=DFP(arry11) arry11_1 = arry11 data_distance = func_distance(arry11) Gupta1 = func1_Gupta(data_distance) max_1 = 0 max_distance = 0 x = 0 y = 0 z = 0 x_list =np.zeros(20) y_list =np.zeros(20) z_list =np.zeros(20) while True: for i in range(20): for j in range(3): arry11[i][j] = arry11[i][j] + random.uniform(-0.5, 0.5); for i in range(20): x_list[i] = arry11[i][0] x = x + x_list[i] y_list[i] = arry11[i][1] y = y + y_list[i] z_list[i] = arry11[i][2] z = z + z_list[i] x = x / 20 y = y / 20 z = z / 20 xyz = np.zeros(3) for i in range(20): data_distance[i] = sympy.sqrt((arry11[i][0] - x) ** 2 + (arry11[i][1] - y) ** 2 + (arry11[i][2] - z) ** 2); if data_distance >= max_distance: max_distance = data_distance xyz[0] = arry11[i][0] xyz[1] = arry11[i][1] xyz[2] = arry11[i][2] a = i arry11[a][0] = xyz[0] + random.uniform(-0.3, 0.3) arry11[a][1] = xyz[1] + random.uniform(-0.3, 0.3) arry11[a][2] = xyz[2] + random.uniform(-0.3, 0.3) arry11 = DFP(arry11) data_distance = func_distance(arry11) Gupta2 = func1_Gupta(data_distance) if Gupta2 <= Gupta1: Gupta1 = Gupta2 arry11 = arry11 arry11_1 = arry11 max_1 = max_1 + 1 continue else: arry11 = arry11_1 # 回到初始 if max_1 == 30: print(arry11) break else: continue 子程序返回数组后,主程序调用该数据时显示类型错误,求大佬解答

  • 4

    回答

  • 39

    浏览

比如我有一组数据 60 20 36 78 95 35 10 6 68 63 82 30 我想选择大于50的数据,输出它所对应的行和列要怎么操作啊?

  • 3

    回答

  • 18

    浏览

我看别人的FPGA约束文件当中有一个set_property IOSTANDARD LVCOMS33 [get_ports 某某],请问这个LVCOMS33里的数字是根据什么确定的呀?比如我在写约束文件时,我的FPGA里按钮是上拉的,按下去是低电平,那还能用这句话吗?或者,如果想用LED管脚,请问这个和LED高电平亮还是低电平亮有关吗?如果有关的话,高、低电平分别应该用什么数字呀?   【我是一个初学者,在vivado用verilog语言写了一个混合算法,已经仿真成功了。加上了串口通信的程序,打算拷在FPGA上,用串口调试助手看看成果。因为我之前没有接触过FPGA,为了熟悉拷工程进FPGA的流程操作,我看了一个中国大学mooc的视频,写了个简单的工程(就是一个按钮控制一个led灯),照葫芦画瓢根据我将要用到的FPGA的硬件手册写了约束文件(FPGA型号是ZYNQ7000系列,XC7Z020-CLG484)。但是拷进去后发现,按按钮,LED灯没反应,我换了其它LED灯也没反应,换了按钮也没反应。我觉得肯定是约束文件写错了。。  

  • 3

    回答

  • 23

    浏览

随机森林等模型,简单的从sklearn库调用的,同样的参数,数据集,某一天开始结果变得很差,找了很久了,完全找不到原因。 def Preprocess(CSV1, CSV2, shuffle=True, SDAE=False, MMN=False, Smote=False): df1 = pd.read_csv(CSV1) # 第一个数据集 # 除了最后一列的数据 X_train = df1.iloc[:, :-1] # 读取最后一列的数据 y_train = df1.iloc[:, -1] # 第二个数据集 df2 = pd.read_csv(CSV2) # 除了最后一列的数据 X_test = df2.iloc[:, :-1] # 读取最后一列的数据 y_test = df2.iloc[:, -1] if Smote: smo = SMOTE(sampling_strategy='auto', random_state=10) X_train, y_train = smo.fit_resample(X_train, y_train) if MMN: X_train = preprocessing.minmax_scale(X_train, feature_range=(0, 1), axis=0, copy=True) # 直接用标准化函数 X_test = preprocessing.minmax_scale(X_test, feature_range=(0, 1), axis=0, copy=True) # 直接用标准化函数 if SDAE: X_train, X_test = score.SDAE(X_train, X_test) return X_train, X_test, y_train, y_test def metric_standards(y_test, y_predict, y_0=None, cal_weight=None): # 无权重 accuracy = metrics.accuracy_score(y_test, y_predict) # 预测准确率输出 precision = metrics.precision_score(y_test, y_predict, zero_division="warn") # 预测宏平均精确率输出 recall = metrics.recall_score(y_test, y_predict) # 预测宏平均召回率输出 f1_scroe = metrics.f1_score(y_test, y_predict) # 预测平均f1-score输出 if y_0 is not None: false_positive_rate, true_positive_rate, thresholds = metrics.roc_curve(y_test, y_0) # 计算AUC值 roc_auc = metrics.auc(false_positive_rate, true_positive_rate) y_pred_class = true_positive_rate > thresholds else: roc_auc = 0 return accuracy, precision, recall, f1_scroe, roc_auc def ranforest(X_train, X_test, y_train, y_test, n_estimators=100, random_state=66, n_jobs=-1): cls = RandomForestClassifier(n_estimators=96, max_depth=17, min_samples_split=43, min_samples_leaf=5, n_jobs=n_jobs) # SeleFea(cls, X_train, y_train) cls.fit(X_train, y_train) y_pre_proba = cls.predict_proba(X_test) y_predict = cls.predict(X_test) y_0 = list(y_pre_proba[:, 1]) print('n_estimators = {}, random_state = {}'.format(n_estimators, random_state)) accuracy, precision, recall, f1_scroe, roc_auc = metric_standards(y_test, y_predict, y_0) return accuracy, precision, recall, f1_scroe, roc_auc  

  • 2

    回答

  • 17

    浏览

我是一名CNN新手,想运行 Wide-Area Crowd Counting via Ground-Plane Density Maps and Multi-View Fusion CNNs 。网站是 https://github.com/zqyq/Wide-Area-Crowd-Counting_CVPR2019  想请问有没有大神能告诉我步骤,谢谢。