我在用facenet模型中的classifier.py文件中训练自己的数据集的时候配置了相关参数所在的路径,但是却发生了如下报错,请问是什么原因?

作为一个刚入门的小白在这方面的学习还有许多的不懂,我在用facenet模型中的classifier.py文件中训练自己的数据集的时候配置了相关参数所在的路径,但是却发生了如下报错,请问是什么原因?

def parse_arguments(argv):
    parser = argparse.ArgumentParser()

    parser.add_argument('mode', type=str, choices=['TRAIN', 'CLASSIFY'],
        help='Indicates if a new classifier should be trained or a classification ' + 
        'model should be used for classification', default='TRAIN')#训练模型
    parser.add_argument('data_dir', type=str,
        help='Path to the data directory containing aligned LFW face patches.',default='D:/pyCharm/facenet/data_dir/African_convert')#添加数据集文件夹
    parser.add_argument('model', type=str, 
        help='Could be either a directory containing the meta_file and ckpt_file or a model protobuf (.pb) file',default='D:/pyCharm/facenet/20170512-110547')
    parser.add_argument('classifier_filename', 
        help='Classifier model file name as a pickle (.pkl) file. ' + 
        'For training this is the output and for classification this is an input.' ,default='pick/classifier.pkl')
    parser.add_argument('--use_split_dataset', 
        help='Indicates that the dataset specified by data_dir should be split into a training and test set. ' +  
        'Otherwise a separate test set can be specified using the test_data_dir option.', action='store_true')
    parser.add_argument('--test_data_dir', type=str,
        help='Path to the test data directory containing aligned images used for testing.')
    parser.add_argument('--batch_size', type=int,
        help='Number of images to process in a batch.', default=90)
    parser.add_argument('--image_size', type=int,
        help='Image size (height, width) in pixels.', default=160)
    parser.add_argument('--seed', type=int,
        help='Random seed.', default=666)
    parser.add_argument('--min_nrof_images_per_class', type=int,
        help='Only include classes with at least this number of images in the dataset', default=20)
    parser.add_argument('--nrof_train_images_per_class', type=int,
        help='Use this number of images from each class for training and the rest for testing', default=10)

    return parser.parse_args(argv)

if __name__ == '__main__':
    main(parse_arguments(sys.argv[1:]))

报错信息如下:
usage: classifier.py [-h] [--use_split_dataset]
[--test_data_dir TEST_DATA_DIR] [--batch_size BATCH_SIZE]
[--image_size IMAGE_SIZE] [--seed SEED]
[--min_nrof_images_per_class MIN_NROF_IMAGES_PER_CLASS]
[--nrof_train_images_per_class NROF_TRAIN_IMAGES_PER_CLASS]
{TRAIN,CLASSIFY} data_dir model classifier_filename
classifier.py: error: the following arguments are required: mode, data_dir, model, classifier_filename

图片说明

图片说明

谢谢!!!

1个回答

你调用的时候没有传参数或者参数不对,这个程序需要如下参数
模式、数据所在的目录、模型、分类器的文件名

caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 回复tina竹: 请采纳一下
4 个月之前 回复
qq_42593220
tina竹 问题解决了,谢谢!
4 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
ValueError: No data files found in satellite/data\satellite_train_*.tfrecord
跟着书做"打造自己的图片识别模型"项目时候遇到报错,报错早不到数据文件,但是文件路径和数据都没问题 D:\Anaconda\anaconda\envs\tensorflow\python.exe D:/PyCharm/PycharmProjects/chapter_3/slim/train_image_classifier.py --train_dir=satellite/train_dir --dataset_name=satellite --dataset_split_name=train --dataset_dir=satellite/data --model_name=inception_v3 --checkpoint_path=satellite/pretrained/inception_v3.ckpt --checkpoint_exclude_scopes=InceptionV3/Logits,InceptionV3/AuxLogits --trainable_scopes=InceptionV3/Logits,InceptionV3/AuxLogits --max_number_of_steps=100000 --batch_size=32 --learning_rate=0.001 --learning_rate_decay_type=fixed --save_interval_secs=300 --save_summaries_secs=2 --log_every_n_steps=10 --optimizer=rmsprop --weight_decay=0.00004 WARNING:tensorflow:From D:/PyCharm/PycharmProjects/chapter_3/slim/train_image_classifier.py:397: create_global_step (from tensorflow.contrib.framework.python.ops.variables) is deprecated and will be removed in a future version. Instructions for updating: Please switch to tf.train.create_global_step Traceback (most recent call last): File "D:/PyCharm/PycharmProjects/chapter_3/slim/train_image_classifier.py", line 572, in <module> tf.app.run() File "D:\Anaconda\anaconda\envs\tensorflow\lib\site-packages\tensorflow\python\platform\app.py", line 48, in run _sys.exit(main(_sys.argv[:1] + flags_passthrough)) File "D:/PyCharm/PycharmProjects/chapter_3/slim/train_image_classifier.py", line 430, in main common_queue_min=10 * FLAGS.batch_size) File "D:\Anaconda\anaconda\envs\tensorflow\lib\site-packages\tensorflow\contrib\slim\python\slim\data\dataset_data_provider.py", line 94, in __init__ scope=scope) File "D:\Anaconda\anaconda\envs\tensorflow\lib\site-packages\tensorflow\contrib\slim\python\slim\data\parallel_reader.py", line 238, in parallel_read data_files = get_data_files(data_sources) File "D:\Anaconda\anaconda\envs\tensorflow\lib\site-packages\tensorflow\contrib\slim\python\slim\data\parallel_reader.py", line 311, in get_data_files raise ValueError('No data files found in %s' % (data_sources,)) ValueError: No data files found in satellite/data\satellite_train_*.tfrecord
在hadoop上用mahout的随机森林算法训练机器学习分类器
我搭了三台CentOS7虚拟机,安装好了hadoop-3.0.0和mahout-distirution-0.9。 准备用随机森林算法建立模型。第一步生成好了描述文件(/KDDdes.info);第二步建立好了模型(/user/hadoop/nsl-forest);但第三步就会报错。 这是HDFS: ``` [hadoop@hadoop1 ~]$ hadoop fs -ls / Found 5 items -rw-r--r-- 1 hadoop supergroup 3365886 2018-05-02 23:58 /KDDTest+.arff -rw-r--r-- 1 hadoop supergroup 18742306 2018-05-02 23:40 /KDDTrain+.arff -rw-r--r-- 1 hadoop supergroup 2795 2018-05-02 23:42 /KDDdes.info drwx------ - hadoop supergroup 0 2018-04-29 20:05 /tmp drwxr-xr-x - hadoop supergroup 0 2018-04-29 20:05 /user ``` 这是第三步 ``` [hadoop@hadoop1 ~]$ hadoop jar /opt/mahout-distribution-0.9/mahout-examples-0.9-job.jar org.apache.mahout.classifier.df.mapreduce.TestForest -i /KDDTest+.arff -ds /KDDdes.info -m /user/hadoop/nsl-forest -a -mr -o nsl-prediction 2018-05-03 00:01:28,469 INFO mapreduce.Classifier: Adding the dataset to the DistributedCache 2018-05-03 00:01:28,471 INFO mapreduce.Classifier: Adding the decision forest to the DistributedCache 2018-05-03 00:01:28,475 INFO mapreduce.Classifier: Configuring the job... 2018-05-03 00:01:28,479 INFO mapreduce.Classifier: Running the job... 2018-05-03 00:01:28,568 INFO client.RMProxy: Connecting to ResourceManager at hadoop1/192.168.80.100:8032 2018-05-03 00:01:28,960 INFO mapreduce.JobResourceUploader: Disabling Erasure Coding for path: /tmp/hadoop-yarn/staging/hadoop/.staging/job_1525056498669_0005 2018-05-03 00:01:29,462 INFO input.FileInputFormat: Total input files to process : 1 2018-05-03 00:01:29,968 INFO mapreduce.JobSubmitter: number of splits:1 2018-05-03 00:01:30,080 INFO Configuration.deprecation: yarn.resourcemanager.system-metrics-publisher.enabled is deprecated. Instead, use yarn.system-metrics-publisher.enabled 2018-05-03 00:01:30,685 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1525056498669_0005 2018-05-03 00:01:30,686 INFO mapreduce.JobSubmitter: Executing with tokens: [] 2018-05-03 00:01:31,277 INFO conf.Configuration: resource-types.xml not found 2018-05-03 00:01:31,278 INFO resource.ResourceUtils: Unable to find 'resource-types.xml'. 2018-05-03 00:01:31,330 INFO impl.YarnClientImpl: Submitted application application_1525056498669_0005 2018-05-03 00:01:31,358 INFO mapreduce.Job: The url to track the job: http://hadoop1:8088/proxy/application_1525056498669_0005/ 2018-05-03 00:01:31,359 INFO mapreduce.Job: Running job: job_1525056498669_0005 2018-05-03 00:01:38,470 INFO mapreduce.Job: Job job_1525056498669_0005 running in uber mode : false 2018-05-03 00:01:38,470 INFO mapreduce.Job: map 0% reduce 0% 2018-05-03 00:01:42,604 INFO mapreduce.Job: Task Id : attempt_1525056498669_0005_m_000000_0, Status : FAILED Error: java.lang.ArrayIndexOutOfBoundsException: 946827879 at org.apache.mahout.classifier.df.node.Node.read(Node.java:58) at org.apache.mahout.classifier.df.DecisionForest.readFields(DecisionForest.java:197) at org.apache.mahout.classifier.df.DecisionForest.read(DecisionForest.java:203) at org.apache.mahout.classifier.df.DecisionForest.load(DecisionForest.java:225) at org.apache.mahout.classifier.df.mapreduce.Classifier$CMapper.setup(Classifier.java:209) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:794) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:342) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:174) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1962) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:168) 2018-05-03 00:01:46,641 INFO mapreduce.Job: Task Id : attempt_1525056498669_0005_m_000000_1, Status : FAILED Error: java.lang.ArrayIndexOutOfBoundsException: 946827879 at org.apache.mahout.classifier.df.node.Node.read(Node.java:58) at org.apache.mahout.classifier.df.DecisionForest.readFields(DecisionForest.java:197) at org.apache.mahout.classifier.df.DecisionForest.read(DecisionForest.java:203) at org.apache.mahout.classifier.df.DecisionForest.load(DecisionForest.java:225) at org.apache.mahout.classifier.df.mapreduce.Classifier$CMapper.setup(Classifier.java:209) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:794) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:342) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:174) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1962) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:168) 2018-05-03 00:01:51,687 INFO mapreduce.Job: Task Id : attempt_1525056498669_0005_m_000000_2, Status : FAILED Error: java.lang.ArrayIndexOutOfBoundsException: 946827879 at org.apache.mahout.classifier.df.node.Node.read(Node.java:58) at org.apache.mahout.classifier.df.DecisionForest.readFields(DecisionForest.java:197) at org.apache.mahout.classifier.df.DecisionForest.read(DecisionForest.java:203) at org.apache.mahout.classifier.df.DecisionForest.load(DecisionForest.java:225) at org.apache.mahout.classifier.df.mapreduce.Classifier$CMapper.setup(Classifier.java:209) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:143) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:794) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:342) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:174) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1962) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:168) 2018-05-03 00:01:55,745 INFO mapreduce.Job: map 100% reduce 0% 2018-05-03 00:01:57,766 INFO mapreduce.Job: Job job_1525056498669_0005 failed with state FAILED due to: Task failed task_1525056498669_0005_m_000000 Job failed as tasks failed. failedMaps:1 failedReduces:0 killedMaps:0 killedReduces: 0 2018-05-03 00:01:57,844 INFO mapreduce.Job: Counters: 9 Job Counters Failed map tasks=4 Launched map tasks=4 Other local map tasks=3 Data-local map tasks=1 Total time spent by all maps in occupied slots (ms)=10027 Total time spent by all reduces in occupied slots (ms)=0 Total time spent by all map tasks (ms)=10027 Total vcore-milliseconds taken by all map tasks=10027 Total megabyte-milliseconds taken by all map tasks=10267648 Exception in thread "main" java.lang.IllegalStateException: Job failed! at org.apache.mahout.classifier.df.mapreduce.Classifier.run(Classifier.java:127) at org.apache.mahout.classifier.df.mapreduce.TestForest.mapreduce(TestForest.java:188) at org.apache.mahout.classifier.df.mapreduce.TestForest.testForest(TestForest.java:174) at org.apache.mahout.classifier.df.mapreduce.TestForest.run(TestForest.java:146) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:76) at org.apache.mahout.classifier.df.mapreduce.TestForest.main(TestForest.java:315) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:239) at org.apache.hadoop.util.RunJar.main(RunJar.java:153) ``` 这是什么问题,求助大神!!!
mahout 贝叶斯中文分类问题
环境hadoop 2.7.3,mahout 0.9 我先在服务器上用mahout命令训练出了贝叶斯分类模型,然后通过testnb命令也能进行测试。 但是我通过java程序中(使用的依赖包mahout-core-0.9)NaiveBayesModel.materialize(xxx,xxx)方法在读取naiveBayesModel.bin模型的时候报错如下: Exception in thread "main" java.lang.IllegalArgumentException: Unknown flags set: %d [-1100111] at com.google.common.base.Preconditions.checkArgument(Preconditions.java:115) at org.apache.mahout.math.VectorWritable.readFields(VectorWritable.java:88) at org.apache.mahout.math.VectorWritable.readVector(VectorWritable.java:199) at org.apache.mahout.classifier.naivebayes.NaiveBayesModel.materialize(NaiveBayesModel.java:112) 不知道是什么原因,麻烦大神们帮我看看。
classifier4j中文支持问题
classifier4j中文支持问题中导入的lucene包中没有TermAttribute类![图片说明](https://img-ask.csdn.net/upload/201503/24/1427158878_752355.png) 在网上百度的解决问题中有![图片说明](https://img-ask.csdn.net/upload/201503/24/1427158971_994787.png)想请教下,该如何解决,非常感谢
小白机器学习贝叶斯分类训练时候遇到问题,跪求大神解答
在训练多项式贝叶斯分类器classifer.fit(vce.transform(x_train),y_train)之后,想要通过测试集算准确率时classifier.score(vce.transform(x_test),y_test),出现错误MultinominalNB instance is not fitted yet,call 'fit' with appropriate arguments before using this method,我max_features选的是2000个,不知道这是什么问题,求大神指点迷津![图片说明](http://forum.csdn.net/PointForum/ui/scripts/csdn/Plugin/003/onion/3.gif)
knn猫狗识别算法中样本为0报错
错误如下: ValueError: With n_samples=0, test_size=0.25 and train_size=None, the resulting train set will be empty. Adjust any of the aforementioned parameters. 代码如下: # import the necessary packages from sklearn.neighbors import KNeighborsClassifier from sklearn.preprocessing import LabelEncoder from sklearn.model_selection import train_test_split from sklearn.metrics import classification_report from pyimagesearch.preprocessing import SimplePreprocessor from pyimagesearch.datasets import SimpleDatasetLoader from imutils import paths import argparse # construct the argument parse and parse the arguments ap = argparse.ArgumentParser() ap.add_argument("-d", "--datasets", type=str, default="‪H:\\111\\try1\\pyimagesearch\\datasets\\animals\\", help="path to input dataset") ap.add_argument("-k", "--neighbors", type=int, default=1, help="# of nearest neighbors for classification") ap.add_argument("-j", "--jobs", type=int, default=-1, help="# of jobs for k-NN distance (-1 uses all available cores)") args = vars(ap.parse_args()) # grab the list of images that we’ll be describing print("[INFO] loading images...") imagePaths = list(paths.list_images(args["datasets"])) # initialize the image preprocessor, load the dataset from disk, # and reshape the data matrix sp = SimplePreprocessor.SimplePreprocessor(32, 32) sdl = SimpleDatasetLoader.SimpleDatasetLoader(preprocessors=[sp]) (data, labels) = sdl.load(imagePaths, verbose=500) data = data.reshape((data.shape[0], 3072)) # show some information on memory consumption of the images print("[INFO] features matrix: {:.1f}MB".format( data.nbytes / (1024 * 1000.0))) # encode the labels as integers le = LabelEncoder() labels = le.fit_transform(labels) # partition the data into training and testing splits using 75% of # the data for training and the remaining 25% for testing (trainX, testX, trainY, testY) = train_test_split(data, labels, test_size=0.25, random_state=42) # train and evaluate a k-NN classifier on the raw pixel intensities print("[INFO] evaluating k-NN classifier...") model = KNeighborsClassifier(n_neighbors=args["neighbors"], n_jobs=args["jobs"]) model.fit(trainX, trainY) print(classification_report(testY, model.predict(testX), target_names=le.classes_)) ``` ```
maven打包时报错,dependencies.dependency.(groupId:artifactId:type:classifier)' must be unique
maven项目打包时报错,如下图,困扰了我两天了,心力交瘁,还望走过路过的前辈给与指点,谢谢!!maven3.2.5,jdk1.6 ![图片说明](https://img-ask.csdn.net/upload/201910/21/1571624802_850311.jpg) ![图片说明](https://img-ask.csdn.net/upload/201910/21/1571624858_650725.jpg)
吐血!ValueError: shapes (278,6751) and (0,) not aligned: 6751 (dim 1) != 0 (dim 0)
def predict(self, features, method, parameters=[], labelValidation=[], classifier=[]): """ To compute the model parameters given the feature matrix and the labels of a training dataset INPUTS: parameters: 1D np.array, the parameters of the model features -- 2D np.array, feature matrix containung the features extracting from the dataset labelValidation -- 1D np.array, the labels used for validation OUTPUTS: predictedData: 1D np.array, the predicted labels """ # Number of 3D MRI images in the dataset: nbSamples = features.shape[0] if method in ["Random Forest", "AdaBoost", "Bagging", "Gradient Boosting"]: predictedData = classifier.predict_proba( features )[:,1] #print(predictedData) elif method == "SVM": predictions = classifier.predict( features ) predictedData = np.zeros(len(predictions)) # We change the values predicted by the support vector machine # classifier: 0-->0.1 and 1-->0.9. This allows reducing the # logistic score: for i in range (len(predictions)): if predictions[i] == 0: predictedData[i] = 0.1 else: predictedData[i] = 0.9 elif method in ["Multi SVM", "Multi Random Forest"]: predictedData = classifier.predict( features ) else: # The first column of the feature matrix should be the bias: bias = np.ones([nbSamples,1]) features = np.concatenate((bias, features), axis=1) # Prediction of the model for the given dataset: predictedData = features.dot( parameters ) # Computation of the error of the predicted data: if len(labelValidation) > 0: if method in ["Random Forest", "SVM", "AdaBoost", "Bagging", "Gradient Boosting"]: error = log_loss(labelValidation, predictedData) elif method in ["Multi Random Forest", "Multi SVM"]: predictionsMultiple = np.zeros([len(labelValidation), 3]) truePrediction = np.zeros([len(labelValidation), 3]) for i in range(len(labelValidation)): predictionsMultiple[i,:] = self.classToLabels[\ predictedData[i],:] # True labels: truePrediction[i,:] = self.classToLabels[\ labelValidation[i],:] # Score function: error = np.mean(np.abs(predictionsMultiple - truePrediction)) else: error = (np.mean((predictedData - labelValidation)**2)) return predictedData, error else: return predictedData ``` modelParameters = data2Predict.buildClassifier(featureMatrix, \ label, method = "RidgeCV") # Prediction of the data using the model parameters: MSESelf = data2Predict.predict(featureMatrix,modelParameters ,\ labelValidation = label) ``` ![图片说明](https://img-ask.csdn.net/upload/201907/15/1563192145_294154.png)
imblearn.ensemble下面的 BalanceCascade 为什么没有对应的分类器对象呢?
imblearn.ensemble下面的 imblearn.ensemble.EasyEnsemble 有一个对应的分类器叫 imblearn.ensemble.EasyEnsembleClassifier , 但imblearn.ensemble下面的 BalanceCascade 却没有对应的“Classifier”,那如何基于 BalanceCascade 得到的n个数据子集来构建分类器呢?
java weka 朴素贝叶斯算法 数据分类问题
现在有一个需求需要实现如下功能: 根据x,y,z的值得到状态,比如:0.5,0.1,0.2 状态是sit;0.6,0.1,0.2 状态是stand. 后来上网查到weka这个东西,因为我对算法确实不太了解,也没看懂,只能模仿。 我有一个训练样本,命名test1.arff,内容的一部分如下: @relation test1 @attribute x numeric @attribute y numeric @attribute z numeric @attribute status {sit, sit_down, stand, stand_up, walk} @data -0.09375,0.01178,-0.96912,sit -0.09375,0.01178,-1.0003,sit -0.078125,0.027283,-1.0004,sit -0.10931,0.027283,-1.0004,sit -0.1875,0.01178,-0.96948,sit -0.21844,0.089783,-1.0009,sit -0.21844,0.074158,-0.9541,sit -0.24976,0.074341,-1.0009,sit 采集的数据我放到一个.csv文件中,命名testcsv.csv,内容如下: x y z -0.31317 -0.15991 -0.92328 -0.34442 -0.15991 -0.92328 -0.34442 -0.15991 -0.92328 -0.34442 -0.15997 -0.9389 -0.34442 -0.15997 -0.92328 -0.34442 -0.17554 -0.92322 -0.32886 -0.17554 -0.92322 -0.3288 -0.15985 -0.90759 -0.34442 -0.15997 -0.9389 -0.34442 -0.1756 -0.92328 -0.34448 -0.15991 -0.92322 现在就是想能通过weka的朴素贝叶斯算法,根据训练样本数据的状态分类,得到我采集的这些数据的状态。请问该如何实现呢。 // 读入训练样本 File file = new File("D:\\wekaTest\\test1.arff"); ArffLoader loader = new ArffLoader(); loader.setFile(file); ins = loader.getDataSet(); ins.setClassIndex(ins.numAttributes() - 1); // 初始化分类器 cfs = (Classifier) Class.forName("weka.classifiers.bayes.NaiveBayes").newInstance(); // 使用训练样本进行分类 cfs.buildClassifier(ins); System.out.println(cfs.toString()); 下面就不会写了。。。。 非常着急啊,weka的API也没看懂,全英文。。。 请大神指点。
NDK开发的时候遇到error: undefined reference to 错误
大家好,我在正在将C++的一些代码通过ndk调用到android项目里面去,但是在出现了一个很奇怪的错误; /bin/ld: ./obj/local/armeabi/objs/TestNDK2/TestNDK2.o: in function Java_com_example_testndk2_MainActivity_stringTestNdk(_JNIEnv*, _jobject*):jni/TestNDK2.cpp:15: error: undefined reference to 'CFeatureExtract::CFeatureExtract()' collect2: ld returned 1 exit status make: *** [obj/local/armeabi/libTestNDK2.so] Error 1 我调用jni的文件代码为: #include <string.h> #include "FeatureExtract.h" #include "Output.h" #include <jni.h> jstring Java_com_example_testndk2_MainActivity_stringTestNdk( JNIEnv* env, jobject thiz ) { COutput * pout; pout = new COutput(); CFeatureExtract *pFtr; pFtr=new CFeatureExtract(); return (env)->NewStringUTF("Hello from JNI and anbo !"); } mk文件也编写好了,应该没什么问题,之所以说没问题是因为,我在上面调用了其他cpp文件的 output.cpp和FeatureExtract.cpp等好几个cpp文件,当我把 pFtr=new CFeatureExtract(); 这行去掉的时候,会发现不再报错。下面是我的mk的代码: LOCAL_PATH := $(call my-dir) include $(CLEAR_VARS) LOCAL_MODULE := libFeatureExtract LOCAL_SRC_FILES := OnlineFtr.cpp OnlineNorm.cpp FeatureExtract.cpp LOCAL_C_INCLUDES := $(LOCAL_PATH)/include include $(BUILD_STATIC_LIBRARY) include $(CLEAR_VARS) LOCAL_MODULE := libOutput LOCAL_SRC_FILES := LQDFR.cpp Classifier.cpp Output.cpp include $(BUILD_STATIC_LIBRARY) include $(CLEAR_VARS) LOCAL_MODULE := TestNDK2 LOCAL_SRC_FILES := TestNDK2.cpp LOCAL_STATIC_LIBRARIES := libFeatureExtract LOCAL_STATIC_LIBRARIES := libOutput include $(BUILD_SHARED_LIBRARY) 最后是我CFeatureExtract构造函数的代码: CFeatureExtract::CFeatureExtract() { nmdir = 0; nwid = zone*zstep; pNorm = new COnlineNorm; pFeatr = new COnlineFtr( nwid ); //edit by anbo trajnorm = NULL; new_ptnum =0; new_ptnum_total=0; strokeEnd=0; strokeBegin=0; countStroke=0; GaussModel_probability =0; } 下面是.h头文件的部分声明 class CFeatureExtract{ public: CFeatureExtract(); ~CFeatureExtract(); 非常想知道到底哪里错了啊!感谢!
springboot证书配置问题
srping boot项目配置完证书后,idea中启动正常,打包成jar后用java -jar 运行报如下错误 ``` 11:12:04.641 [main] ERROR o.a.c.u.LifecycleBase - [log,175] - Failed to start co mponent [Connector[HTTP/1.1-443]] org.apache.catalina.LifecycleException: Protocol handler start failed at org.apache.catalina.connector.Connector.startInternal(Connector.java: 1008) at org.apache.catalina.util.LifecycleBase.start(LifecycleBase.java:183) at org.apache.catalina.core.StandardService.addConnector(StandardService .java:227) at org.springframework.boot.web.embedded.tomcat.TomcatWebServer.addPrevi ouslyRemovedConnectors(TomcatWebServer.java:263) at org.springframework.boot.web.embedded.tomcat.TomcatWebServer.start(To mcatWebServer.java:195) at org.springframework.boot.web.servlet.context.ServletWebServerApplicat ionContext.startWebServer(ServletWebServerApplicationContext.java:297) at org.springframework.boot.web.servlet.context.ServletWebServerApplicat ionContext.finishRefresh(ServletWebServerApplicationContext.java:163) at org.springframework.context.support.AbstractApplicationContext.refres h(AbstractApplicationContext.java:552) at org.springframework.boot.web.servlet.context.ServletWebServerApplicat ionContext.refresh(ServletWebServerApplicationContext.java:141) at org.springframework.boot.SpringApplication.refresh(SpringApplication. java:744) at org.springframework.boot.SpringApplication.refreshContext(SpringAppli cation.java:391) at org.springframework.boot.SpringApplication.run(SpringApplication.java :312) at org.springframework.boot.SpringApplication.run(SpringApplication.java :1215) at org.springframework.boot.SpringApplication.run(SpringApplication.java :1204) at com.weclud.WebApplication.main(WebApplication.java:21) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl. java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces sorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.springframework.boot.loader.MainMethodRunner.run(MainMethodRunner .java:48) at org.springframework.boot.loader.Launcher.launch(Launcher.java:87) at org.springframework.boot.loader.Launcher.launch(Launcher.java:51) at org.springframework.boot.loader.PropertiesLauncher.main(PropertiesLau ncher.java:578) Caused by: java.lang.IllegalArgumentException: Stream closed at org.apache.tomcat.util.net.AbstractJsseEndpoint.createSSLContext(Abst ractJsseEndpoint.java:99) at org.apache.tomcat.util.net.AbstractJsseEndpoint.initialiseSsl(Abstrac tJsseEndpoint.java:71) at org.apache.tomcat.util.net.NioEndpoint.bind(NioEndpoint.java:218) at org.apache.tomcat.util.net.AbstractEndpoint.bindWithCleanup(AbstractE ndpoint.java:1124) at org.apache.tomcat.util.net.AbstractEndpoint.start(AbstractEndpoint.ja va:1210) at org.apache.coyote.AbstractProtocol.start(AbstractProtocol.java:585) at org.apache.catalina.connector.Connector.startInternal(Connector.java: 1005) ... 22 common frames omitted Caused by: java.io.IOException: Stream closed at java.util.zip.InflaterInputStream.ensureOpen(InflaterInputStream.java :67) at java.util.zip.InflaterInputStream.read(InflaterInputStream.java:142) at org.springframework.boot.loader.jar.ZipInflaterInputStream.read(ZipIn flaterInputStream.java:52) at java.io.BufferedInputStream.fill(BufferedInputStream.java:246) at java.io.BufferedInputStream.read(BufferedInputStream.java:265) at java.security.DigestInputStream.read(DigestInputStream.java:124) at java.io.DataInputStream.readInt(DataInputStream.java:387) at sun.security.provider.JavaKeyStore.engineLoad(JavaKeyStore.java:653) at sun.security.provider.JavaKeyStore$JKS.engineLoad(JavaKeyStore.java:5 6) at sun.security.provider.KeyStoreDelegator.engineLoad(KeyStoreDelegator. java:224) at sun.security.provider.JavaKeyStore$DualFormatJKS.engineLoad(JavaKeySt ore.java:70) at java.security.KeyStore.load(KeyStore.java:1445) at org.apache.tomcat.util.security.KeyStoreUtil.load(KeyStoreUtil.java:6 9) at org.apache.tomcat.util.net.SSLUtilBase.getStore(SSLUtilBase.java:217) at org.apache.tomcat.util.net.SSLHostConfigCertificate.getCertificateKey store(SSLHostConfigCertificate.java:206) at org.apache.tomcat.util.net.SSLUtilBase.getKeyManagers(SSLUtilBase.jav a:283) at org.apache.tomcat.util.net.SSLUtilBase.createSSLContext(SSLUtilBase.j ava:247) at org.apache.tomcat.util.net.AbstractJsseEndpoint.createSSLContext(Abst ractJsseEndpoint.java:97) ... 28 common frames omitted ``` 这是相关配置 ``` # 项目相关配置 weclud: # 名称 name: 文件管理 # 版本 version: 1.0 # 版权年份 copyrightYear: 2019 # 获取ip地址开关 addressEnabled: true # 开发环境配置 server: # 服务端口 port: 443 servlet: # 项目contextPath context-path: tomcat: # tomcat的URI编码 uri-encoding: UTF-8 # tomcat最大线程数,默认为200 max-threads: 800 # Tomcat启动初始化的线程数,默认值25 min-spare-threads: 30 ssl: key-store: classpath:static/dacx.weclud.com.jks key-store-password: zhang1990 key-store-type: jks ``` ``` <build> <resources> <resource> <directory>src/main/resources</directory> <includes> <include>**.*</include> <include>**/*.*</include><!-- i18n能读取到 --> <include>**/*/*.*</include> </includes> </resource> <resource> <directory>src/main/resources</directory> <filtering>true</filtering> <excludes> <exclude>ssl/**</exclude> <exclude>static/**</exclude> <exclude>templates/**</exclude> </excludes> </resource> </resources> <!-- 为jar包取名 --> <finalName>weclud-web</finalName> <plugins> <!-- 热布署 --> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> <configuration> <!--fork : 如果没有该项配置,这个devtools不会起作用,即应用不会restart --> <fork>true</fork> <jvmArguments>-Dfile.encoding=UTF-8</jvmArguments> <mainClass>com.weclud.WebApplication</mainClass> <!-- <layout>ZIP</layout>--> </configuration> <executions> <execution> <goals> <goal>repackage</goal><!--可以把依赖的包都打包到生成的Jar包中--> </goals> <!--可以生成不含依赖包的不可执行Jar包--> <!-- configuration> <classifier>exec</classifier> </configuration> --> </execution> </executions> </plugin> </plugins> </build> ```
springboot加了个redis依赖后启动运行日志就少了?
我的pom依赖 ``` <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.1.4.RELEASE</version> <relativePath/> <!-- lookup parent from repository --> </parent> <groupId>com.jeecg</groupId> <artifactId>bgApi</artifactId> <packaging>jar</packaging> <name>bgApi</name> <version>1.0.0</version> <description>Demo project for Spring Boot</description> <properties> <java.version>1.8</java.version> <tomcat.version>8.5.27</tomcat.version> <servlet-api.version>3.0.1</servlet-api.version> </properties> <dependencies> <!-- redis 依赖--> <dependency> <groupId>redis.clients</groupId> <artifactId>jedis</artifactId> </dependency> <!-- redis --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-redis</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-websocket</artifactId> </dependency> <dependency> <groupId>cn.jpush.api</groupId> <artifactId>jiguang-common</artifactId> <version>1.0.8</version> </dependency> <dependency> <groupId>net.coobird</groupId> <artifactId>thumbnailator</artifactId> <version>0.4.6</version> </dependency> <dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>4.1.18</version> </dependency> <dependency> <groupId>net.sf.json-lib</groupId> <artifactId>json-lib</artifactId> <version>2.4</version> <classifier>jdk15</classifier> </dependency> <dependency> <groupId>com.google.zxing</groupId> <artifactId>core</artifactId> <version>3.3.3</version> </dependency> <dependency> <groupId>com.google.zxing</groupId> <artifactId>javase</artifactId> <version>3.3.3</version> </dependency> <dependency> <groupId>com.jhlabs</groupId> <artifactId>filters</artifactId> <version>2.0.235-1</version> </dependency> <dependency> <groupId>org.apache.httpcomponents</groupId> <artifactId>httpclient</artifactId> <version>4.5.1</version> </dependency> <dependency> <groupId>com.alibaba</groupId> <artifactId>fastjson</artifactId> <version>1.2.6</version> </dependency> <dependency> <groupId>org.apache.httpcomponents</groupId> <artifactId>httpcore</artifactId> <version>4.4.3</version> </dependency> <dependency> <groupId>org.apache.httpcomponents</groupId> <artifactId>httpmime</artifactId> <version>4.5.1</version> </dependency> <dependency> <groupId>org.apache.shiro</groupId> <artifactId>shiro-spring</artifactId> <version>1.4.0</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> <exclusions> <exclusion> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-logging</artifactId> </exclusion> </exclusions> </dependency> <dependency> <groupId>cn.afterturn</groupId> <artifactId>easypoi-base</artifactId> <version>3.2.0</version> </dependency> <dependency> <groupId>cn.afterturn</groupId> <artifactId>easypoi-web</artifactId> <version>3.2.0</version> </dependency> <dependency> <groupId>cn.afterturn</groupId> <artifactId>easypoi-annotation</artifactId> <version>3.2.0</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-thymeleaf</artifactId> </dependency> <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <scope>runtime</scope> <version>5.1.46</version> </dependency> <dependency> <groupId>org.mybatis.spring.boot</groupId> <artifactId>mybatis-spring-boot-starter</artifactId> <version>1.3.2</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-devtools</artifactId> <optional>true</optional> <!-- 这个需要为 true 热部署才有效 --> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-jdbc</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-mail</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-log4j</artifactId> <version>1.3.8.RELEASE</version> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> <dependency> <groupId>com.baomidou</groupId> <artifactId>mybatis-plus-boot-starter</artifactId> <version>3.0.1</version> </dependency> </dependencies> <build> <finalName>bgApi</finalName> <defaultGoal>install</defaultGoal> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> <resources> <resource> <directory>src/main/java</directory> <includes> <include>**/*.xml</include> </includes> </resource> <resource> <directory>src/main/resources</directory> </resource> </resources> </build> </project> ``` 没加redis依赖的时候sql语句都可以打印,现在没有了,是怎么回事啊
linux C++ cmake编译通过,链接的时候出错
今天跑一个老师给的代码,安装了shark、boost和opencv,编译该通过了,但是链接的时候报错,错误如下: /usr/bin/ld: CMakeFiles/test.dir/classifier.cc.o: undefined reference to symbol 'cblas_dgemm' /usr/lib/atlas-base/atlas/libblas.so.3: error adding symbols: DSO missing from command line collect2: error: ld returned 1 exit status src/CMakeFiles/test.dir/build.make:302: recipe for target 'src/test' failed make[2]: *** [src/test] Error 1 CMakeFiles/Makefile2:85: recipe for target 'src/CMakeFiles/test.dir/all' failed make[1]: *** [src/CMakeFiles/test.dir/all] Error 2 Makefile:83: recipe for target 'all' failed make: *** [all] Error 2 百度谷歌了好久实在不知道怎么解决,请问有木有大神指导怎么解决= =
python深度学习分类后的 混淆矩阵的显示方式为什么不是单纯的一个矩阵
书里的结果就是一个矩阵,但是我运行后的混淆矩阵上面还有(200,2),我设置的目标值为1或者2,但不知道为什么200后面是2,这个2和设置的1,2有关系吗 ![图片说明](https://img-ask.csdn.net/upload/201909/11/1568131642_681643.png) ``` import numpy as np import urllib.request import pandas as pd from pandas import DataFrame import numpy as np import pandas as pd import xlrd from sklearn import preprocessing def excel_to_matrix(path): table = xlrd.open_workbook(path).sheets()[0] # 获取第一个sheet表 row = table.nrows # 行数 col = table.ncols # 列数 datamatrix = np.zeros((row, col)) for x in range(col): cols = np.matrix(table.col_values(x)) datamatrix[:, x] = cols return datamatrix datafile = u'C:\\Users\\asus\\PycharmProjects\\2\\venv\\Lib\\附件2:数据.xls' datamatrix=excel_to_matrix(datafile) data=pd.DataFrame(datamatrix) y=data[10] data=data.drop(10,1) x=data from sklearn import preprocessing x_MinMax=preprocessing.MinMaxScaler() y=np.array(y).reshape((len(y),1)) x=x_MinMax.fit_transform(x) x.mean(axis=0) import random from sklearn.cross_validation import train_test_split np.random.seed(2016) x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2) from sknn.mlp import Classifier,Layer #预测模型 fit3=Classifier(layers=[Layer('Tanh',units=38),Layer('Tanh',units=45), Layer('Tanh', units=28), Layer('Softmax')], learning_rate=0.02, random_state=2016, n_iter=100, dropout_rate=0.05, batch_size=50, learning_rule=u'adadelta', learning_momentum=0.005 ) fit3.fit(x_train,y_train) from sklearn.metrics import confusion_matrix predict3_train=fit3.predict(x_train) print(predict3_train) predict3_test=fit3.predict(x_test) confu3_test=confusion_matrix(y_test,predict3_test) print(confu3_test) ```
mahout文档自动分类(有监督学习)问题求救
Hadoop2.2.0, mahout0.6 想做一个word文档自动分类的程序(有监督学习,类别事先已经定义好,就两类财务和人事),始终不成功,求救 一,训练数据 搞了7个finance的word和7个hr的word,用程序生成一个分词后的文本.如下: terms.txt finance 会计 会计制度 会计 制度 会计核算 会计 核算 aa finance 会计 会计制度 会计 制度 会计核算 会计 核算 aa finance 会计 会计制度 会计 制度 会计核算 会计 核算 核算 管理 会计 管理 aa finance 会计统计 会计 统计 会计制度 会计 制度 aa finance 会计核算 会计 核算 制度 1 aa finance 会计 报销 制度 aa finance 会计 任免 奖惩制度 奖惩 制度 aa hr 干部 提拔 制度 bb hr 机关干部 机关 干部 部奖 奖惩 bb hr 领导干部 领导 干部 行为规范 行为 规范 第 1 页 共 1 页 bb hr 人事管理 人事 管理 系统分析 系统 统分 分析 与 设计 干部 任免 会议 1 1 bb hr 老干部 干部 活动中心 活动 中心 bb hr 群众 干部 打成一片 打成 一片 一 片 bb hr 行政 干部 条例 机关干部 机关 干部 部下 下乡 bb 二\生成模型 hadoop fs -put /download/terms.txt hdfs://hadoop-node1:9000/testdata/train mahout trainclassifier -i /testdata/train -o /testdata/model -type bayes -ng 1 -source hdfs 模型也生成的很好 [root@hadoop-node1 Desktop]# hadoop fs -ls hdfs://hadoop-node1:9000/testdata/model/trainer-tfIdf/trainer-tfIdf Found 1 items -rw-r--r-- 3 root supergroup 1524 2014-05-23 11:22 hdfs://hadoop-node1:9000/testdata/model/trainer-tfIdf/trainer-tfIdf/part-00000 三\测试 1)测试1 public static void main(String[] args) { // TODO Auto-generated method stub BayesParameters params = new BayesParameters(); params.set("classifierType", "bayes"); params.set("method", "sequential"); params.set("gramSize", "1"); params.set("dataSource", "hdfs"); params.set("model", "hdfs://192.168.1.201:9000/testdata/model"); Algorithm algorithm = new BayesAlgorithm(); Datastore datastore = new InMemoryBayesDatastore(params); try { ClassifierContext classifier = new ClassifierContext(algorithm, datastore); classifier.initialize(); String[] str = new String[1]; str[0] = "会计"; ClassifierResult best = classifier.classifyDocument(str, "unknown"); System.out.println(best.getLabel() + "---1---" + best.getScore()); str = new String[1]; str[0] = "aa"; best = classifier.classifyDocument(str, "unknown"); System.out.println(best.getLabel() + "---2---" + best.getScore()); str[0] = "干部"; best = classifier.classifyDocument(str, "unknown"); System.out.println(best.getLabel() + "---3---" + best.getScore()); str[0] = "bb"; best = classifier.classifyDocument(str, "unknown"); System.out.println(best.getLabel() + "---3---" + best.getScore()); } catch (Exception e) { e.printStackTrace(); } } 用 java -jar ml.jar结果都是 2014-05-23 12:23:09,464 WARN [main] util.NativeCodeLoader (NativeCodeLoader.java:<clinit>(62)) - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable (这段提示应该没关系,我做别的应用都有,不影响结果) unknown---1---1.7976931348623157E308 unknown---2---1.7976931348623157E308 unknown---3---1.7976931348623157E308 unknown---3---1.7976931348623157E308 2)测试2 准备测试数据 terms4test.txt finance 会计 报销 制度 aa hr 老干部 干部 活动中心 活动 中心 bb 执行 mahout testclassifier -d /testdata/test -m /testdata/model -type bayes -ng 1 -source hdfs -method sequential 结果是: [root@hadoop-node1 Desktop]# mahout testclassifier -d /testdata/test -m /testdata/model -type bayes -ng 1 -source hdfs -method sequential MAHOUT_LOCAL is not set; adding HADOOP_CONF_DIR to classpath. Running on hadoop, using HADOOP_HOME=/home/cluster/hadoop-2.2.0 HADOOP_CONF_DIR=/home/cluster/hadoop-2.2.0/etc/hadoop MAHOUT-JOB: /home/cluster/mahout-0.6/mahout-examples-0.6-job.jar 14/05/23 13:47:16 INFO bayes.TestClassifier: Loading model from: {basePath=/testdata/model, classifierType=bayes, alpha_i=1.0, dataSource=hdfs, gramSize=1, verbose=false, confusionMatrix=null, encoding=UTF-8, defaultCat=unknown, testDirPath=/testdata/test} 14/05/23 13:47:16 INFO bayes.TestClassifier: Testing Bayes Classifier 14/05/23 13:47:19 INFO bayes.SequenceFileModelReader: 13.234485816760284 14/05/23 13:47:19 INFO bayes.InMemoryBayesDatastore: finance -32.77372087917866 88.2943409498656 -0.3711871058394094 14/05/23 13:47:19 INFO bayes.InMemoryBayesDatastore: hr -88.2943409498656 88.2943409498656 -1.0 14/05/23 13:47:19 INFO bayes.TestClassifier: ======================================================= Summary ------------------------------------------------------- Correctly Classified Instances : 0 �% Incorrectly Classified Instances : 0 �% Total Classified Instances : 0 ======================================================= Confusion Matrix ------------------------------------------------------- a b <--Classified as 0 0 | 0 a = finance 0 0 | 0 b = hr 14/05/23 13:47:19 INFO driver.MahoutDriver: Program took 3380 ms (Minutes: 0.05633333333333333)
python深度学习分类后的 混淆矩阵的意义
有大佬可以解释混淆矩阵上面还有(200,2)是什么意思吗,我设置的目标值为1或者2,但不知道为什么200后面是2,这个2和设置的1,2有关系吗 ![图片说明](https://img-ask.csdn.net/upload/201909/13/1568362335_282979.png) ``` import numpy as np import urllib.request import pandas as pd from pandas import DataFrame import numpy as np import pandas as pd import xlrd from sklearn import preprocessing def excel_to_matrix(path): table = xlrd.open_workbook(path).sheets()[0] # 获取第一个sheet表 row = table.nrows # 行数 col = table.ncols # 列数 datamatrix = np.zeros((row, col)) for x in range(col): cols = np.matrix(table.col_values(x)) datamatrix[:, x] = cols return datamatrix datafile = u'C:\\Users\\asus\\PycharmProjects\\2\\venv\\Lib\\附件2:数据.xls' datamatrix=excel_to_matrix(datafile) data=pd.DataFrame(datamatrix) y=data[10] data=data.drop(10,1) x=data from sklearn import preprocessing x_MinMax=preprocessing.MinMaxScaler() y=np.array(y).reshape((len(y),1)) x=x_MinMax.fit_transform(x) x.mean(axis=0) import random from sklearn.cross_validation import train_test_split np.random.seed(2016) x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2) from sknn.mlp import Classifier,Layer #预测模型 fit3=Classifier(layers=[Layer('Tanh',units=38),Layer('Tanh',units=45), Layer('Tanh', units=28), Layer('Softmax')], learning_rate=0.02, random_state=2016, n_iter=100, dropout_rate=0.05, batch_size=50, learning_rule=u'adadelta', learning_momentum=0.005 ) fit3.fit(x_train,y_train) from sklearn.metrics import confusion_matrix predict3_train=fit3.predict(x_train) print(predict3_train) predict3_test=fit3.predict(x_test) confu3_test=confusion_matrix(y_test,predict3_test) print(confu3_test) ```
function takes at least 2 arguments(1 given)
机器学习实战kNN篇手写数字识别: ``` def img2vector(filename): file=open(filename) imgvector=zeros((1,1024)) for i in range(32): line=file.readline() for j in range(32): imgvector[0,32*i+j]=int(line[j]) return imgvector def handwritingClassifier(): hwlabels=[] trainingfilelist=listdir('trainingDigits') m=len(trainingfilelist) trainingMat=zeros((m,1024)) for i in range(m): fn=trainingfilelist[i] filename1=fn.split('.')[0] filelabel=int(filename1.split('_')[0]) hwlabels.append(filelabel) trainingMat[i,:]=img2vector('trainingDigits/%s' % fn) testfilelist=listdir('testDigits') mT=len(testfilelist) errorCount=0.0 for i in range(mT): filenameT=testfilelist[i] filename1T=filenameT.split('.')[0] filelabelT=int(filename1T.split('_')[0]) testfilevector=img2vector('testDigits/%s' % filenameT) predictlabel=Classifier(testfilevector,trainingMat,hwlabels,5) if (predictlabel!=filelabelT): errorCount+=1.0 print "the classifier came back with %d ,the real answer is %d " % (predictlabel,filelabelT) print "the error rate is %f" % (errorCount/float(mT)) ``` 结果在命令行输入import kNN ...kNN.handwritingClassifier()的时候 TypeError Traceback (most recent call last) <ipython-input-1-b18521761a29> in <module>() 1 import kNN ----> 2 kNN.handwritingClassifier() C:\Users\Administrator\kNN.py in handwritingClassifier() 99 filelabel=int(filename1.split('_')[0]) 100 hwlabels.append(filelabel) --> 101 trainingMat[i,:]=img2vector('trainingDigits/%s' % fn) 102 testfilelist=listdir('testDigits') 103 mT=len(testfilelist) C:\Users\Administrator\kNN.py in img2vector(filename) 81 82 def img2vector(filename): ---> 83 file=open(filename) 84 imgvector=zeros((1,1024)) 85 for i in range(32): TypeError: function takes at least 2 arguments (1 given) 小白一枚,请问到底哪里有问题,open函数不是只要一个参数吗,用的是python2.7望指教!!
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
将代码部署服务器,每日早上定时获取到天气数据,并发送到邮箱。 也可以说是一个小人工智障。 思路可以运用在不同地方,主要介绍的是思路。
Linux(服务器编程):15---两种高效的事件处理模式(reactor模式、proactor模式)
前言 同步I/O模型通常用于实现Reactor模式 异步I/O模型则用于实现Proactor模式 最后我们会使用同步I/O方式模拟出Proactor模式 一、Reactor模式 Reactor模式特点 它要求主线程(I/O处理单元)只负责监听文件描述符上是否有事件发生,有的话就立即将时间通知工作线程(逻辑单元)。除此之外,主线程不做任何其他实质性的工作 读写数据,接受新的连接,以及处...
为什么要学数据结构?
一、前言 在可视化化程序设计的今天,借助于集成开发环境可以很快地生成程序,程序设计不再是计算机专业人员的专利。很多人认为,只要掌握几种开发工具就可以成为编程高手,其实,这是一种误解。要想成为一个专业的开发人员,至少需要以下三个条件: 1) 能够熟练地选择和设计各种数据结构和算法 2) 至少要能够熟练地掌握一门程序设计语言 3) 熟知所涉及的相关应用领域的知识 其中,后两个条件比较容易实现,而第一个...
C语言魔塔游戏
很早就很想写这个,今天终于写完了。 游戏截图: 编译环境: VS2017 游戏需要一些图片,如果有想要的或者对游戏有什么看法的可以加我的QQ 2985486630 讨论,如果暂时没有回应,可以在博客下方留言,到时候我会看到。 下面我来介绍一下游戏的主要功能和实现方式 首先是玩家的定义,使用结构体,这个名字是可以自己改变的 struct gamerole { char n
进程通信方式总结与盘点
​ 进程通信是指进程之间的信息交换。这里需要和进程同步做一下区分,进程同步控制多个进程按一定顺序执行,进程通信是一种手段,而进程同步是目标。从某方面来讲,进程通信可以解决进程同步问题。 ​ 首先回顾下我们前面博文中讲到的信号量机制,为了实现进程的互斥与同步,需要在进程间交换一定的信息,因此信号量机制也可以被归为进程通信的一种方式,但是也被称为低级进程通信,主要原因为: 效率低:一次只可操作少量的...
究竟你适不适合买Mac?
我清晰的记得,刚买的macbook pro回到家,开机后第一件事情,就是上了淘宝网,花了500元钱,找了一个上门维修电脑的师傅,上门给我装了一个windows系统。。。。。。 表砍我。。。 当时买mac的初衷,只是想要个固态硬盘的笔记本,用来运行一些复杂的扑克软件。而看了当时所有的SSD笔记本后,最终决定,还是买个好(xiong)看(da)的。 已经有好几个朋友问我mba怎么样了,所以今天尽量客观
听说了吗?阿里双11作战室竟1根网线都没有
双11不光是购物狂欢节,更是对技术的一次“大考”,对于阿里巴巴企业内部运营的基础保障技术而言,亦是如此。 回溯双11历史,这背后也经历过“小米加步枪”的阶段:作战室从随处是网线,交换机放地上的“一地狼藉”;到如今媲美5G的wifi网速,到现场却看不到一根网线;从当年使用商用AP(无线路由器),让光明顶双11当天断网一分钟,到全部使用阿里自研AP……阿里巴巴企业智能事业部工程师们提供的基础保障...
在阿里,40岁的奋斗姿势
在阿里,40岁的奋斗姿势 在阿里,什么样的年纪可以称为老呢?35岁? 在云网络,有这样一群人,他们的平均年龄接近40,却刚刚开辟职业生涯的第二战场。 他们的奋斗姿势是什么样的呢? 洛神赋 “翩若惊鸿,婉若游龙。荣曜秋菊,华茂春松。髣髴兮若轻云之蔽月,飘飖兮若流风之回雪。远而望之,皎若太阳升朝霞;迫而察之,灼若芙蕖出渌波。” 爱洛神,爱阿里云 2018年,阿里云网络产品部门启动洛神2.0升...
关于研发效能提升的思考
研发效能提升是最近比较热门的一个话题,本人根据这几年的工作心得,做了一些思考总结,由于个人深度有限,暂且抛转引入。 三要素 任何生产力的提升都离不开这三个因素:人、流程和工具,少了其中任何一个因素都无法实现。 人,即思想,也就是古人说的“道”,道不同不相为谋,是制高点,也是高层建筑的基石。 流程,即方法,也是古人说的“法”。研发效能的提升,也就是要提高投入产出比,既要增加产出,也要减...
Python爬虫爬取淘宝,京东商品信息
小编是一个理科生,不善长说一些废话。简单介绍下原理然后直接上代码。 使用的工具(Python+pycharm2019.3+selenium+xpath+chromedriver)其中要使用pycharm也可以私聊我selenium是一个框架可以通过pip下载 pip install selenium -i https://pypi.tuna.tsinghua.edu.cn/simple/ 
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
Java工作4年来应聘要16K最后没要,细节如下。。。
前奏: 今天2B哥和大家分享一位前几天面试的一位应聘者,工作4年26岁,统招本科。 以下就是他的简历和面试情况。 基本情况: 专业技能: 1、&nbsp;熟悉Sping了解SpringMVC、SpringBoot、Mybatis等框架、了解SpringCloud微服务 2、&nbsp;熟悉常用项目管理工具:SVN、GIT、MAVEN、Jenkins 3、&nbsp;熟悉Nginx、tomca
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆  每天早上8:30推送 作者| Mr.K   编辑| Emma 来源| 技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯
程序员该看的几部电影
##1、骇客帝国(1999) 概念:在线/离线,递归,循环,矩阵等 剧情简介: 不久的将来,网络黑客尼奥对这个看似正常的现实世界产生了怀疑。 他结识了黑客崔妮蒂,并见到了黑客组织的首领墨菲斯。 墨菲斯告诉他,现实世界其实是由一个名叫“母体”的计算机人工智能系统控制,人们就像他们饲养的动物,没有自由和思想,而尼奥就是能够拯救人类的救世主。 可是,救赎之路从来都不会一帆风顺,到底哪里才是真实的世界?
入职阿里5年,他如何破解“技术债”?
简介: 作者 | 都铎 作为一名技术人,你常常会听到这样的话: “先快速上线” “没时间改” “再缓一缓吧” “以后再解决” “先用临时方案处理” …… 当你埋下的坑越来越多,不知道哪天哪位同学就会踩上一颗雷。特别赞同“人最大的恐惧就是未知,当技术债可说不可见的时候,才是最让人不想解决的时候。” 作为一个程序员,我们反对复制粘贴,但是我们经常会见到相似的代码,相同的二方包,甚至整个代码...
Python绘图,圣诞树,花,爱心 | Turtle篇
每周每日,分享Python实战代码,入门资料,进阶资料,基础语法,爬虫,数据分析,web网站,机器学习,深度学习等等。 公众号回复【进群】沟通交流吧,QQ扫码进群学习吧 微信群 QQ群 1.画圣诞树 import turtle screen = turtle.Screen() screen.setup(800,600) circle = turtle.Turtle()...
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东
破14亿,Python分析我国存在哪些人口危机!
2020年1月17日,国家统计局发布了2019年国民经济报告,报告中指出我国人口突破14亿。 猪哥的朋友圈被14亿人口刷屏,但是很多人并没有看到我国复杂的人口问题:老龄化、男女比例失衡、生育率下降、人口红利下降等。 今天我们就来分析一下我们国家的人口数据吧! 一、背景 1.人口突破14亿 2020年1月17日,国家统计局发布了 2019年国民经济报告 ,报告中指出:年末中国大陆总人口(包括31个
在家远程办公效率低?那你一定要收好这个「在家办公」神器!
相信大家都已经收到国务院延长春节假期的消息,接下来,在家远程办公可能将会持续一段时间。 但是问题来了。远程办公不是人在电脑前就当坐班了,相反,对于沟通效率,文件协作,以及信息安全都有着极高的要求。有着非常多的挑战,比如: 1在异地互相不见面的会议上,如何提高沟通效率? 2文件之间的来往反馈如何做到及时性?如何保证信息安全? 3如何规划安排每天工作,以及如何进行成果验收? ......
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!
2020年的1月,我辞掉了我的第一份工作
其实,这篇文章,我应该早点写的,毕竟现在已经2月份了。不过一些其它原因,或者是我的惰性、还有一些迷茫的念头,让自己迟迟没有试着写一点东西,记录下,或者说是总结下自己前3年的工作上的经历、学习的过程。 我自己知道的,在写自己的博客方面,我的文笔很一般,非技术类的文章不想去写;另外我又是一个还比较热衷于技术的人,而平常复杂一点的东西,如果想写文章写的清楚点,是需要足够...
别低估自己的直觉,也别高估自己的智商
所有群全部吵翻天,朋友圈全部沦陷,公众号疯狂转发。这两周没怎么发原创,只发新闻,可能有人注意到了。我不是懒,是文章写了却没发,因为大家的关注力始终在这次的疫情上面,发了也没人看。当然,我...
Java坑人面试题系列: 包装类(中级难度)
Java Magazine上面有一个专门坑人的面试题系列: https://blogs.oracle.com/javamagazine/quiz-2。 这些问题的设计宗旨,主要是测试面试者对Java语言的了解程度,而不是为了用弯弯绕绕的手段把面试者搞蒙。 如果你看过往期的问题,就会发现每一个都不简单。 这些试题模拟了认证考试中的一些难题。 而 “中级(intermediate)” 和 “高级(ad
深度学习入门笔记(十八):卷积神经网络(一)
欢迎关注WX公众号:【程序员管小亮】 专栏——深度学习入门笔记 声明 1)该文章整理自网上的大牛和机器学习专家无私奉献的资料,具体引用的资料请看参考文献。 2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。 3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。 4)此属于第一版本,若有错误,还需继续修正与...
这个世界上人真的分三六九等,你信吗?
偶然间,在知乎上看到一个问题 一时间,勾起了我深深的回忆。 以前在厂里打过两次工,做过家教,干过辅导班,做过中介。零下几度的晚上,贴过广告,满脸、满手地长冻疮。 再回首那段岁月,虽然苦,但让我学会了坚持和忍耐。让我明白了,在这个世界上,无论环境多么的恶劣,只要心存希望,星星之火,亦可燎原。 下文是原回答,希望能对你能有所启发。 如果我说,这个世界上人真的分三六九等,...
节后首个工作日,企业们集体开晨会让钉钉挂了
By 超神经场景描述:昨天 2 月 3 日,是大部分城市号召远程工作的第一天,全国有接近 2 亿人在家开始远程办公,钉钉上也有超过 1000 万家企业活跃起来。关键词:十一出行 人脸...
Java基础知识点梳理
Java基础知识点梳理 摘要: 虽然已经在实际工作中经常与java打交道,但是一直没系统地对java这门语言进行梳理和总结,掌握的知识也比较零散。恰好利用这段时间重新认识下java,并对一些常见的语法和知识点做个总结与回顾,一方面为了加深印象,方便后面查阅,一方面为了学好java打下基础。 Java简介 java语言于1995年正式推出,最开始被命名为Oak语言,由James Gosling(詹姆
2020年全新Java学习路线图,含配套视频,学完即为中级Java程序员!!
新的一年来临,突如其来的疫情打破了平静的生活! 在家的你是否很无聊,如果无聊就来学习吧! 世上只有一种投资只赚不赔,那就是学习!!! 传智播客于2020年升级了Java学习线路图,硬核升级,免费放送! 学完你就是中级程序员,能更快一步找到工作! 一、Java基础 JavaSE基础是Java中级程序员的起点,是帮助你从小白到懂得编程的必经之路。 在Java基础板块中有6个子模块的学
B 站上有哪些很好的学习资源?
哇说起B站,在小九眼里就是宝藏般的存在,放年假宅在家时一天刷6、7个小时不在话下,更别提今年的跨年晚会,我简直是跪着看完的!! 最早大家聚在在B站是为了追番,再后来我在上面刷欧美新歌和漂亮小姐姐的舞蹈视频,最近两年我和周围的朋友们已经把B站当作学习教室了,而且学习成本还免费,真是个励志的好平台ヽ(.◕ฺˇд ˇ◕ฺ;)ノ 下面我们就来盘点一下B站上优质的学习资源: 综合类 Oeasy: 综合
你也能看懂的:蒙特卡罗方法
蒙特卡罗方法,也称统计模拟方法,是1940年代中期由于科学技术的发展和电子计算机的发明,而提出的一种以概率统计理论为指导的数值计算方法。是指使用随机数(或更常见的伪随机数)来解决很多计算问题的方法 蒙特卡罗方法可以粗略地分成两类:一类是所求解的问题本身具有内在的随机性,借助计算机的运算能力可以直接模拟这种随机的过程。另一种类型是所求解问题可以转化为某种随机分布的特征数,比如随机事件出现的概率,或...
如何优雅地打印一个Java对象?
你好呀,我是沉默王二,一个和黄家驹一样身高,和刘德华一样颜值的程序员。虽然已经写了十多年的 Java 代码,但仍然觉得自己是个菜鸟(请允许我惭愧一下)。 在一个月黑风高的夜晚,我思前想后,觉得再也不能这么蹉跎下去了。于是痛下决心,准备通过输出的方式倒逼输入,以此来修炼自己的内功,从而进阶成为一名真正意义上的大神。与此同时,希望这些文章能够帮助到更多的读者,让大家在学习的路上不再寂寞、空虚和冷。 ...
相关热词 c# 识别回车 c#生成条形码ean13 c#子控制器调用父控制器 c# 写大文件 c# 浏览pdf c#获取桌面图标的句柄 c# list反射 c# 句柄 进程 c# 倒计时 线程 c# 窗体背景色
立即提问

相似问题

4
急!在线等。使用maven把项目打成war包,java文件没有被包含进去!!!!
2
boot项目eclipse可以正常运行,打包成jar包之后就报错Cannot determine embedded...
2
eclipse导入javaFX项目,报缺少javafx-packager:jar:1.8.0_20 搞不定,大神进来帮我看看
1
再看DANN的源码,在forword里有一处看不懂,类名.apply()在python3里是什么意思?
1
KNN问题:两段代码几乎相同,对同一个文件进行测试,一个错误率%1,一个80% ?
2
ValueError: No data files found in satellite/data\satellite_train_*.tfrecord
1
学校机器学习的目录, 全部英文
0
通过CountVectorizer和chi2特征提取,进行文本分类,准确率只有0.34正常吗
0
安卓opencv人脸检测无法运行
1
detectMultiScale函数一加入就会崩溃,程序自动停止但不报错,求解!
1
求助,opencv车辆识别报错
1
报错:sys.argv[1] IndexError: list index out of range?
2
Linux 环境下 无法加载 libnetty-transport-native-epoll.so
1
吐血!ValueError: shapes (278,6751) and (0,) not aligned: 6751 (dim 1) != 0 (dim 0)
0
导入模块错误:(无法从“string”导入名称“atof”)【python】
2
maven 依赖 用 tomcat7-maven插件 run运行时报错 求解决
0
imblearn.ensemble下面的 BalanceCascade 为什么没有对应的分类器对象呢?
1
python深度学习分类后的 混淆矩阵的显示方式为什么不是单纯的一个矩阵
1
python深度学习分类后的 混淆矩阵的意义