matlab上利用SVR对光伏发电功率历史数据进行拟合,然后预测,样本集和程序如何弄?

想在matlab上利用SVR对光伏发电历史数据进行一个拟合回归,但由于本人是一个刚入坑小白,对于样本集的设置,程序的编写并不是很懂,有偿找一个大神教导。
有意愿的可以私聊我联系方式

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
应用SVR对负荷数据进行回归分析,测试集出来的数为一条直线?
应用SVR对负荷数据进行回归分析,测试集出来的数为一条直线? ``` import numpy as np from sklearn.svm import SVR import pandas as pd import matplotlib.pyplot as plt import xlrd # 打开指定路径中的xls文件,得到book对象 xls_file = "bb.xls" #打开指定文件 book = xlrd.open_workbook(xls_file) # 通过sheet索引获得sheet对象 sheet1 = book.sheet_by_index(0) # # 获得指定索引的sheet名 # sheet1_name = book.sheet_names()[0] # print(sheet1_name) # # 通过sheet名字获得sheet对象 # sheet1 = book.sheet_by_name(sheet1_name) # 获得行数和列数 # 总行数 nrows = sheet1.nrows #总列数 ncols = sheet1.ncols # 遍历打印表中的内容 row_list=[] for i in range(nrows): for j in range(ncols): cell_value = sheet1.cell_value(i, j) row_list.append (cell_value)#append函数的用处为往一个空矩阵添加元素 x=range(1,156) #绘制横坐标时间数据 #提取Excel表里的数据cell_value即是y值 x1=np.array(x) X=x1.reshape((len(x1),1))##reshape用于转置 y=np.array(row_list) X_train=np.array(X[0:123]) #训练集124 X_test=np.array(X[124:154]) y_train=np.array(y[0:123]) #测试集31 y_test=np.array(y[124:154]) svr_rbf=SVR(kernel='rbf',C=1e3,gamma=0.1) #使用 rbf核进行拟合 clf=svr_rbf.fit(X_train,y_train) #训练得到分类器#中括号的用途 y_rbf=clf.predict(X) #预测的输出 ax=plt.subplot(111) ax.scatter(X_train,y_train,c='r',label='train') #训练集真实值的散点图 ax.scatter(X_test,y_test,c='g',label='test') #测试集真实值的散点图 ax.plot(X,y_rbf,c='b',label='RBF model') #训练集的拟合结果 #测试集的结果为一常值,是因为数据集未进行归一化处理 plt.xlabel('day') plt.ylabel('target') plt.title('Support Vector Regression') plt.legend() plt.show() 程序运行结果如下: ```![图片说明](https://img-ask.csdn.net/upload/201911/14/1573715524_788157.png) ``` 请各位大佬指点!! ``` ```
求用SVR支持向量回归机对威布尔分布的进行参数估计的代码
刚学会一点python 不知道如何通过编码实现用线性支持向量回归对威布尔分布的参数进行估计
python中sklearn.svm.SVR,模型预测得出的结果都是一个值,请高手指点迷津。
部分代码如下: feature_set_train=feature_set[:6000] result_set_train=result_set[:6000] svr_model=SVR(C=1024,gamma=0.5) svr_model.fit(feature_set_train,result_set_train) feature_set_=feature_set[5900:6020] result_set_ = result_set[5900:6020] result_set_predict=svr_model.predict(feature_set_) 得出的拟合结果是对训练数据部分数据进行预测,则预测效果很好,对测试数据进行预测部分则得出的结果都为一个值,不明白是为什么?画图如下:![图片说明](https://img-ask.csdn.net/upload/201606/08/1465394589_872267.png) 图中0-100为训练数据预测情况,100-120为测试数据预测情况。 模型中的数据为20维输入,1维输出 其中只有训练点输入模型进行预测才能得出有效值,其他点输入模型进行预测都得到的是同一个值。
请问python或matlab中有多输出支持向量回归SVR的工具包吗?
如题,训练多个SVR与训练一个多输出SVR效果是一样的吗?刚开始学请高手指教,不胜感激?
flink搭建standalone模式集群,jobmanager会自动挂掉,只有一直刷的warn日志
flink搭建standalone模式集群,启动后任务提交跟运行正常,gc情况观察了一下也正常,但是jobmanager到晚上会自动挂掉,而且一直刷的warn日志。 flink版本:1.7.2 三台机器,web界面信息正常。 **问题:jobmanager会挂掉,跟这个日志是否有关呢?我希望集群可以稳定跑下去,目前任务只是对接kafka与redis。** warn日志如下: ``` 09-06 14:00:23,430 WARN akka.remote.transport.netty.NettyTransport - Remote connection to [null] failed with java.net.ConnectException: Connection refused: localhost/127.0.0.1:63408 2019-09-06 14:00:23,431 WARN akka.remote.ReliableDeliverySupervisor - Association with remote system [akka.tcp://flink-metrics@localhost:63408] has failed, address is now gated for [50] ms. Reason: [Association failed with [akka.tcp://flink-metrics@localhost:63408]] Caused by: [Connection refused: localhost/127.0.0.1:63408] 2019-09-06 14:00:23,431 WARN akka.remote.transport.netty.NettyTransport - Remote connection to [null] failed with java.net.ConnectException: Connection refused: localhost/127.0.0.1:30060 2019-09-06 14:00:23,431 WARN akka.remote.ReliableDeliverySupervisor - Association with remote system [akka.tcp://flink-metrics@localhost:30060] has failed, address is now gated for [50] ms. Reason: [Association failed with [akka.tcp://flink-metrics@localhost:30060]] Caused by: [Connection refused: localhost/127.0.0.1:30060] ``` 集群启动日志如下: ``` 2019-09-06 13:50:33,581 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -------------------------------------------------------------------------------- 2019-09-06 13:50:33,582 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Starting StandaloneSessionClusterEntrypoint (Version: 1.7.2, Rev:ceba8af, Date:11.02.2019 @ 14:17:09 UTC) 2019-09-06 13:50:33,582 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - OS current user: apps 2019-09-06 13:50:33,816 WARN org.apache.hadoop.util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 2019-09-06 13:50:33,945 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Current Hadoop/Kerberos user: apps 2019-09-06 13:50:33,945 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - JVM: Java HotSpot(TM) 64-Bit Server VM - Oracle Corporation - 1.8/25.161-b12 2019-09-06 13:50:33,945 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Maximum heap size: 981 MiBytes 2019-09-06 13:50:33,945 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - JAVA_HOME: /apps/svr/jdk1.8.0_161 2019-09-06 13:50:33,947 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Hadoop version: 2.6.5 2019-09-06 13:50:33,947 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - JVM Options: 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -Xms1024m 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -Xmx1024m 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -Dlog.file=/home/apps/jfy/flink-1.7.2/log/flink-apps-standalonesession-6-arch-dev-rmq.log 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -Dlog4j.configuration=file:/home/apps/jfy/flink-1.7.2/conf/log4j.properties 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -Dlogback.configurationFile=file:/home/apps/jfy/flink-1.7.2/conf/logback.xml 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Program Arguments: 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - --configDir 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - /home/apps/jfy/flink-1.7.2/conf 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - --executionMode 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - cluster 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Classpath: /home/apps/jfy/flink-1.7.2/lib/flink-python_2.11-1.7.2.jar:/home/apps/jfy/flink-1.7.2/lib/flink-shaded-hadoop2-uber-1.7.2.jar:/home/apps/jfy/flink-1.7.2/lib/log4j-1.2.17.jar:/home/apps/jfy/flink-1.7.2/lib/slf4j-log4j12-1.7.15.jar:/home/apps/jfy/flink-1.7.2/lib/flink-dist_2.11-1.7.2.jar::: 2019-09-06 13:50:33,948 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - -------------------------------------------------------------------------------- 2019-09-06 13:50:33,949 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Registered UNIX signal handlers for [TERM, HUP, INT] 2019-09-06 13:50:33,959 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: jobmanager.rpc.address, 172.31.50.59 2019-09-06 13:50:33,960 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: jobmanager.rpc.port, 6123 2019-09-06 13:50:33,960 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: jobmanager.heap.size, 1024m 2019-09-06 13:50:33,960 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: taskmanager.heap.size, 1024m 2019-09-06 13:50:33,960 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: taskmanager.numberOfTaskSlots, 1 2019-09-06 13:50:33,960 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: parallelism.default, 1 2019-09-06 13:50:33,960 INFO org.apache.flink.configuration.GlobalConfiguration - Loading configuration property: rest.port, 8081 2019-09-06 13:50:33,973 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Starting StandaloneSessionClusterEntrypoint. 2019-09-06 13:50:33,973 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Install default filesystem. 2019-09-06 13:50:33,983 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Install security context. 2019-09-06 13:50:34,016 INFO org.apache.flink.runtime.security.modules.HadoopModule - Hadoop user set to apps (auth:SIMPLE) 2019-09-06 13:50:34,030 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Initializing cluster services. 2019-09-06 13:50:34,191 INFO org.apache.flink.runtime.rpc.akka.AkkaRpcServiceUtils - Trying to start actor system at 172.31.50.59:6123 2019-09-06 13:50:34,520 INFO akka.event.slf4j.Slf4jLogger - Slf4jLogger started 2019-09-06 13:50:34,571 INFO akka.remote.Remoting - Starting remoting 2019-09-06 13:50:34,726 INFO akka.remote.Remoting - Remoting started; listening on addresses :[akka.tcp://flink@172.31.50.59:6123] 2019-09-06 13:50:34,733 INFO org.apache.flink.runtime.rpc.akka.AkkaRpcServiceUtils - Actor system started at akka.tcp://flink@172.31.50.59:6123 2019-09-06 13:50:34,747 WARN org.apache.flink.configuration.Configuration - Config uses deprecated configuration key 'jobmanager.rpc.address' instead of proper key 'rest.address' 2019-09-06 13:50:34,757 INFO org.apache.flink.runtime.blob.BlobServer - Created BLOB server storage directory /tmp/blobStore-c7a49a00-4241-463b-97d6-f01795c08cde 2019-09-06 13:50:34,760 INFO org.apache.flink.runtime.blob.BlobServer - Started BLOB server at 0.0.0.0:22324 - max concurrent requests: 50 - max backlog: 1000 2019-09-06 13:50:34,774 INFO org.apache.flink.runtime.metrics.MetricRegistryImpl - No metrics reporter configured, no metrics will be exposed/reported. 2019-09-06 13:50:34,775 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Trying to start actor system at 172.31.50.59:0 2019-09-06 13:50:34,790 INFO akka.event.slf4j.Slf4jLogger - Slf4jLogger started 2019-09-06 13:50:34,795 INFO akka.remote.Remoting - Starting remoting 2019-09-06 13:50:34,802 INFO akka.remote.Remoting - Remoting started; listening on addresses :[akka.tcp://flink-metrics@172.31.50.59:44195] 2019-09-06 13:50:34,803 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint - Actor system started at akka.tcp://flink-metrics@172.31.50.59:44195 2019-09-06 13:50:34,807 INFO org.apache.flink.runtime.dispatcher.FileArchivedExecutionGraphStore - Initializing FileArchivedExecutionGraphStore: Storage directory /tmp/executionGraphStore-be620752-bb92-49c0-9556-f93d802f61c2, expiration time 3600000, maximum cache size 52428800 bytes. 2019-09-06 13:50:34,834 INFO org.apache.flink.runtime.blob.TransientBlobCache - Created BLOB cache storage directory /tmp/blobStore-ac295e58-8bce-4747-80f5-086a3ddf6874 2019-09-06 13:50:34,850 WARN org.apache.flink.configuration.Configuration - Config uses deprecated configuration key 'jobmanager.rpc.address' instead of proper key 'rest.address' 2019-09-06 13:50:34,851 WARN org.apache.flink.runtime.dispatcher.DispatcherRestEndpoint - Upload directory /tmp/flink-web-59e5be3d-7736-4a43-ab10-3c5116bfe201/flink-web-upload does not exist, or has been deleted externally. Previously uploaded files are no longer available. 2019-09-06 13:50:34,852 INFO org.apache.flink.runtime.dispatcher.DispatcherRestEndpoint - Created directory /tmp/flink-web-59e5be3d-7736-4a43-ab10-3c5116bfe201/flink-web-upload for file uploads. 2019-09-06 13:50:34,855 INFO org.apache.flink.runtime.dispatcher.DispatcherRestEndpoint - Starting rest endpoint. 2019-09-06 13:50:35,063 INFO org.apache.flink.runtime.webmonitor.WebMonitorUtils - Determined location of main cluster component log file: /home/apps/jfy/flink-1.7.2/log/flink-apps-standalonesession-6-arch-dev-rmq.log 2019-09-06 13:50:35,063 INFO org.apache.flink.runtime.webmonitor.WebMonitorUtils - Determined location of main cluster component stdout file: /home/apps/jfy/flink-1.7.2/log/flink-apps-standalonesession-6-arch-dev-rmq.out 2019-09-06 13:50:35,202 INFO org.apache.flink.runtime.dispatcher.DispatcherRestEndpoint - Rest endpoint listening at 172.31.50.59:8081 2019-09-06 13:50:35,202 INFO org.apache.flink.runtime.dispatcher.DispatcherRestEndpoint - http://172.31.50.59:8081 was granted leadership with leaderSessionID=00000000-0000-0000-0000-000000000000 2019-09-06 13:50:35,202 INFO org.apache.flink.runtime.dispatcher.DispatcherRestEndpoint - Web frontend listening at http://172.31.50.59:8081. 2019-09-06 13:50:35,259 INFO org.apache.flink.runtime.rpc.akka.AkkaRpcService - Starting RPC endpoint for org.apache.flink.runtime.resourcemanager.StandaloneResourceManager at akka://flink/user/resourcemanager . 2019-09-06 13:50:35,274 INFO org.apache.flink.runtime.rpc.akka.AkkaRpcService - Starting RPC endpoint for org.apache.flink.runtime.dispatcher.StandaloneDispatcher at akka://flink/user/dispatcher . 2019-09-06 13:50:35,288 INFO org.apache.flink.runtime.resourcemanager.StandaloneResourceManager - ResourceManager akka.tcp://flink@172.31.50.59:6123/user/resourcemanager was granted leadership with fencing token 00000000000000000000000000000000 2019-09-06 13:50:35,289 INFO org.apache.flink.runtime.resourcemanager.slotmanager.SlotManager - Starting the SlotManager. 2019-09-06 13:50:35,302 INFO org.apache.flink.runtime.dispatcher.StandaloneDispatcher - Dispatcher akka.tcp://flink@172.31.50.59:6123/user/dispatcher was granted leadership with fencing token 00000000-0000-0000-0000-000000000000 2019-09-06 13:50:35,305 INFO org.apache.flink.runtime.dispatcher.StandaloneDispatcher - Recovering all persisted jobs. 2019-09-06 13:50:35,921 INFO org.apache.flink.runtime.resourcemanager.StandaloneResourceManager - Registering TaskManager with ResourceID d9ac21b93546848cee400e09e79bf55c (akka.tcp://flink@localhost:32199/user/taskmanager_0) at ResourceManager 2019-09-06 13:50:35,931 INFO org.apache.flink.runtime.resourcemanager.StandaloneResourceManager - Registering TaskManager with ResourceID e7f27036fca804c716fd6bada9f1e0d6 (akka.tcp://flink@localhost:28648/user/taskmanager_0) at ResourceManager ```
想请问各位老师,应该用什么函数来构造LSTM与SVR的全连接层呢,顶层用SVR做预测的,麻烦啦,我比较着急呢!
直接高速我就行啦,我想画一个LSTM-SVR的模型结构图但是
adodb stream write写入上传图片的request.binary read不完整
我用asp.net做一个图片分段上传的程序,读取request包含的所有data,然后进行处理,从中得出图片的二进制数据,保存。发现一个问题,就是request.binaryread读出所有数据后,保存在服务器一个txt上,检查这个txt,发现有的时候不完整(没有读取完)。具体是这样的: 像下面这么写,一次性上传并保存,是没问题的: dim bidata dim svr svr=server.createObject("adodb.stream") svr.mode=3 svr.type=1 svr.open() biData=request.binaryread(request.totalbytes) svr.write(biData) svr.saveToFile(appDomai.currentDomain.basedirectory & "gaga.txt",2) 但我把request分段读取,即 dim chunk=1024 dim rededbytes=0 Do while readedbytes<request.totalbytes if readedbyte+1024>request.totalbytes then chunk=request.totalbytes-readedbytes end if bidata=request.binaryread(chunk) svr.write(bidata) readedbytes=readedbytes+chunk loop svr.savetofile(appdomain.currentdomain.basedirectory & "gaga.txt",2) 这种情况下,打开gaga.txt,发现request的后边的数据不完整。缺少后边很大一部分数据,特别是最后的分隔符等信息: -----------------------------7df1425105a6 Content-Disposition: form-data; name="uploadrr" 我在本地机器(win10)localhost做的,上传后写入的txt就很完整,程序上传到服务器(window server2012),上传文件后写入的txt中就不完整。请教高手指点!
pb11+webservice 运行异常 求帮助
异常信息: ``` Exception Details System.AccessViolationException 尝试读取或写入受保护的内存。这通常指示其他内存已损坏。 在 b(ab7* , PBTransaction , Boolean ) 在 c(ab7* , PBTransaction ) 在 Sybase.PowerBuilder.DB.PBSQL.Stop(IntPtr dbthis, PBTransaction transaction) 在 Sybase.PowerBuilder.PBSessionBase.StopTransaction(PBTransaction trans) 在 Sybase.PowerBuilder.PBTransaction.Dispose(Boolean disposing) 在 Sybase.PowerBuilder.PBPowerObject.Finalize() ``` 堆栈信息: ``` Function     Arg 1     Arg 2     Arg 3     Arg 4   Source KERNELBASE!RaiseException+48     e0434f4d     00000001     00000001     1b5ff220    mscorwks!RaiseTheExceptionInternalOnly+2a8     06dcf5b0     00000000     00000000     1b5ff270    mscorwks!RaiseTheException+4e     06dcf5b0     00000000     1b5ff3e8     747339a4    mscorwks!RaiseTheException+c0     00000000     021c1ef0     59542862     74664900    mscorwks!RealCOMPlusThrow+30     06dcf5b0     00000000     1b5ff3f4     74920bff    mscorwks!RealCOMPlusThrow+d     06dcf5b0     634f7f38     74ba8418     1b5ff49c    mscorwks!Thread::RaiseCrossContextException+41f     00000000     1b5ff42c     1b5ff49c     746cdf5f    mscorwks!Thread::DoADCallBack+293     021f0998     746a5ba2     1b5ff6c0     00000040    mscorwks!Thread::DoADCallBack+322     1b5ff6c0     1b5ff530     7478b454     021f0998    mscorwks!ManagedThreadBase::FinalizerAppDomain+25     021f0998     7478b486     1b5ff514     1b5ff6c0    mscorwks!SVR::GCHeap::TraceGCSegments+251     021c1ef0     00000000     1b5ff5b7     00000000    mscorwks!SVR::GCHeap::TraceGCSegments+324     00000000     00000000     1b5ff6c0     010d6860    mscorwks!SVR::GCHeap::FinalizerThreadWorker+b7     1b5ff6c0     00000000     00000000     1b5ff678    mscorwks!Thread::DoADCallBack+32a     1b5ff6c0     1b5ff66c     746cdf5f     634f7ab4    mscorwks!Thread::ShouldChangeAbortToUnload+e3     1b5ff6c0     634f7a78     00000000     00000001    mscorwks!Thread::ShouldChangeAbortToUnload+30a     1b5ff6c0     00000000     021f0998     00000000    mscorwks!ManagedThreadBase_NoADTransition+32     747b6fe4     00000008     1b5ff724     747475ee    mscorwks!ManagedThreadBase::FinalizerBase+d     747b6fe4     634f7be8     00000000     74747545    mscorwks!SVR::GCHeap::FinalizerThreadStart+bb     00000000     00000000     00000000     00000000    mscorwks!Thread::intermediateThreadProc+49     010d6860     1b5ff810     77dda8cb     010d6860    kernel32!BaseThreadInitThunk+e     010d6860     601997ca     00000000     00000000    ntdll!__RtlUserThreadStart+20     ffffffff     77dcf68a     00000000     00000000    ntdll!_RtlUserThreadStart+1b     747c0133     010d6860     00000000     00000000 ``` ``` 726f0e64 40000be 28 System.String 0 instance 0879191c _remoteStackTraceString 726f30b0 40000bf 34 System.Int32 1 instance 0 _remoteStackIndex 726f0a80 40000c0 2c System.Object 0 instance 00000000 _dynamicMethods 726f30b0 40000c1 38 System.Int32 1 instance -2147467261 _HResult ``` 这些异常信息和堆栈信息是什么意思啊,求帮助啊
写最小二乘支持向量回归算法代码
我是个机器学习新宝宝,但现在需要用python写一个LSSVR的算法(我没查到pythonLSSVR方法),核函数是用修改过的RBF(这个肯定要自己写),现在几乎无从下手~想向大神们请教一下思路~最开始我是想重写SVR,将原来的ε平方损失函数换成最小二乘损失函数,可是看了代码~感觉无从下手~请教大神们指点一下思路~
nginx ip_hash 负载均衡问题
nginx配置如下: #user nobody; worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; # 定义负载均衡服务器列表 upstream svr_balance{ ip_hash; #均衡规则为 根据客户端ip地址的哈希值来分配 server 192.168.78.177; server 202.202.202.167; } server { # 虚拟服务器 http://192.168.78.177:8081 listen 8081; server_name localhost; location / { root /usr/local/nginx/html/; #网站根目录 index index.php index.html index.htm; #定义首页索引文件的名称 } # 定义 http://192.168.78.177:8081/AlienWi/ 访问规则 location /AlienWi/{ proxy_pass http://svr_balance/AlienWi/; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } } 不同的客户端(ip地址同一网段,不同网段都有测试)访问http://192.168.78.178:8081/AlienWi/ 为什么总是访问到202.202.202.167, 而没有访问到192.168.78.177呢
用mina 客户端向第三方服务器发送消息时收不到返回报文
package com.demo.single; import java.net.InetSocketAddress; import java.nio.charset.Charset; import org.apache.mina.core.future.ConnectFuture; import org.apache.mina.core.service.IoConnector; import org.apache.mina.core.session.IoSession; import org.apache.mina.filter.codec.ProtocolCodecFilter; import org.apache.mina.filter.codec.textline.LineDelimiter; import org.apache.mina.filter.codec.textline.TextLineCodecFactory; import org.apache.mina.filter.logging.LoggingFilter; import org.apache.mina.transport.socket.nio.NioSocketConnector; import com.demo1.BaseConfig; import com.demo1.ProviderClientHander; public class ToolSendClient { public static void main(String[] args) { String msg = "0000003076<?xml version=\"1.0\" encoding=\"UTF-8\"?><service><sys-header><data name=\"SYS_HEAD\"><struct><data name=\"APPR_USER_ID\"><field length=\"30\" scale=\"0\" type=\"string\"/></data><data name=\"SEQ_NO\"><field length=\"14\" scale=\"0\" type=\"string\">9095256682051</field></data><data name=\"TRAN_CODE\"><field length=\"8\" scale=\"0\" type=\"string\"/></data><data name=\"TRAN_DATE\"><field length=\"8\" scale=\"0\" type=\"string\">20150720</field></data><data name=\"MESSAGE_CODE\"><field length=\"4\" scale=\"0\" type=\"string\">0407</field></data><data name=\"MODULE_ID\"><field length=\"2\" scale=\"0\" type=\"string\">RB</field></data><data name=\"TRAN_TYPE\"><field length=\"20\" scale=\"0\" type=\"string\"/></data><data name=\"USER_ID\"><field length=\"30\" scale=\"0\" type=\"string\">V0016</field></data><data name=\"MESSAGE_TYPE\"><field length=\"4\" scale=\"0\" type=\"string\">1400</field></data><data name=\"AUTH_PASSWORD\"><field length=\"0\" scale=\"0\" type=\"string\"/></data><data name=\"PROGRAM_ID\"><field length=\"20\" scale=\"0\" type=\"string\">FM144D</field></data><data name=\"SERVICE_CODE\"><field length=\"30\" scale=\"0\" type=\"string\">SVR_INQUIRY</field></data><data name=\"SERVER_ID\"><field length=\"30\" scale=\"0\" type=\"string\">127.0.0.1</field></data><data name=\"BRANCH_ID\"><field length=\"6\" scale=\"0\" type=\"string\">50801</field></data><data name=\"SOURCE_BRANCH_NO\"><field length=\"50\" scale=\"0\" type=\"string\">000011</field></data><data name=\"REVERSAL_TRAN_TYPE\"><field length=\"0\" scale=\"0\" type=\"string\"/></data><data name=\"WS_ID\"><field length=\"200\" scale=\"0\" type=\"string\">01</field></data><data name=\"SOURCE_TYPE\"><field length=\"2\" scale=\"0\" type=\"string\">HB</field></data><data name=\"DEST_BRANCH_NO\"><field length=\"6\" scale=\"0\" type=\"string\">000002</field></data><data name=\"USER_LANG\"><field length=\"100\" scale=\"0\" type=\"string\">CHINESE</field></data><data name=\"TRAN_TIMESTAMP\"><field length=\"9\" scale=\"0\" type=\"string\">165745418</field></data><data name=\"AUTH_FLAG\"><field length=\"4\" scale=\"0\" type=\"string\">N</field></data><data name=\"TRAN_MODE\"><field length=\"1\" scale=\"0\" type=\"string\">ONLINE</field></data><data name=\"AUTH_USER_ID\"><field length=\"30\" scale=\"0\" type=\"string\"/></data><data name=\"APPR_FLAG\"><field length=\"1\" scale=\"0\" type=\"string\"/></data></struct></data></sys-header><app-header><data name=\"APP_HEAD\"><struct><data name=\"PGUP_OR_PGDN\"><field length=\"15\" scale=\"0\" type=\"string\">1</field></data><data name=\"TOTAL_NUM\"><field length=\"15\" scale=\"0\" type=\"string\">10</field></data><data name=\"CURRENT_NUM\"><field length=\"15\" scale=\"0\" type=\"string\">0</field></data><data name=\"PAGE_START\"><field length=\"30\" scale=\"0\" type=\"string\">1</field></data><data name=\"PAGE_END\"><field length=\"15\" scale=\"0\" type=\"string\">10</field></data></struct></data></app-header><local-header/><body><data name=\"BASE_ACCT_NO\"><field length=\"50\" scale=\"0\" type=\"string\">6236220599200002847</field></data><data name=\"CARD_NO\"><field length=\"20\" scale=\"0\" type=\"string\"/></data><data name=\"PASSWORD\"><field length=\"50\" scale=\"0\" type=\"string\"/></data><data name=\"IC_CARD_SEQ\"><field length=\"3\" scale=\"0\" type=\"string\"/></data></body></service>"; send2(msg); } public static void send2(String message) { TextLineCodecFactory lineCodec = new TextLineCodecFactory( Charset.forName("UTF-8"), LineDelimiter.UNIX.getValue(), LineDelimiter.UNIX.getValue()); lineCodec.setDecoderMaxLineLength(1024 * 1024); // 1M lineCodec.setEncoderMaxLineLength(1024 * 1024); // 1M IoConnector connector = new NioSocketConnector(); connector.getFilterChain().addLast("logger", new LoggingFilter()); connector.getFilterChain().addLast("codec", new ProtocolCodecFilter(lineCodec)); connector.setHandler(new ProviderClientHander()); // ConnectFuture connectFuture = connector.connect(new InetSocketAddress("127.0.0.1",BaseConfig.ESB_PORT)); ConnectFuture connectFuture = connector.connect(new InetSocketAddress("10.129.34.215", BaseConfig.ESB_PORT)); // 等待建立连接 connectFuture.awaitUninterruptibly(); System.out.println("连接成功"); IoSession session = connectFuture.getSession(); session.write(message); // 关闭 if (session != null) { if (session.isConnected()) { session.getCloseFuture().awaitUninterruptibly(); } connector.dispose(); } } }
JS字符串赋值空值的问题
``` <%@ page language="java" import="java.util.*" pageEncoding="utf-8"%> <% String infoId=request.getParameter("InfoId")==null?"":request.getParameter("InfoId"); %> <html> <head> <script type="text/javascript"> function initPage(){ //签单日期 var now = new Date(); var year = now.getFullYear(); var month = now.getMonth(); var day = now.getDate(); var monthStr = parseInt(month); var monthStr = monthStr + 1; if(day<10){ day = '0' + day; } if(monthStr<10){ monthStr = '0' + monthStr; } var billdateStr = year + '-' + monthStr + '-' + day; document.getElementById('billDate').value=billdateStr; //起保日期 now = new Date((now/1000+86400)*1000); year = now.getFullYear(); month = now.getMonth(); day = now.getDate(); monthStr = parseInt(month); monthStr = monthStr + 1; if(day<10){ day = '0' + day; } if(monthStr<10){ monthStr = '0' + monthStr; } var startdateStr = year + '-' + monthStr + '-' + day; document.getElementById('startDate').value=startdateStr; } function doSubmit(){ var reg = /^\d{4}-\d{1,2}-\d{1,2}$/; var billDate = document.getElementById('billDate'); var startDate = document.getElementById('startDate'); var paid = document.getElementById('paid'); var zhekou = document.getElementById('zhekou'); var insurce_flag = document.getElementById('insurce_flag'); var ab = document.getElementById('ab'); var dianxiao = document.getElementById('dianxiao'); var szx = document.getElementById('szx'); var csx = document.getElementById('csx'); var dqx = document.getElementById('dqx'); var csry = document.getElementById('csry'); var vin = document.getElementById('vin'); var model = document.getElementById('model'); if(paid == null || paid.value.length == 0){ alert("请录入保费信息"); return; } if(!reg.test(startDate.value)){ alert("请录入正确的日期格式"); return; } if( szx == null || szx.value.length == 0){ alert("请录入三者险保费信息"); return; } if( vin == null || vin.value.length == 0){ alert("请录入车架号"); return; } if( model == null || model.value.length == 0){ alert("请录入车型"); return; } alert(insurce_flag.value); if(insurce_flag.value == "R"){ insurce_flag.value = '续保'; }else{ insurce_flag.value = '转保'; } alert(insurce_flag.value); var enCodeMsg = "签单时间:" + billDate.value + "★起保时间:" + startDate.value + "★商业险保费:" + paid.value + "★无赔款折扣:" + zhekou.value + "★新转续:" + insurce_flag.value + "★AB类业务类型:" + ab.value + "★渠道:电销★车型:" + model.value + "★本年度三者保额:" + szx.value + "★本年度车损险:" + csx.value + "★本年度盗抢险:" + dqx.value + "★车上人员:" + csry.value + "★车架号:" + vin.value; document.getElementById('enCodeMsg').value=enCodeMsg; document.form1.submit(); } </script> <title>TEST</title> </head> <body onload="initPage();"> <center><table id="table1" width="80%" border='1'> <tr> <td>签单时间</td> <td><input type="text" name="billDate" id='billDate' readonly='ture'></td> </tr> <tr> <td>起保时间</td> <td><input type="text" name="startDate" id='startDate' ></td> </tr> <tr> <td>商业险保费</td> <td><input type="text" name="paid" id='paid' ></td> </tr> <tr> <td>无赔款折扣</td> <td><select name="zhekou" id="zhekou"> <option value="1">出险0次</option> <option value="0">新保</option> <option value="-1">出险1次</option> <option value="-2">出险2次</option> <option value="-3">出险3次</option> <option value="-4">出险4次</option> </select> </td> </tr> <tr> <td>新转续</td> <td><select name="insurce_flag" id="insurce_flag"> <option value="R">续保</option> <option value="T">转保</option> </select> </td> </tr> <tr> <td>AB类业务</td> <td><select name="ab" id="ab"> <option value="A">A</option> <option value="B">B</option> </select> </td> </tr> <tr> <td>渠道</td> <td><select name="dianxiao" id="dianxiao" disabled="disabled"> <option value="dianxiao">电网销</option> </select> </td></td> </tr> <tr> <td>三责保额</td> <td><input type="text" name="szx" id='szx'></td> </tr> <tr> <td>是否承保车损险</td> <td><select name="csx"> <option value="10000">是</option> <option value="0">否</option> </select> </td> </tr> <tr> <td>是否承保盗抢险</td> <td><select name="dqx"> <option value="10000">是</option> <option value="0">否</option> </select> </td> </tr> <tr> <td>车上人员保额</td> <td><select name="csry"> <option value="10000">是</option> <option value="0">否</option> </select> </td> </tr> <tr> <td>车型</td> <td><input type="text" name="model" id='model'></td> </tr> <tr> <td>车架号</td> <td><input type="text" name="vin" id='vin'></td> </tr> <tr> </tr> <tr> </tr> </table> <br> <br> <font size="15" color="red">结果</font><br> <textarea name="a" style="width:600px;height:100px;"></textarea> <br> <form name='form1' action="http://10.36.10.35/cpicjx/crmServices.svr?apicode=000002&type=carReportMessage&type01=requestMoneyRule" method="Post"> <input type="hidden" id="enCodeMsg" name="enCodeMsg"> <input type = "button" value="费用查询" onclick = "doSubmit();">&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp<input type = "button" value="费用申请" onclick = "doSubmit();"> </form> </center> <!--<form name='form1' action="<%=request.getContextPath() %>/index.jsp" method="Post"> <input type="hidden" id="needAlterInfoId" name="InfoId"> <input type="button" onclick="doSubmit();" value="Submit"> </form> <table id="showAlter" style="display: none"> <tr> <td><font size="2" >您选择的需要修改的记录的ID是:</font> </td> <td><%=infoId %> </td> </tr> </table> --> </body> </html> ``` 可以进入判断,但出来的insurce_flag空值,求助大神解决!
急求大师解决 excel导入到SQL2005 问题
const BeginRow = 2; BeginCol = 1; var Excel: OleVariant; iRow,iCol : integer; xlsFilename: string; filename:string; i,ExcelRowCount,OkNum,FailNum:integer; begin inherited; begin OpenDialog1.Title := '请选择相应的Excel文件'; OpenDialog1.Filter := 'Excel(*.xls)|*.xls'; if OpenDialog1.Execute then begin filename := OpenDialog1.FileName; edit2.Text := filename; xlsFilename := trim(filename); try Excel := CreateOLEObject('Excel.Application'); except Application.MessageBox('Excel没有安装!', '提示信息', MB_OK+MB_ICONASTERISK+MB_DEFBUTTON1+MB_APPLMODAL); Exit; end; Excel.Visible := false; Excel.WorkBooks.Open(xlsFilename); try iRow := BeginRow; iCol := BeginCol; ExcelRowCount := Excel.WorkSheets[1].UsedRange.Rows.Count; // while trim(Excel.WorkSheets[1].Cells[iRow,iCol].value) <> '' do for i:=2 to ExcelRowCount do begin with Svr_Remote.DW_Query do begin Append; Fields[0].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol].value); Fields[1].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+1].value); Fields[2].Asstring := trim(Excel.WorkSheets[1].Cells[iRow,iCol+2].value); Fields[3].Asstring := trim(Excel.WorkSheets[1].Cells[iRow,iCol+3].value); Fields[4].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+4].value); Fields[5].Asstring := trim(Excel.WorkSheets[1].Cells[iRow,iCol+5].value); Fields[6].Asstring := trim(Excel.WorkSheets[1].Cells[iRow,iCol+6].value); Fields[7].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+7].value); Fields[8].Asstring := trim(Excel.WorkSheets[1].Cells[iRow,iCol+8].value); Fields[9].Asstring := trim(Excel.WorkSheets[1].Cells[iRow,iCol+9].value); Fields[10].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+10].value); Fields[11].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+11].value); Fields[12].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+12].value); Fields[13].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+13].value); Fields[14].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+14].value); Fields[15].AsString := trim(Excel.WorkSheets[1].Cells[iRow,iCol+15].value); iRow := iRow + 1; Label1.Caption:='导入记录:'+inttostr(iRow-1)+'条'; label4.Caption :='正在导入的数据...'+Fields[0].AsString+Fields[1].AsString+Fields[2].AsString+ Fields[3].AsString+Fields[4].AsString+Fields[5].AsString+Fields[6].AsString+ Fields[7].AsString+Fields[8].AsString+Fields[9].AsString+Fields[10].AsString+ Fields[11].AsString+Fields[12].AsString+Fields[13].AsString+Fields[14].AsString+Fields[15].AsString; end; end; Excel.Quit; Svr_Remote.DW_Query.UpdateStatus ; MessageBox(GetActiveWindow(), '数据导入成功!', '...系统提示', MB_OK + MB_ICONWARNING); except Application.MessageBox('导入数据出错!请检查文件的格式是否正确!', '提示信息', MB_OK+MB_ICONASTERISK+MB_DEFBUTTON1+MB_APPLMODAL); Excel.Quit; end; end else begin MessageBox(GetActiveWindow(), '请重新选择导入文件路径!', ...系统提示', MB_OK + MB_ICONWARNING); end; end; end; 注:一执行后,导入的数据就是不全,本来excel表中有524条记录,执行后确只能导入523条记录,缺少一条记录,请大师给指点一下,谢谢 /////////////////////显示数据 Svr_Remote.DW_Query.close; Svr_Remote.DW_Query.sql.clear; Svr_Remote.DW_Query.sql.add('select * from STU7'); Svr_Remote.DW_Query.Open; Svr_Remote.DW_Query.first; ///////////////////////
nginx 负载均衡这样设置配置文件对吗?如何测试负载均衡?
user nobody nobody; worker_processes 3; pid logs/nginx.pid; events { worker_connections 1024; use epoll; } http { include mime.types; default_type application/octet-stream; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; access_log logs/access.log main; sendfile on; keepalive_timeout 65; gzip on; gzip_min_length 1024; gzip_buffers 4 16k; gzip_comp_level 2; gzip_types text/plain application/x-javascript text/css application/xml; gzip_vary on; #gunzip_static on; upstream backend { server 192.168.1.30:8081; server 192.168.1.31:8081; server 192.168.1.32:8081; } server { listen 8081; server_name 192.168.1.30; error_page 404 /404.html; location / { root myweb; index index.30.htm; } location /server0/location1 { root myweb; index index.svr0-loc1.htm; } location /svr0/loc2 { alias myweb/server0/location2/; index index.svr0-loc2.htm; } } server { listen 8081; server_name 192.168.1.31; error_page 404 /404.html; location / { root myweb; index index.31.htm; } location /server1/location1 { root myweb; index index.svr1-loc1.htm; } location /svr1/loc2 { alias myweb/server1/location2/; index index.svr1-loc2.htm; } } server { listen 8081; server_name 192.168.1.32; error_page 404 /404.html; location / { root myweb; index index.32.htm; } location /server2/location1 { root myweb; index index.svr2-loc1.htm; } location /svr2/loc2 { alias myweb/server2/location2/; index index.svr2-loc2.htm; } } server { listen 8081; server_name myserver; #index index.html index.htm; location / { proxy_pass http://backend; proxy_set_header Host $host; } } }
请问各位老师,SVR和LSTM的交叉熵损失函数的区别主要是什么呢,顶层用哪一个函数做预测的效果会好一点呢?
非常感谢啦,我找了很久都没有得到答案,可能是缺乏经验。。。。。。。。。。。谢谢谢谢谢谢
一个List中对象去重的问题,见正文
在开发中遇到了一个不大不小的问题,很棘手: 代码片段 [code="java"]F9223Svr f9223svr = new F9223Svr(); List dchnuserresList = new ArrayList(); List list = f9223svr.getDevPortIdList(user_id); for (int i = 0; i < list.size(); i++) { List list1 = f9223svr.getDevPortIdList((String[]) list.get(i)); dchnuserresList.add(f9223svr.getDchnuserresList(list1)); }[/code] getDevPortIdList()方法是一个通过ID查询出结果集放入List的过程; [code="jsp"]for (int i = 0; i < dchnuserresList.size(); i++) { List list2 = (List) dchnuserresList.get(i); for (int j = 0; j < list2.size(); j++) { String[] rows = (String[]) list2.get(j); %> <tr> <td><%=rows[0]%></td> <td><%=rows[1]%></td> <td><%=rows[2]%></td> <td><%=rows[3]%></td> <td><%=rows[4] == null ? "" : rows[4]%></td> </tr> <% } } %>[/code] 然后在循环输出; 问题: 现在时要在这个list输出时结果不可以重复,如何解决? [color=red]当前结果请查看附件图片[/color]
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
Vue + Spring Boot 项目实战(十四):用户认证方案与完善的访问拦截
本篇文章主要讲解 token、session 等用户认证方案的区别并分析常见误区,以及如何通过前后端的配合实现完善的访问拦截,为下一步权限控制的实现打下基础。
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入  假设现有4个人
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
SQL-小白最佳入门sql查询一
一 说明 如果是初学者,建议去网上寻找安装Mysql的文章安装,以及使用navicat连接数据库,以后的示例基本是使用mysql数据库管理系统; 二 准备前提 需要建立一张学生表,列分别是id,名称,年龄,学生信息;本示例中文章篇幅原因SQL注释略; 建表语句: CREATE TABLE `student` ( `id` int(11) NOT NULL AUTO_INCREMENT, `
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // dosho
漫话:什么是平衡(AVL)树?这应该是把AVL树讲的最好的文章了
这篇文章通过对话的形式,由浅入深带你读懂 AVL 树,看完让你保证理解 AVL 树的各种操作,如果觉得不错,别吝啬你的赞哦。 1、若它的左子树不为空,则左子树上所有的节点值都小于它的根节点值。 2、若它的右子树不为空,则右子树上所有的节点值均大于它的根节点值。 3、它的左右子树也分别可以充当为二叉查找树。 例如: 例如,我现在想要查找数值为14的节点。由于二叉查找树的特性,我们可...
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
开源并不是你认为的那些事
点击上方蓝字 关注我们开源之道导读所以 ————想要理清开源是什么?先要厘清开源不是什么,名正言顺是句中国的古代成语,概念本身的理解非常之重要。大部分生物多样性的起源,...
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
      11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI 算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下
《C++ Primer》学习笔记(六):C++模块设计——函数
专栏C++学习笔记 《C++ Primer》学习笔记/习题答案 总目录 https://blog.csdn.net/TeFuirnever/article/details/100700212 —————————————————————————————————————————————————————— 《C++ Primer》习题参考答案:第6章 - C++模块设计——函数 文章目录专栏C+...
8年经验面试官详解 Java 面试秘诀
    作者 | 胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。   Java程序员准备和投递简历的实
面试官如何考察你的思维方式?
1.两种思维方式在求职面试中,经常会考察这种问题:北京有多少量特斯拉汽车? 某胡同口的煎饼摊一年能卖出多少个煎饼? 深圳有多少个产品经理? 一辆公交车里能装下多少个乒乓球? 一
so easy! 10行代码写个"狗屁不通"文章生成器
前几天,GitHub 有个开源项目特别火,只要输入标题就可以生成一篇长长的文章。背后实现代码一定很复杂吧,里面一定有很多高深莫测的机器学习等复杂算法不过,当我看了源代码之后这程序不到50
知乎高赞:中国有什么拿得出手的开源软件产品?(整理自本人原创回答)
知乎高赞:中国有什么拿得出手的开源软件产品? 在知乎上,有个问题问“中国有什么拿得出手的开源软件产品(在 GitHub 等社区受欢迎度较好的)?” 事实上,还不少呢~ 本人于2019.7.6进行了较为全面的 回答 - Bravo Yeung,获得该问题下回答中得最高赞(236赞和1枚专业勋章),对这些受欢迎的 Github 开源项目分类整理如下: 分布式计算、云平台相关工具类 1.SkyWalk
MySQL数据库总结
文章目录一、数据库简介二、MySQL数据类型(5.5版本)三、Sql语句(1)Sql语句简介(2)数据定义语言DDLcreate,alter,drop(3)数据操纵语言DMLupdate,insert,delete(4)数据控制语言DCLgrant,revoke(5)数据查询语言DQLselect(6)分组查询与分页查询group by,limit四、完整性约束(单表)五、多表查询六、MySQL数
20行Python代码爬取王者荣耀全英雄皮肤
引言 王者荣耀大家都玩过吧,没玩过的也应该听说过,作为时下最火的手机MOBA游戏,咳咳,好像跑题了。我们今天的重点是爬取王者荣耀所有英雄的所有皮肤,而且仅仅使用20行Python代码即可完成。 准备工作 爬取皮肤本身并不难,难点在于分析,我们首先得得到皮肤图片的url地址,话不多说,我们马上来到王者荣耀的官网: 我们点击英雄资料,然后随意地选择一位英雄,接着F12打开调试台,找到英雄原皮肤的图片
中年危机,35 岁定律,见鬼去吧!
中年危机,35 岁定律,相信你都听说过,每次触及还会让你感到丝丝焦虑,毕竟时间这把杀猪刀不会放过任何一个人。中年危机或 35 岁定律是客观存在的,你迟早都会遭遇的,那你是否有信心战胜它呢? 中年危机之所以让人害怕,一则是你没有把握打赢这场遭遇战,再则中年是一个输不起的阶段。古人云:知己知彼,百战不殆。恐惧,主要源自对敌人和自己的不了解,不知道敌人的优劣势,也不清楚自己的长短板,常常以己之所短攻彼...
相关热词 基于c#波形控件 c# 十进制转十六进制 对文件aes加密vc# c#读取栈中所有的值 c# rsa256加密 好 学c# 还是c++ c# 和java的差距 c# curl网络框架 c# https证书请求 c# 中崎
立即提问