MySQL在hive使用的过程中的作用是什么?

小弟近日在折腾hive的时候陷入了沉思,安装hive时也要安装mysql以及mysql-connector-java,但是在hdfs上操作表的时候发现除了HQL和SQL相似之外,hiv和mysql之间的联系并不明显,而且在建表的时候就像直接用hadoop fs命令创建一个目录,然后把固定格式的文档扔进去。
所以,MySQL在hive使用的过程中的作用是啥鸭?
求大佬指教,不甚感激!!!

3个回答

资源库的角色。hive不也是属于数据仓库嘛,他的数据文件是放在HDFS上,但是他的配置信息是放在资源库上,也就是mysql。比如说表结构等等。
相当于'后宫',我是这么理解的。

weixin_43562234
Adder&& 哈哈,想到一块儿去了
一年多之前 回复

好像是hive的一些账号或配置信息写在mysql中

hive的处理数据存放在hdfs中,但是元数据Metastore(包含表名、表所属的数据库、表的拥有者、列/分区字段、表的类型、表的数据所在目录等)默认是存放在内嵌的derby数据库中对处理数据进行管理。derby数据库只支持单用户访问且容量小,所以想要并发访问的话就得把Metastore设置在外置公用数据库中,比如MySQL。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
hive连接mysql 报错 readonly server

各位大侠,我搭建了一个hadoop环境,用hive做数据仓库,mysql做hive的元数据仓库,用于定时分析用户数据中的日志文件,但在hive访问mysql的过程中,不定时的报如下错误: java.sql.SQLException: Query returned non-zero code: 1, cause: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:javax.jdo.JDODataStoreException: Could not retrieve transation read-only status server at org.datanucleus.api.jdo.NucleusJDOHelper.getJDOExceptionForNucleusException(NucleusJDOHelper.java:451) at org.datanucleus.api.jdo.JDOPersistenceManager.jdoMakePersistent(JDOPersistenceManager.java:732) at org.datanucleus.api.jdo.JDOPersistenceManager.makePersistent(JDOPersistenceManager.java:752) at org.apache.hadoop.hive.metastore.ObjectStore.createTable(ObjectStore.java:784) at sun.reflect.GeneratedMethodAccessor40.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.hive.metastore.RawStoreProxy.invoke(RawStoreProxy.java:98) at com.sun.proxy.$Proxy0.createTable(Unknown Source) at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table_core(HiveMetaStore.java:1374) at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table_with_environment_context(HiveMetaStore.java:1407) at sun.reflect.GeneratedMethodAccessor39.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.hive.metastore.RetryingHMSHandler.invoke(RetryingHMSHandler.java:102) at com.sun.proxy.$Proxy10.create_table_with_environment_context(Unknown Source) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.create_table_with_environment_context(HiveMetaStoreClient.java:1884) at org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient.create_table_with_environment_context(SessionHiveMetaStoreClient.java:96) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:607) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:595) at sun.reflect.GeneratedMethodAccessor38.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.invoke(RetryingMetaStoreClient.java:90) at com.sun.proxy.$Proxy11.createTable(Unknown Source) at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:670) at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3959) at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:295) at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:160) at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:85) at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1604) at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1364) at org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1177) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1004) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:994) at org.apache.hadoop.hive.service.HiveServer$HiveServerHandler.execute(HiveServer.java:197) at org.apache.hadoop.hive.service.ThriftHive$Processor$execute.getResult(ThriftHive.java:644) at org.apache.hadoop.hive.service.ThriftHive$Processor$execute.getResult(ThriftHive.java:628) at org.apache.thrift.ProcessFunction.process(ProcessFunction.java:39) at org.apache.thrift.TBaseProcessor.process(TBaseProcessor.java:39) at org.apache.thrift.server.TThreadPoolServer$WorkerProcess.run(TThreadPoolServer.java:206) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:744) NestedThrowablesStackTrace: java.sql.SQLException: Could not retrieve transation read-only status server at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:1094) at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:997) at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:983) at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:928) at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:959) at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:949) at com.mysql.jdbc.ConnectionImpl.isReadOnly(ConnectionImpl.java:3967) at com.mysql.jdbc.ConnectionImpl.isReadOnly(ConnectionImpl.java:3938) at com.jolbox.bonecp.ConnectionHandle.isReadOnly(ConnectionHandle.java:867) at org.datanucleus.store.rdbms.ConnectionFactoryImpl$ManagedConnectionImpl.getConnection(ConnectionFactoryImpl.java:422) at org.datanucleus.store.rdbms.valuegenerator.TableGenerator.createRepository(TableGenerator.java:270) at org.datanucleus.store.rdbms.valuegenerator.AbstractRDBMSGenerator.obtainGenerationBlock(AbstractRDBMSGenerator.java:162) at org.datanucleus.store.valuegenerator.AbstractGenerator.obtainGenerationBlock(AbstractGenerator.java:197) at org.datanucleus.store.valuegenerator.AbstractGenerator.next(AbstractGenerator.java:105) at org.datanucleus.store.rdbms.RDBMSStoreManager.getStrategyValueForGenerator(RDBMSStoreManager.java:2005) at org.datanucleus.store.AbstractStoreManager.getStrategyValue(AbstractStoreManager.java:1386) at org.datanucleus.ExecutionContextImpl.newObjectId(ExecutionContextImpl.java:3827) at org.datanucleus.state.JDOStateManager.setIdentity(JDOStateManager.java:2571) at org.datanucleus.state.JDOStateManager.initialiseForPersistentNew(JDOStateManager.java:513) at org.datanucleus.state.ObjectProviderFactoryImpl.newForPersistentNew(ObjectProviderFactoryImpl.java:232) at org.datanucleus.ExecutionContextImpl.newObjectProviderForPersistentNew(ExecutionContextImpl.java:1414) at org.datanucleus.ExecutionContextImpl.persistObjectInternal(ExecutionContextImpl.java:2218) at org.datanucleus.ExecutionContextImpl.persistObjectWork(ExecutionContextImpl.java:2065) at org.datanucleus.ExecutionContextImpl.persistObject(ExecutionContextImpl.java:1913) at org.datanucleus.ExecutionContextThreadedImpl.persistObject(ExecutionContextThreadedImpl.java:217) at org.datanucleus.api.jdo.JDOPersistenceManager.jdoMakePersistent(JDOPersistenceManager.java:727) at org.datanucleus.api.jdo.JDOPersistenceManager.makePersistent(JDOPersistenceManager.java:752) at org.apache.hadoop.hive.metastore.ObjectStore.createTable(ObjectStore.java:784) at sun.reflect.GeneratedMethodAccessor40.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.hive.metastore.RawStoreProxy.invoke(RawStoreProxy.java:98) at com.sun.proxy.$Proxy0.createTable(Unknown Source) at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table_core(HiveMetaStore.java:1374) at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table_with_environment_context(HiveMetaStore.java:1407) at sun.reflect.GeneratedMethodAccessor39.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.hive.metastore.RetryingHMSHandler.invoke(RetryingHMSHandler.java:102) at com.sun.proxy.$Proxy10.create_table_with_environment_context(Unknown Source) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.create_table_with_environment_context(HiveMetaStoreClient.java:1884) at org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient.create_table_with_environment_context(SessionHiveMetaStoreClient.java:96) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:607) at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:595) at sun.reflect.GeneratedMethodAccessor38.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.hive.metastore.RetryingMetaStoreClient.invoke(RetryingMetaStoreClient.java:90) at com.sun.proxy.$Proxy11.createTable(Unknown Source) at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:670) at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3959) at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:295) at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:160) at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:85) at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1604) at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1364) at org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1177) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1004) at org.apache.hadoop.hive.ql.Driver.run(Driver.java:994) at org.apache.hadoop.hive.service.HiveServer$HiveServerHandler.execute(HiveServer.java:197) at org.apache.hadoop.hive.service.ThriftHive$Processor$execute.getResult(ThriftHive.java:644) at org.apache.hadoop.hive.service.ThriftHive$Processor$execute.getResult(ThriftHive.java:628) at org.apache.thrift.ProcessFunction.process(ProcessFunction.java:39) at org.apache.thrift.TBaseProcessor.process(TBaseProcessor.java:39) at org.apache.thrift.server.TThreadPoolServer$WorkerProcess.run(TThreadPoolServer.java:206) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:744) Caused by: com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link failure 在网上查询说是mysql驱动包的问题,但更新了mysql驱动之后,依然还是会报这个错误, 有时候能执行成功,有时候执行不成功,不知道各位大侠谁遇到过类似的问题!

hive Communications link failure

在hive链接mysql作为数据源的过程中,配置conf下的hive-site.xml 文件, hive是装在Hadoop集群的master上,ip地址是192.168.1.154. mysql直接使用的sudo apt-get install mysql-server 安装的。 使用netstat -nat 显示: 结果如下:![图片说明](https://img-ask.csdn.net/upload/201504/27/1430139457_697441.png) 然后我的hive 配置文件是:![图片说明](https://img-ask.csdn.net/upload/201504/27/1430139550_239328.jpg) 把ip地址换成localhost或者127.0.0.1 hive下 show tables;正确,换成本机ip 就是错的。就会出现:![图片说明](https://img-ask.csdn.net/upload/201504/27/1430139661_682999.png) 怎么解决一下?

Springboot框架整合了Hive,怎么实现计算任务?

1.说明 新手自行摸索搞大数据。(大前提!!!MapReduce都没懂的那种!) 虚拟机上启动了hadoop,yarn,hive。csv数据在虚拟机文件系统有存储,在hdfs也有存储。这个数据开头有三行是表头说明等信息,在放入hive中时已经跳过这三行了。 在eclipse中创建了springboot项目,整合了hive但没整合hadoop。能够实现通过接口的形式进行hive查询了。 2.目的 现在想在springboot中实现算法,已经从hive中取到数据。怎么将数据和算法计算提交到MapReduce中进行计算?(连接hadoop先跳过,这个并不是重点,理清了过程后在正式搞之前肯定会加上的。) 还是说从hive取到数据之后直接在springboot项目中计算就可以了,不需要使用MapReduce?(数据量肯定是够多够大!)要是需要MapReduce计算的话,怎么将hive数据带进去,或从虚拟机中的文件、hdfs中的文件读取数据(有没有跳过前三行的方式)?MapReduce的计算结果是只能存在文件中吗,能否通过某种方式在计算完成后自动在springboot中接收结果然后存在mysql中? 敬请大佬做个介绍,现在思路都是死路,不知道怎么实现很难受……或者给点文章说明啥的。感激不尽!!

Hive进行数据比对问题,求帮助

最近项目中需要在Hadoop平台中做对账的工作,采用hive开做,容易上手,AB双方数据做数据比对的时候,准备用表连接方式来处理,这样存在问题,表连接的时候left join会存在多对多的情况,会出现A方中多条数据和B方一条数据比对成功的情况,需求如下: 1、以A方数据为主查找B方与之匹配的数据, 2、获取到多条时,取第一条, 3、且此条数据不再与A方其他数据进行比对 之前处理的方式是在db2中用存储过程来实现的,用游标遍历A放数据逐条从B方查找来处理的,现在用Hive来做的话就遇到这样的难处了

【hive】SQL问题,4表联查怎么优化,语句太长了

我的数据库是hive,但实际操作是用sql操作的,所以想问怎么优化sql,因为实在是太长了,头说不行 但是我的操作要使用3张数据表和一张字典表 因为sql有点长(大概60多行),发出来大家估计也看不明白,主要问下思路,这是个做报表的功能,现有4张表 A,B,C,D,比如ABC是数据表,D是字典表,我的sql目前的顺序是 先将A和B进行join查询,然后将(AB)和C再次join查询,然后(ABC)再次和D进行join查询 求解,不用临时表可以么,join的过程中会有转换格式和添加固定字段的操作 跪谢 (头不让用with as,不解)

Hive SQL中的变量是否可以像Mysql里面的变量在sql语句执行中进行赋值?

这里有一段mysql中添加行号的sql语句: ``` SET @rn=0; SELECT *,@rn:=@rn+1 FROM USER; ``` 在mysql中可以使用变量rn在sql语句中进行多次赋值, Hive中没有:=赋值符号。 请问有这个功能的符号么? 还是说Hive不支持这种用法?

mysql5.7.17zip安装过程中遇到的问题

C:\Users\Administrator>mysqld --console 2017-04-06T07:42:13.052983Z 0 [Warning] TIMESTAMP with implicit DEFAULT value is deprecated. Please use --explicit_defaults_for_timestamp server option (see doc umentation for more details). 2017-04-06T07:42:13.052983Z 0 [Note] --secure-file-priv is set to NULL. Operatio ns related to importing and exporting data are disabled 2017-04-06T07:42:13.053984Z 0 [Note] mysqld (mysqld 5.7.17) starting as process 5388 ... 2017-04-06T07:42:13.062984Z 0 [Note] InnoDB: Mutexes and rw_locks use Windows in terlocked functions 2017-04-06T07:42:13.063984Z 0 [Note] InnoDB: Uses event mutexes 2017-04-06T07:42:13.063984Z 0 [Note] InnoDB: _mm_lfence() and _mm_sfence() are u sed for memory barrier 2017-04-06T07:42:13.063984Z 0 [Note] InnoDB: Compressed tables use zlib 1.2.3 2017-04-06T07:42:13.064984Z 0 [Note] InnoDB: Number of pools: 1 2017-04-06T07:42:13.064984Z 0 [Note] InnoDB: Not using CPU crc32 instructions 2017-04-06T07:42:13.069984Z 0 [Note] InnoDB: Initializing buffer pool, total siz e = 128M, instances = 1, chunk size = 128M 2017-04-06T07:42:13.081985Z 0 [Note] InnoDB: Completed initialization of buffer pool 2017-04-06T07:42:13.199992Z 0 [Note] InnoDB: Highest supported file format is Ba rracuda. 2017-04-06T07:42:13.400003Z 0 [Note] InnoDB: Creating shared tablespace for temp orary tables 2017-04-06T07:42:13.402003Z 0 [Note] InnoDB: Setting file '.\ibtmp1' size to 12 MB. Physically writing the file full; Please wait ... 2017-04-06T07:42:13.577013Z 0 [Note] InnoDB: File '.\ibtmp1' size is now 12 MB. 2017-04-06T07:42:13.582014Z 0 [Note] InnoDB: 96 redo rollback segment(s) found. 96 redo rollback segment(s) are active. 2017-04-06T07:42:13.583014Z 0 [Note] InnoDB: 32 non-redo rollback segment(s) are active. 2017-04-06T07:42:13.586014Z 0 [Note] InnoDB: Waiting for purge to start 2017-04-06T07:42:13.637017Z 0 [Note] InnoDB: 5.7.17 started; log sequence number 2534758 2017-04-06T07:42:13.639017Z 0 [Note] Plugin 'FEDERATED' is disabled. 2017-04-06T07:42:13.639017Z 0 [Note] InnoDB: Loading buffer pool(s) from D:\mysq l-5.7.17-winx64\mysql-5.7.17-winx64\data\ib_buffer_pool 2017-04-06T07:42:13.749023Z 0 [Warning] Failed to set up SSL because of the foll owing SSL library error: SSL context is not usable without certificate and priva te key 2017-04-06T07:42:13.755024Z 0 [Note] Server hostname (bind-address): '*'; port: 3306 2017-04-06T07:42:13.757024Z 0 [Note] IPv6 is available. 2017-04-06T07:42:13.758024Z 0 [Note] - '::' resolves to '::'; 2017-04-06T07:42:13.760024Z 0 [Note] Server socket created on IP: '::'. 2017-04-06T07:42:13.884031Z 0 [Note] InnoDB: Buffer pool(s) load completed at 17 0406 15:42:13 2017-04-06T07:42:14.388060Z 0 [Note] Event Scheduler: Loaded 0 events 2017-04-06T07:42:14.389060Z 0 [Note] Executing 'SELECT * FROM INFORMATION_SCHEMA .TABLES;' to get a list of tables using the deprecated partition engine. You may use the startup option '--disable-partition-engine-check' to skip this check. 2017-04-06T07:42:14.391060Z 0 [Note] Beginning of list of non-natively partition ed tables 2017-04-06T07:42:14.427062Z 0 [Note] End of list of non-natively partitioned tab les 2017-04-06T07:42:14.428062Z 0 [Note] mysqld: ready for connections. Version: '5.7.17' socket: '' port: 3306 MySQL Community Server (GPL)

hadoop求高人解惑 不是具体问题 就是想不通

搞hadoop已经一个月了 弄来弄去我觉得我始终都在围绕 hive sql。。。把以前oracle的过程表进行迁移。真有点迷茫 感觉有什么东西隔着我始终看不透。也许被hive给我迷惑了。大家能不能用自己的话 指导下我 到底 hadoop 中 hive hbase yarn mapreduce 之间有什么关系 hdfs就是最底层存储的吗?小弟菜鸟 希望不要见笑 多谢.hadoop到底还有什么我不知道的。。。给我个指引啊 (公司老师培训纯扯淡啊 高谈阔论 说不清还)

Hive错误: Unrecognized Hadoop major version number: 3.2.0

我在学习hadoop的过程中,在虚拟机中下载hive,之后将mysql-connector-java-5.1.46-bin.jar拷贝到hive/lib目录下,但是启动hive的时候,出现以下错误,有没有大神知道怎么解决。(我是在启动hadoop之后启动hive)![图片说明](https://img-ask.csdn.net/upload/201906/07/1559909793_711470.png)

存储过程执行SQL与Print SQL语句单独执行结果不同

代码如下: DECLARE @SQLEX1 nVARCHAR(MAX) DECLARE @TempEX1 VARCHAR(MAX) SELECT @SQLEX1 = '' SELECT @TempEX1 = '' SET @SQLEX1 = 'SELECT @Temp3 = A.T FROM (SELECT T = REPLACE((SELECT DISTINCT ''20'' AS ''machine/@id1'',1 AS ''machine/@actionId'' FROM TEKIOUKISYU_適応機種 AS TK WHERE IUINDEX = ''' + @IUID +''' AND MDPACKKATAMEI = '''+@MDPACKKATAMEI+''' AND ID3 = ''' + @Tekiouos + ''' FOR XML PATH(''machineSupport'')),''/>'',''/>''+ISNULL((SELECT DISTINCT ID AS ''@id'' FROM TEXTINFO INNER JOIN (SELECT DISTINCT IUINDEX,MDPACKKATAMEI,BPQ20001000 AS BK FROM TEKIOUKISYU_適応機種 WHERE BPQ20001000 <> '''' AND ID3 = '''+@Tekiouos+''' AND MDPACKKATAMEI = '''+@MDPACKKATAMEI+''' AND IUINDEX = '''+@IUID+''' ) AS IPT ON IPT.IUINDEX = TEXTINFO.IUINDEX AND IPT.MDPACKKATAMEI = TEXTINFO.MDPACKKATAMEI WHERE TEXTINFO.NAME LIKE ''[0-9]%'' AND RDBv6.dbo.findRegex(VALUE,CASE WHEN IPT.BK = '''' THEN ''#'' ELSE IPT.BK END,0) = 1 FOR XML PATH(''noteRef''), ROOT(''noteRefs'')),''<noteRefs/>''))) A WHERE A.T LIKE ''%actionId%''' print @SQLEX1 EXEC sp_executesql @SQLEX1,N'@Temp3 varchar(max) output',@TempEX1 output 该段代码嵌套在一个游标中,@SQLEX1返回值@Temp3在执行的sp_executesql时返回“<machineSupport><machine id1="100" actionId="1"/><noteRefs/></machineSupport>”而使用Print出来的语句单独执行时返回“<machineSupport><machine id1="100" actionId="1"/><noteRefs><noteRef id="21EB1E0B-F74D-4131-B512-D9CF19F7B207"/></noteRefs></machineSupport>” 求大神帮忙啊,是在不懂为什么会出现这种情况

在配置ODBC数据源的过程中出现以下错误,可能是什么原因造成的呢?

数据库服务器和ODBC数据源在同一台PC上,按照正常的数据源配置方式出现以下错误,这可能是什么原因造成的呢? ![图片说明](https://img-ask.csdn.net/upload/201512/01/1448953844_723909.png) ![图片说明](https://img-ask.csdn.net/upload/201512/01/1448953902_197372.png) ![图片说明](https://img-ask.csdn.net/upload/201512/01/1448953864_566282.png) ![图片说明](https://img-ask.csdn.net/upload/201512/01/1448953872_686603.png) ![图片说明](https://img-ask.csdn.net/upload/201512/01/1448953881_368442.png) 最后测试失败 ![图片说明](https://img-ask.csdn.net/upload/201512/01/1448954536_839641.png)

如何用标准sql替换add_months 函数

因为要考虑数据库的移植问题,想问问各位大牛如何使用标准sql来替代add_months函数

在执行insert into时卡住

线上环境中在执行insert into 时卡住不执行,同时在数据库中显示这个表的状态是被锁住的,有的时候会锁住很长时间,有的时候一会就回解锁,但是数据还是没有添加进去,日志里面没有报错(无关数据量) 在开发环境中同样的sql却可以执行。有大神可以帮忙分析一下有哪些可能。表结构都相同

两个表比对,更新数据

mysql 里面 我有2个表,两个表分别是A和B A表里面有id 和sfzbh B表里面有id 和aid 和 sfzbh 现在A表里面有100W条数据 B表里面有20W条数据 我想将B表的数据和A表进行比对,如果发现B表数据在A表里面,那么B表的aid的值就等于A表的id 怎么循环查询更新 求教了,在线等,谢谢,2015-05-17 11:48分

数据库中以varbinary(8000) 保存 如何还原成字符串显示出来

0x00B18046E6B6B646B128437CA44EBFA2010000003FAB2F5413ABEA3AC1FA2AA3DCBCBE7C23EAE861839138820DB0FF67A48A91AE57C3B982119CD880577802BAC81C1F7B6282FE7F35A440AFE78098A887CA6F865C9519CD8C73BDED3C1F6ABD0DCBFAB8448AF2E08079464862202A18AEB7F17CB8DDDF40F22B3AB85618CF7C6B3D365B Options字符串被保存在数据库中 无法直接查看 加密方式是什么 如何还原? 用ILSPY反编译dll能知道读取过程吗? // SmartWeb.DAL.Question [MethodImpl(MethodImplOptions.NoInlining)] public QuestionInfo GetQuestion(int questionId) { SqlParameter[] array = new SqlParameter[] { new SqlParameter(6QPjtDlij85F2c5NUV.aiDokT4SP(14154), SqlDbType.Int) }; array[0].Value = questionId; QuestionInfo result; using (SqlConnection sqlConnection = new SqlConnection(SqlHelper.CONN_STRING)) { SqlDataReader sqlDataReader = SqlHelper.ExecuteReader(sqlConnection, CommandType.StoredProcedure, 6QPjtDlij85F2c5NUV.aiDokT4SP(14180), array); QuestionInfo questionInfo; if (sqlDataReader.Read()) { questionInfo = new QuestionInfo(); questionInfo.QuestionId = sqlDataReader.GetInt32(0); questionInfo.ParentId = sqlDataReader.GetInt32(1); questionInfo.CategoryId = sqlDataReader.GetInt32(2); questionInfo.SubjectId = sqlDataReader.GetInt32(3); questionInfo.KnowledgeId = sqlDataReader.GetInt32(4); questionInfo.YearValue = sqlDataReader.GetString(5); questionInfo.ClassId = sqlDataReader.GetString(6); questionInfo.TypeId = sqlDataReader.GetString(7); questionInfo.ChildCount = sqlDataReader.GetInt32(8); questionInfo.Difficulty = sqlDataReader.GetString(9); questionInfo.Topic = sqlDataReader.GetString(10); questionInfo.OptionCount = sqlDataReader.GetInt32(11); questionInfo.Options = sqlDataReader.GetString(12); questionInfo.Answer = sqlDataReader.GetString(13); questionInfo.AddTime = sqlDataReader.GetDateTime(14); } else { questionInfo = new QuestionInfo(); } result = questionInfo; } return result; }

创建的外部表没有数据

![图片说明](https://img-ask.csdn.net/upload/202002/22/1582377851_483285.png)![图片说明](https://img-ask.csdn.net/upload/202002/22/1582377858_389910.png)![图片说明](https://img-ask.csdn.net/upload/202002/22/1582377867_110704.png)![图片说明](https://img-ask.csdn.net/upload/202002/22/1582377880_369520.png)![图片说明](https://img-ask.csdn.net/upload/202002/22/1582377889_502383.png) 我创建了一个外部表,但是创建完查询这个表为没有数据,文件写法是正确的,请求大师帮忙看看教一下我这个新手,xie'xei

sql 有关case when 嵌套case when 语句优化

///////////////////////////////////////////////////////////////////修改前——没添加超过300的语句///////////////////////////////////////////////////////////////////////////////// select dbo.Base_Integity.ID ,Driver_Name, Mileage,Ultra_oil , case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end as Integrity_Bonus, dbo.Base_Integity.Remark,dbo.Base_Integity.Month,dbo.Base_Organization.Organization_Name from Base_Integity left join Base_Organization on Base_Integity.Organization_ID=Base_Organization.Organization_ID left join dbo.Base_Driver on Base_Integity.Driver_ID =Base_Driver.Driver_ID /////////////////////////////////////////////////////////////修改后的添加了的300的语句////////////////////////////////////////////////////////////////////////////// ``` select dbo.Base_Integity.ID ,Driver_Name, Mileage,Ultra_oil , case when ((case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end) > 300 ) then 300 when ((case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end )<300) then ((case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end)) else (Ultra_oil*0.8) end as Integrity_Bonus , --超过300语句 case when ((case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end )>300) then ((case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end )-300) when ((case when (ABS (Ultra_oil) > 100 ) and (Ultra_oil > 0 ) then 80+(Ultra_oil-100)*1 when ( ABS (Ultra_oil) > 100 ) and (Ultra_oil < 0 ) then -(80+(ABS(Ultra_oil)-100)*1) else (Ultra_oil*0.8) end )<300) then 0 else null end as Remark, dbo.Base_Integity.Month,dbo.Base_Organization.Organization_Name from Base_Integity left join Base_Organization on Base_Integity.Organization_ID=Base_Organization.Organization_ID left join dbo.Base_Driver on Base_Integity.Driver_ID =Base_Driver.Driver_ID /////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////// 即:小于等于100升的,奖金(Integrity_Bonus)=节超油( Ultra_oil )*0.8 大于100升的,奖金=80+(节超油-100)*1 节超奖金大于300元的按300元算,超出部分记录备注(Remark) 优化一下添加了超过300的语句 ```

提取数据 算当月合计、累计的棘手问题

我现在要做一张综合报表, 要从基础数据表:A, B, C, D, E, F.....中提取基础数据。 现在的实现方式是通过存储过程将每个表中符合要求的数据查出来,插入到另外一张表(类似于临时表),并用一个字段标记数据的来源和类型。 1,求当月合计就是将这些小存储过程通通调用一遍。把数据都插入到临时表了,方便后面出报表时调用(该过程没有问题)。 2,求该年1月到当月累计,将临时表中前面月份已经生成的数据和当月合计数据求sum, 问题出来了: a,假如我前面有个月份没调用生成合计的过程,该月份再生成累计的过程中就会被丢失。 b,假如我重新修改了前面某个月份的基础数据,在临时表里已经生成的数据不会随着改动。 本人新手,请教各位高手a, b问题怎么解决好,千万别重新调用从一月到当月的sum来求累计,因为数据量比较大,效率太低。

怎么快速计算两个字符串相似度

如何能够计算两个字符串相似度,比如agccta和acctg这两个字符串,如果可以能得到不相同的位置就很好

MySQL 8.0.19安装教程(windows 64位)

话不多说直接开干 目录 1-先去官网下载点击的MySQL的下载​ 2-配置初始化的my.ini文件的文件 3-初始化MySQL 4-安装MySQL服务 + 启动MySQL 服务 5-连接MySQL + 修改密码 先去官网下载点击的MySQL的下载 下载完成后解压 解压完是这个样子 配置初始化的my.ini文件的文件 ...

Python+OpenCV计算机视觉

Python+OpenCV计算机视觉系统全面的介绍。

Vue.js 2.0之全家桶系列视频课程

基于新的Vue.js 2.3版本, 目前新全的Vue.js教学视频,让你少走弯路,直达技术前沿! 1. 包含Vue.js全家桶(vue.js、vue-router、axios、vuex、vue-cli、webpack、ElementUI等) 2. 采用笔记+代码案例的形式讲解,通俗易懂

navicat(内含激活码)

navicat支持mysql的可视化操作,内涵激活码,不用再忍受弹框的痛苦。

HTML期末大作业

这是我自己做的HTML期末大作业,花了很多时间,稍加修改就可以作为自己的作业了,而且也可以作为学习参考

150讲轻松搞定Python网络爬虫

【为什么学爬虫?】 &nbsp; &nbsp; &nbsp; &nbsp;1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到! &nbsp; &nbsp; &nbsp; &nbsp;2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是: 网络请求:模拟浏览器的行为从网上抓取数据。 数据解析:将请求下来的数据进行过滤,提取我们想要的数据。 数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。 那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是: 爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。 Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。 通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 &nbsp; 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求! 【课程服务】 专属付费社群+每周三讨论会+1v1答疑

三个项目玩转深度学习(附1G源码)

从事大数据与人工智能开发与实践约十年,钱老师亲自见证了大数据行业的发展与人工智能的从冷到热。事实证明,计算机技术的发展,算力突破,海量数据,机器人技术等,开启了第四次工业革命的序章。深度学习图像分类一直是人工智能的经典任务,是智慧零售、安防、无人驾驶等机器视觉应用领域的核心技术之一,掌握图像分类技术是机器视觉学习的重中之重。针对现有线上学习的特点与实际需求,我们开发了人工智能案例实战系列课程。打造:以项目案例实践为驱动的课程学习方式,覆盖了智能零售,智慧交通等常见领域,通过基础学习、项目案例实践、社群答疑,三维立体的方式,打造最好的学习效果。

基于STM32的电子时钟设计

时钟功能 还有闹钟功能,温湿度功能,整点报时功能 你值得拥有

学生成绩管理系统(PHP + MYSQL)

做的是数据库课程设计,使用的php + MySQL,本来是黄金搭配也就没啥说的,推荐使用wamp服务器,里面有详细的使用说明,带有界面的啊!呵呵 不行的话,可以给我留言!

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

程序员的兼职技能课

获取讲师答疑方式: 在付费视频第一节(触摸命令_ALL)片头有二维码及加群流程介绍 限时福利 原价99元,今日仅需39元!购课添加小助手(微信号:itxy41)按提示还可领取价值800元的编程大礼包! 讲师介绍: 苏奕嘉&nbsp;前阿里UC项目工程师 脚本开发平台官方认证满级(六级)开发者。 我将如何教会你通过【定制脚本】赚到你人生的第一桶金? 零基础程序定制脚本开发课程,是完全针对零脚本开发经验的小白而设计,课程内容共分为3大阶段: ①前期将带你掌握Q开发语言和界面交互开发能力; ②中期通过实战来制作有具体需求的定制脚本; ③后期将解锁脚本的更高阶玩法,打通任督二脉; ④应用定制脚本合法赚取额外收入的完整经验分享,带你通过程序定制脚本开发这项副业,赚取到你的第一桶金!

实用主义学Python(小白也容易上手的Python实用案例)

原价169,限时立减100元! 系统掌握Python核心语法16点,轻松应对工作中80%以上的Python使用场景! 69元=72讲+源码+社群答疑+讲师社群分享会&nbsp; 【哪些人适合学习这门课程?】 1)大学生,平时只学习了Python理论,并未接触Python实战问题; 2)对Python实用技能掌握薄弱的人,自动化、爬虫、数据分析能让你快速提高工作效率; 3)想学习新技术,如:人工智能、机器学习、深度学习等,这门课程是你的必修课程; 4)想修炼更好的编程内功,优秀的工程师肯定不能只会一门语言,Python语言功能强大、使用高效、简单易学。 【超实用技能】 从零开始 自动生成工作周报 职场升级 豆瓣电影数据爬取 实用案例 奥运冠军数据分析 自动化办公:通过Python自动化分析Excel数据并自动操作Word文档,最终获得一份基于Excel表格的数据分析报告。 豆瓣电影爬虫:通过Python自动爬取豆瓣电影信息并将电影图片保存到本地。 奥运会数据分析实战 简介:通过Python分析120年间奥运会的数据,从不同角度入手分析,从而得出一些有趣的结论。 【超人气老师】 二两 中国人工智能协会高级会员 生成对抗神经网络研究者 《深入浅出生成对抗网络:原理剖析与TensorFlow实现》一书作者 阿里云大学云学院导师 前大型游戏公司后端工程师 【超丰富实用案例】 0)图片背景去除案例 1)自动生成工作周报案例 2)豆瓣电影数据爬取案例 3)奥运会数据分析案例 4)自动处理邮件案例 5)github信息爬取/更新提醒案例 6)B站百大UP信息爬取与分析案例 7)构建自己的论文网站案例

Java8零基础入门视频教程

这门课程基于主流的java8平台,由浅入深的详细讲解了java SE的开发技术,可以使java方向的入门学员,快速扎实的掌握java开发技术!

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

零基础学C#编程—C#从小白到大咖

本课程从初学者角度出发,提供了C#从入门到成为程序开发高手所需要掌握的各方面知识和技术。 【课程特点】 1 由浅入深,编排合理; 2 视频讲解,精彩详尽; 3 丰富实例,轻松易学; 4 每章总结配有难点解析文档。 15大章节,228课时,1756分钟与你一同进步!

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

多功能数字钟.zip

利用数字电子计数知识设计并制作的数字电子钟(含multisim仿真),该数字钟具有显示星期、24小时制时间、闹铃、整点报时、时间校准功能

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

想学好JAVA必须要报两万的培训班吗? Java大神勿入 如果你: 零基础想学JAVA却不知道从何入手 看了一堆书和视频却还是连JAVA的环境都搭建不起来 囊中羞涩面对两万起的JAVA培训班不忍直视 在职没有每天大块的时间专门学习JAVA 那么恭喜你找到组织了,在这里有: 1. 一群志同道合立志学好JAVA的同学一起学习讨论JAVA 2. 灵活机动的学习时间完成特定学习任务+每日编程实战练习 3. 热心助人的助教和讲师及时帮你解决问题,不按时完成作业小心助教老师的家访哦 上一张图看看前辈的感悟: &nbsp; &nbsp; 大家一定迫不及待想知道什么是极简JAVA学习营了吧,下面就来给大家说道说道: 什么是极简JAVA学习营? 1. 针对Java小白或者初级Java学习者; 2. 利用9天时间,每天1个小时时间; 3.通过 每日作业 / 组队PK / 助教答疑 / 实战编程 / 项目答辩 / 社群讨论 / 趣味知识抢答等方式让学员爱上学习编程 , 最终实现能独立开发一个基于控制台的‘库存管理系统’ 的学习模式 极简JAVA学习营是怎么学习的? &nbsp; 如何报名? 只要购买了极简JAVA一:JAVA入门就算报名成功! &nbsp;本期为第四期极简JAVA学习营,我们来看看往期学员的学习状态: 作业看这里~ &nbsp; 助教的作业报告是不是很专业 不交作业打屁屁 助教答疑是不是很用心 &nbsp; 有奖抢答大家玩的很嗨啊 &nbsp; &nbsp; 项目答辩终于开始啦 &nbsp; 优秀者的获奖感言 &nbsp; 这是答辩项目的效果 &nbsp; &nbsp; 这么细致的服务,这么好的氛围,这样的学习效果,需要多少钱呢? 不要1999,不要199,不要99,只要9.9 是的你没听错,只要9.9以上所有就都属于你了 如果你: 1、&nbsp;想学JAVA没有基础 2、&nbsp;想学JAVA没有整块的时间 3、&nbsp;想学JAVA没有足够的预算 还等什么?赶紧报名吧,抓紧抢位,本期只招300人,错过只有等时间待定的下一期了 &nbsp; 报名请加小助手微信:eduxy-1 &nbsp; &nbsp;

Python可以这样学(第一季:Python内功修炼)

董付国系列教材《Python程序设计基础》、《Python程序设计(第2版)》、《Python可以这样学》配套视频,讲解Python 3.5.x和3.6.x语法、内置对象用法、选择与循环以及函数设计与使用、lambda表达式用法、字符串与正则表达式应用、面向对象编程、文本文件与二进制文件操作、目录操作与系统运维、异常处理结构。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

机器学习实战系列套餐(必备基础+经典算法+案例实战)

机器学习实战系列套餐以实战为出发点,帮助同学们快速掌握机器学习领域必备经典算法原理并结合Python工具包进行实战应用。建议学习顺序:1.Python必备工具包:掌握实战工具 2.机器学习算法与实战应用:数学原理与应用方法都是必备技能 3.数据挖掘实战:通过真实数据集进行项目实战。按照下列课程顺序学习即可! 课程风格通俗易懂,用最接地气的方式带领大家轻松进军机器学习!提供所有课程代码,PPT与实战数据,有任何问题欢迎随时与我讨论。

Java面试题大全(2020版)

发现网上很多Java面试题都没有答案,所以花了很长时间搜集整理出来了这套Java面试题大全,希望对大家有帮助哈~ 本套Java面试题大全,全的不能再全,哈哈~ 一、Java 基础 1. JDK 和 JRE 有什么区别? JDK:Java Development Kit 的简称,java 开发工具包,提供了 java 的开发环境和运行环境。 JRE:Java Runtime Environ...

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

HoloLens2开发入门教程

本课程为HoloLens2开发入门教程,讲解部署开发环境,安装VS2019,Unity版本,Windows SDK,创建Unity项目,讲解如何使用MRTK,编辑器模拟手势交互,打包VS工程并编译部署应用到HoloLens上等。

几率大的Redis面试题(含答案)

本文的面试题如下: Redis 持久化机制 缓存雪崩、缓存穿透、缓存预热、缓存更新、缓存降级等问题 热点数据和冷数据是什么 Memcache与Redis的区别都有哪些? 单线程的redis为什么这么快 redis的数据类型,以及每种数据类型的使用场景,Redis 内部结构 redis的过期策略以及内存淘汰机制【~】 Redis 为什么是单线程的,优点 如何解决redis的并发竞争key问题 Red...

MFC一站式终极全套课程包

该套餐共包含从C小白到C++到MFC的全部课程,整套学下来绝对成为一名C++大牛!!!

【数据结构与算法综合实验】欢乐连连看(C++ & MFC)案例

这是武汉理工大学计算机学院数据结构与算法综合实验课程的第三次项目:欢乐连连看(C++ & MFC)迭代开发代码。运行环境:VS2017。已经实现功能:开始游戏、消子、判断胜负、提示、重排、计时、帮助。

YOLOv3目标检测实战:训练自己的数据集

YOLOv3是一种基于深度学习的端到端实时目标检测方法,以速度快见长。本课程将手把手地教大家使用labelImg标注和使用YOLOv3训练自己的数据集。课程分为三个小项目:足球目标检测(单目标检测)、梅西目标检测(单目标检测)、足球和梅西同时目标检测(两目标检测)。 本课程的YOLOv3使用Darknet,在Ubuntu系统上做项目演示。包括:安装Darknet、给自己的数据集打标签、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计(mAP计算和画出PR曲线)和先验框聚类。 Darknet是使用C语言实现的轻型开源深度学习框架,依赖少,可移植性好,值得深入探究。 除本课程《YOLOv3目标检测实战:训练自己的数据集》外,本人推出了有关YOLOv3目标检测的系列课程,请持续关注该系列的其它课程视频,包括: 《YOLOv3目标检测实战:交通标志识别》 《YOLOv3目标检测:原理与源码解析》 《YOLOv3目标检测:网络模型改进方法》 敬请关注并选择学习!

u-boot-2015.07.tar.bz2

uboot-2015-07最新代码,喜欢的朋友请拿去

相关热词 c# dbml文件 修改 c#遍历tree c# 能够控制单片机 c#对象写入数据库 c# 添加activex c#2005 json c# 数据库在云端 c# 字符串移位加密 c#禁用滚轮 c#实体类list去重复
立即提问