lucene/IK查询怎么在得分一样的情况下按照另一个字段排序 20C

最近刚开始学习Lucene, 是按照IK6.5分词保存索引和查询,现在默认查询是按照命
中分数排序,可是还有一个字段是记录浏览次数的,就是当一条记录被浏览的次数多就应该出现在最上面,相当于要对这个字段进行排序,这个可以更新索引,但是查询的时
候怎么样在分数一样的情况下对另一个字段进行排序?
Sort在这里怎么用,用Sort之后就一条也查不出来了,不用就可以正常查询!
SortField sortField = new SortField("checkTimes", SortField.Type.STRING,true);
org.apache.lucene.search.Sort sort = new org.apache.lucene.search.Sort(sortField);
TopDocs topDocs = indexSearcher.search(query, 20, sort);

ik

2个回答

Lucene的默认排序是按照Document的得分进行排序的。当检索结果集中的两个Document的具有相同的得分时,默认按照Document的ID对结果进行排序。
下面研究几种设置/改变检索结果排序的方法。
1、改变Document的boost(激励因子)
改变boost的大小,会导致Document的得分的改变,从而按照Lucene默认的对检索结果集的排序方式,改变检索结果中Document的排序的提前或者靠后。在计算得分的时候,使用到了boost的值,默认boost的值为1.0,也就说默认情况下Document的得分与boost的无关的。一旦改变了默认的boost的值,也就从Document的得分与boost无关,变为相关了:boost值越大,Document的得分越高。
2、改变Field的boost(激励因子)
改变Field的boost值,和改变Document的boost值是一样的。因为Document的boost是通过添加到Docuemnt中Field体现的,所以改变Field的boost值,可以改变Document的boost值。
3、使用Sort排序工具实现排序
Lucene在查询的时候,可以通过以一个Sort作为参数构造一个检索器IndexSearcher,在构造Sort的时候,指定排序规则。
调用sort进行排序的方法是IndexSearcher.search,例如:
IndexSearcher.search(query,sort);
关于Sort类,在其内部定义了6种构造方法:
public Sort() //
public Sort(SortField field) //通过构造某个域(field)的SortField对象根据一个域进行排序
public Sort(SortField[] fields) //通过构造一组域(field)的SortField对象组实现根据多个域排序
public Sort(String field) //根据某个域(field)的名称构造Sort进行排序
public Sort(String field, boolean reverse) //根据某个域(field)的名称构造SortField进行排序,reverse为true为升序
public Sort(String[] fields) //根据一组域(field)的名称构造一组Sort进行排序
4、直接使用SortField实现排序
关于SortField类,在其内部定义了7种构造方法:
public SortField (String field, boolean reverse)//根据某个域(field)的名称构造SortField, reverse为false为升序
public SortField (String field, int type)
public SortField (String field, int type, boolean reverse)
public SortField (String field, Locale locale)
public SortField (String field, Locale locale, boolean reverse)
public SortField (String field, SortComparatorSource comparator)
public SortField (String field, SortComparatorSource comparator, boolean reverse)
type对应的值分别为:
SortField. SCORE 按积分排序
SortField. DOC 按文档排序
SortField. AUTO 域的值为int、long、float都有效
SortField.STRING 域按STRING排序
SortField..FLOAT
SortField.LONG
SortField.DOUBLE
SortField.SHORT
SortField.CUSTOM 通过比较器排序
SortField.BYTE
5、自定义排序
Lucene中的自定义排序功能和Java集合中的自定义排序的实现方法差不多,都要实现一下比较接口. 在Java中只要实现Comparable接口就可以了.但是在Lucene中要实现SortComparatorSource接口和ScoreDocComparator接口.在了解具体实现方法之前先来看看这两个接口的定义吧

lucene自带的分词器对中文支持不够好,只能将中文切分成一个个汉字而不是完整的词。解决办法是用IKAnalyzer替代lucene自带的分词器。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
关于lucene+IK分词,查询条件越长,查询结果越多的问题怎么破

如题,lucene+IK分词实现检索功能,目的是比数据库查询快的多,但是问题来了,如:我输入“小米”查询企业信息列表,返回了**小米**XXXXX公司、**小米**XXXXX服务公司。。。。。,我输入“小米科技”,返回了**小米**XXXXX公司、**小米**XXXXX服务公司、XXX百度**科技**XXXX公司,输入越精确分词返回结果集越多,想想觉得不太合理,希望将分词后返回包含所有分词后小词条的结果,但是没找到相应的办法,不知道有没坛友遇到类似问题有解决经验的,求指引! PropKit.use(ConstantConfig.CONFIG_PROPERTIES); Directory dir = FSDirectory.open(Paths.get(PropKit.get(ConstantConfig.LUCENCE_PATH)));// 打开索引目录 IndexSearcher isearcher = new IndexSearcher(DirectoryReader.open(dir));// search对象 IKAnalyzer analyzer = new IKAnalyzer(false);// IK分词器 // KeywordAnalyzer analyzer = new KeywordAnalyzer(); // StandardAnalyzer analyzer = new StandardAnalyzer(); List<String> fieldNameList = new ArrayList<String>(); List<String> fieldValueList = new ArrayList<String>(); fieldNameList.add(ConstantField.STATUS_CODE); fieldValueList.add(StatusCode.STATUS_NORMAL.getValue()); fieldNameList.add("spName"); fieldValueList.add("小米科技"); // 分页查询 TopFieldCollector c = TopFieldCollector.create(new Sort(SortField.FIELD_SCORE), 50, false, false, false); if (fieldNameList.size() < 1) { isearcher.search(new MatchAllDocsQuery(), c); } else { String[] queries = new String[fieldNameList.size()]; String[] fields = new String[fieldNameList.size()]; BooleanClause.Occur[] clauses = new BooleanClause.Occur[fieldNameList.size()]; for (int i = 0; i < fieldNameList.size(); i++) { queries[i] = fieldValueList.get(i); fields[i] = fieldNameList.get(i); clauses[i] = BooleanClause.Occur.MUST; } //多字段查询 QueryParser parser=new MultiFieldQueryParser(new String[]{""}, analyzer); Query query = MultiFieldQueryParser.parse(queries, fields, clauses, analyzer); isearcher.search(query, c); } System.out.println(c.getTotalHits()); ScoreDoc[] hits = c.topDocs(0, 50).scoreDocs; List<Map<String, Object>> dataList = new ArrayList<Map<String, Object>>(); Map<String, Object> entity; for (int i = 0; i < hits.length; i++) { Document doc = isearcher.doc(hits[i].doc); entity = new HashMap<String, Object>(); entity.put("spName", doc.get("spName")); dataList.add(entity); } System.out.println(JSON.toJSON(dataList).toString());

Lucene多字段查询时如何确定命中的字段。

在Lucene全文检索时,采用的是MultiReader和IndexSearch,对多目录多字段的查询方式,如何确定在多个字段内查询时,命中的Field.就像我在“标题”“内容”“创建日期”等多个字段中查询有关“张三”的内容,这个内容出现在那些字段。怎么确定?

lucene/solr选择哪个版本

如题。 查看官网[lucene官网](https://lucene.apache.org/ "lucene官网"),对Apache发布的版本顺序有点摸不着头脑。 24 October 2017, Apache Lucene 5.5.5 and Apache Solr 5.5.5 18 October 2017, Apache Lucene 6.6.2 and Apache Solr 6.6.2 17 October 2017 - Apache Lucene 7.1.0 and Apache Solr 7.1.0 。。。 怎么时间上越新的版本却是5.5.5,早些的却是6.6.2?7.1.0? 难道是Apache在管理多个系列(ex:5.x,6.x,7.x)的lucene/solr吗? 发布的都是每个系列最新的版本? 如果是的,那么作为初入学习Lucene,选择哪个版本比较好呢?

solr7.1.0+ik中文分词器配置完后查询没分词

solr7.1.0配置分词器后查询时不分词,但在solr客户端analysis中可以分词成功![图片说明](https://img-ask.csdn.net/upload/201711/30/1512032821_706586.png) 1、managed-schema中ik配置 <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index"> <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" isMaxWordLength="false"/> </analyzer> <analyzer type="query"> <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" isMaxWordLength="true"/> </analyzer> </fieldType> 2、使用了solr7.1.0自带的分词器也是查询时没分词。 <fieldType name="solr_participle" class="solr.TextField" positionIncrementGap="100"> <analyzer type="index"> <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/> </analyzer> <analyzer type="query"> <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/> </analyzer> </fieldType>

关于lucene的多条件查询问题

![图片说明](https://img-ask.csdn.net/upload/201508/31/1441015213_995120.png) 我想用lucene的BooleanQuery写出这种类型的条件

lucene和solr该用什么

现在项目用的是lucene,发现有些功能支持的不太全面或是性能比较低,现在来看solr能支持很多东西,但是如果用solr的话,又得做一些改动,在这方面,有接触过的吗,给一下建议。也可以说一下,什么场景下适合用lucene,什么时候时候用solr呢

Lucene能否像数据库那样对已存放记录的索引文件的某字段进行增/删/改?

比如现在的索引文件中的字段是articleid、title、content、create_date、userid,并且已经索引了10000个记录。 我现在需要将其中的userid字段删除掉,将date字段重命名为last_modify,同时增加一个visit_count字段。 请问Lucene是否支持这样的操作呢?

如何用正则表达式创建Lucene的短语查询?

假设有3个文档分别包含如下3个字符串。 * &lt;book isbn="101" name="abc" /&gt; * &lt;book isbn="102" name="def" /&gt; * &lt;book isbn="201" name="ghi" /&gt; 我想创建一个使用正则表达式的Lucene短语查询,来查询并返回以上的第1和第2个文档。但是使用如下的语句并没有效果。 ``` Query luceneQuery = new RegexpQuery(new Term("content", "isbn=\"1\d+\"")); ``` 请问是否有办法能做到使用正则表达式的Lucene短语查询呢?谢谢。

Lucene的Demo,查询不出来数据

今天初步学习了一下Lucene框架,写了一个Demo: 添加索引: ![图片说明](https://img-ask.csdn.net/upload/201707/03/1499059075_423686.png) 然后是搜索: ![图片说明](https://img-ask.csdn.net/upload/201707/03/1499061253_358878.png) 但是查询结果是0,不知道为什么,索引文件已经生成: ![图片说明](https://img-ask.csdn.net/upload/201707/03/1499059140_449499.png) 求大神解答,在线等...

lucene 的中文精确匹配问题

遇到了个麻烦想了很久 Lucene做全文检索的时候 对句子用IKAnalyzer 分词 然后需求是 能做到比如类似 word 中 ctrl +f 那种 精确匹配的 比如句子 “大家好”IKAnalyzer分词结果 为 大家|好 但是希望 ”大家“ 、 “家好” 这种 也能搜到结果 该怎么进行查询 就有点像 在 word中 一段文章 搜 文字内容一样 再比如句子 “百度公司” “腾讯公司” 我现在是对 搜索的输入也进行分词 这样会导致 搜索 “百度公司” 时 被分为了 百度|公司 然后 腾讯公司 这个结果也出来了

Lucene的Highlighter如何才能将不分词直接索引的字段加高亮?

【背景】 用户要求输入文章的完整标题也能将该文章完整检索下来,如“商海里穿梭的鱼:偷懒的6条原则”。 【我的想法】 在设计时多加一个字段用于对文章的标题不分词直接索引,这样就能实现用户要求的功能。但由于要结合Highlighter将用户输入的短语用标签对<font></font>高亮显示,而Highlighter的getBestFragment()方法又必须要使用分词器或Token进行分词,这样把标题分词后就导致无法对整个文章标题加高亮了。 对于这个问题,虽然可以在做页面时给完整的文章标题可以手工添加高亮标签对<font></font>,但这样会带来一些麻烦,如代码变得很不协调,更糟糕的是可能会出现这样的情况:用户选择以文章的完整标题作为输入,且标题是“暧昧”,而“暧昧”本身就是一个分词单元,这样就会产生<font color='red'><font color='red'>暧昧</fong></font>的标签对嵌套(内层标签对是高亮器自动添加的,外层的则是在页面输出时手工添加的)。 请问对于这个问题,有什么比较好的解决方法呢?

lucene 如何先执行查询后执行过滤

版本:lucene3.6 问题:现在项目中即有query又有filter,filter中有一个去重过滤器,如何让lucene先执行查询后再执行filter?如果先按某字段去重了,再查询会导某些其它字段条件致数据丢失

IKAnalyzer2012_FF和lucene5.4运行异常

各位好,我想在android上运行中文分词程序,目前用的是IKAnalyzer2012_FF和lucene5.4,但是在运行的时候报了异常,异常如下: Exception in thread "main" java.lang.AbstractMethodError: org.apache.lucene.analysis.Analyzer.createComponents(Ljava/lang/String;)Lorg/apache/lucene/analysis/Analyzer$TokenStreamComponents; at org.apache.lucene.analysis.Analyzer.tokenStream(Analyzer.java:140) at cn.nubia.com.iktest.MainTest.main(MainTest.java:25) 网上查到资料都说是由于lucene版本过低导致的,但是从IKAnalyzer的说明文档来看2012版应该是对lucene3.3以上版本兼容的,而且我使用lucene3.6也不行,请问有没有哪位大神能指导一二啊,谢谢了。下面是测试的代码。 import java.io.IOException; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; import org.wltea.analyzer.lucene.IKAnalyzer; public class MainTest { /** * @param args * @throws IOException */ public static void main(String[] args) throws IOException { // TODO Auto-generated method stub System.out.println("lztest"); String text="基于java语言开发的轻量级的中文分词工具包"; //创建分词对象 Analyzer anal=new IKAnalyzer(true); StringReader reader=new StringReader(text); //分词 TokenStream ts=anal.tokenStream("", reader); CharTermAttribute term=ts.getAttribute(CharTermAttribute.class); //遍历分词数据 while(ts.incrementToken()){ System.out.print(term.toString()+"|"); } reader.close(); System.out.println(); } }

Lucene的性能问题

各位大侠,小弟刚弄的lucene,索引1G的文件耗时[color=red]3分钟左右(误差不超过5秒),[/color]检索速度为[color=red]2秒[/color],请问这样的速度算不算慢啊。还有什么优化的方案吗 [b]问题补充:[/b] 我现在就想加快索引创建的速度,这是我的部分代码(没有别的意思啊),我自己写的也不好,也太多,怕发上来大家没耐心看完 [code="java"] IndexWriter indexWriter = new IndexWriter(indexDir,luceneAnalyzer, true, IndexWriter.MaxFieldLength.LIMITED); indexWriter.setRAMBufferSizeMB(50); indexWriter.setMaxFieldLength(2000); indexWriter.setMergeFactor(200); Document document = new Document(); document.add(new Field("path", textFiles[i].getPath(),Field.Store.YES, Field.Index.NO)); document.add(new Field("title", filetype,Field.Store.YES, Field.Index.ANALYZED)); document.add( new Field("content", temp, Field.Store.YES,Field.Index.ANALYZED,Field.TermVector.WITH_POSITIONS_OFFSETS)); indexWriter.addDocument(document); indexWriter.optimize indexWriter.close(); [/code] [b]问题补充:[/b] 谢谢sunlightcs大侠,我已经用了那个优化索引的方法了。我想在想加快索引文件的创建速度

如何在eclipse中导入lucene源码

最近想学习lucene的源代码,可是在将源代码到入eclipse中时总是出现错误。 求教,有没同学分享在eclipse中导入lucene源码的经验?谢了!

Lucene 5.5.3高亮获取TokenStream异常

高亮部分代码如下:** ``` # public String[] getHightlingterContent(String searchCode,String filePath){ # String[] result =new String[]{}; # String text = CodeFileReader.getCode(new File(filePath)); # Query query = new TermQuery(new Term("content",searchCode)); # // 对于符合条件的结果进行 score # QueryScorer queryScorer = new QueryScorer(query, "content"); # // 自定义高亮格式 # SimpleHTMLFormatter simpleHTMLFormatter = new SimpleHTMLFormatter("<font color='red'>", "</font>"); # # Highlighter highlighter = new Highlighter(simpleHTMLFormatter, queryScorer); # // 设置片段插入信息 # highlighter.setTextFragmenter(new SimpleSpanFragmenter(queryScorer)); # // 分词器, 这个只能分英文 # StandardAnalyzer analyzer = new StandardAnalyzer(); # // 结果处理 # StringReader reader = new StringReader(text); # TokenStream tokenStream = analyzer.tokenStream("", reader); # try { # String finalResult = highlighter.getBestFragment(tokenStream, text); # if (null != finalResult) { # result = finalResult.split("\n"); # } # } catch (IOException e) { # e.printStackTrace(); # } catch (InvalidTokenOffsetsException e) { # e.printStackTrace(); # } # for (String string : result) { # System.out.println(string); # } # return result; # } ``` 通过main方法单独测试上面方法时是没有问题的,但是放到web里面就有问题了。 前台控制器里面是这样写的: ``` model.addAttribute("contents",new HighlighterHandler().getHightlingterContent(searchCode, filePath)); ``` 然后就会报错: DEBUG [http-bio-8080-exec-26] -Could not complete request org.springframework.web.util.NestedServletException: Handler processing failed; nested exception is java.lang.AbstractMethodError: org.apache.lucene.analysis.standard.StandardAnalyzer.tokenStream(Ljava/lang/String;Ljava/io/Reader;)Lorg/apache/lucene/analysis/TokenStream; at org.springframework.web.servlet.DispatcherServlet.triggerAfterCompletionWithError(DispatcherServlet.java:1303) at org.springframework.web.servlet.DispatcherServlet.doDispatch(DispatcherServlet.java:977) at org.springframework.web.servlet.DispatcherServlet.doService(DispatcherServlet.java:893) at org.springframework.web.servlet.FrameworkServlet.processRequest(FrameworkServlet.java:970) at org.springframework.web.servlet.FrameworkServlet.doGet(FrameworkServlet.java:861) at javax.servlet.http.HttpServlet.service(HttpServlet.java:624) at org.springframework.web.servlet.FrameworkServlet.service(FrameworkServlet.java:846) at javax.servlet.http.HttpServlet.service(HttpServlet.java:731) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:303) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at org.apache.tomcat.websocket.server.WsFilter.doFilter(WsFilter.java:52) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:241) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at org.springframework.web.filter.CharacterEncodingFilter.doFilterInternal(CharacterEncodingFilter.java:85) at org.springframework.web.filter.OncePerRequestFilter.doFilter(OncePerRequestFilter.java:107) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:241) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:208) at org.apache.catalina.core.StandardWrapperValve.invoke(StandardWrapperValve.java:220) at org.apache.catalina.core.StandardContextValve.invoke(StandardContextValve.java:122) at org.apache.catalina.authenticator.AuthenticatorBase.invoke(AuthenticatorBase.java:505) at org.apache.catalina.core.StandardHostValve.invoke(StandardHostValve.java:169) at org.apache.catalina.valves.ErrorReportValve.invoke(ErrorReportValve.java:103) at org.apache.catalina.valves.AccessLogValve.invoke(AccessLogValve.java:956) at org.apache.catalina.core.StandardEngineValve.invoke(StandardEngineValve.java:116) at org.apache.catalina.connector.CoyoteAdapter.service(CoyoteAdapter.java:436) at org.apache.coyote.http11.AbstractHttp11Processor.process(AbstractHttp11Processor.java:1078) at org.apache.coyote.AbstractProtocol$AbstractConnectionHandler.process(AbstractProtocol.java:625) at org.apache.tomcat.util.net.JIoEndpoint$SocketProcessor.run(JIoEndpoint.java:316) at java.util.concurrent.ThreadPoolExecutor.runWorker(Unknown Source) at java.util.concurrent.ThreadPoolExecutor$Worker.run(Unknown Source) at org.apache.tomcat.util.threads.TaskThread$WrappingRunnable.run(TaskThread.java:61) at java.lang.Thread.run(Unknown Source) Caused by: java.lang.AbstractMethodError: org.apache.lucene.analysis.standard.StandardAnalyzer.tokenStream(Ljava/lang/String;Ljava/io/Reader;)Lorg/apache/lucene/analysis/TokenStream; at com.zjj.ssm.handler.HighlighterHandler.getHightlingterContent(HighlighterHandler.java:39) at com.zjj.ssm.controller.SearchController.view(SearchController.java:50) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(Unknown Source) at java.lang.reflect.Method.invoke(Unknown Source) at org.springframework.web.method.support.InvocableHandlerMethod.doInvoke(InvocableHandlerMethod.java:221) at org.springframework.web.method.support.InvocableHandlerMethod.invokeForRequest(InvocableHandlerMethod.java:137) at org.springframework.web.servlet.mvc.method.annotation.ServletInvocableHandlerMethod.invokeAndHandle(ServletInvocableHandlerMethod.java:110) at org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter.invokeHandlerMethod(RequestMappingHandlerAdapter.java:806) at org.springframework.web.servlet.mvc.method.annotation.RequestMappingHandlerAdapter.handleInternal(RequestMappingHandlerAdapter.java:729) at org.springframework.web.servlet.mvc.method.AbstractHandlerMethodAdapter.handle(AbstractHandlerMethodAdapter.java:85) at org.springframework.web.servlet.DispatcherServlet.doDispatch(DispatcherServlet.java:959) ... 30 more

lucene不分词如果实现模糊查询

因为要存数字,比如12345678,我没有分词,想通过123,或者3456等关键字可以查出该条记录,请问怎么做?谢谢

Solr - 如何在不通过查询字段的情况下搜索所有字段?

<div class="post-text" itemprop="text"> <p>I have tried as below,</p> <pre><code>&lt;field name="collector" type="text_general" indexed="true" stored="false" multiValued="true" /&gt; </code></pre> <p>and copy all my fields to <strong>copyField</strong> as below,</p> <pre><code>&lt;copyField source="fullname" dest="collector"/&gt; &lt;copyField source="email" dest="collector"/&gt; &lt;copyField source="city" dest="collector"/&gt; </code></pre> <p>and also I have put all <strong>copyField</strong> tags below </p> <pre><code>&lt;fields&gt; &lt;/fields&gt; </code></pre> <p>tags. But I cant search in all fields. I have to pass <strong>fullname</strong> before query like,</p> <pre><code>q=fullname:Mayur </code></pre> <p>I want search by,</p> <pre><code>q=Mayur </code></pre> <p>And I should search all fields contains <strong>Mayur</strong> word.</p> <p>Help me please</p> </div>

lucene多条件搜索时or与and问题

lucene版本:3.6 分词器:ansj_seg-master 在lucene多条件搜索时,想根据两个字段去做搜索,创建的Query如下所示 Analyzer analyzer = new AnsjAnalysis(); String paramsStr[] = new String[] { "CA0000001", "特惠" }; String keys[] = new String[] {"code", "name" }; BooleanClause.Occur occur[] = new BooleanClause.Occur[] { BooleanClause.Occur.MUST, BooleanClause.Occur.MUST}; Query query = MultiFieldQueryParser.parse(Version.LUCENE_36, paramsStr, keys, occur, analyzer); 索引中确定有code为"CA0000001",name为"特惠"的数据,但就是为BooleanClause.Occur.MUST时找不到,如果为BooleanClause.Occur.SHOULD,则可以查询到那条数据 请问各位要怎么解决?

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

软件测试入门、SQL、性能测试、测试管理工具

软件测试2小时入门,让您快速了解软件测试基本知识,有系统的了解; SQL一小时,让您快速理解和掌握SQL基本语法 jmeter性能测试 ,让您快速了解主流来源性能测试工具jmeter 测试管理工具-禅道,让您快速学会禅道的使用,学会测试项目、用例、缺陷的管理、

基于西门子S7—1200的单部六层电梯设计程序,1部6层电梯

基于西门子S7—1200的单部六层电梯设计程序,1部6层电梯。 本系统控制六层电梯, 采用集选控制方式。 为了完成设定的控制任务, 主要根据电梯输入/输出点数确定PLC 的机型。 根据电梯控制的要求,

捷联惯导仿真matlab

捷联惯导的仿真(包括轨迹仿真,惯性器件模拟输出,捷联解算),标了详细的注释捷联惯导的仿真(包括轨迹仿真,惯性器件模拟输出,捷联解算),标了详细的注释

深度学习原理+项目实战+算法详解+主流框架(套餐)

深度学习系列课程从深度学习基础知识点开始讲解一步步进入神经网络的世界再到卷积和递归神经网络,详解各大经典网络架构。实战部分选择当下最火爆深度学习框架PyTorch与Tensorflow/Keras,全程实战演示框架核心使用与建模方法。项目实战部分选择计算机视觉与自然语言处理领域经典项目,从零开始详解算法原理,debug模式逐行代码解读。适合准备就业和转行的同学们加入学习! 建议按照下列课程顺序来进行学习 (1)掌握深度学习必备经典网络架构 (2)深度框架实战方法 (3)计算机视觉与自然语言处理项目实战。(按照课程排列顺序即可)

图书管理系统(Java + Mysql)我的第一个完全自己做的实训项目

图书管理系统 Java + MySQL 完整实训代码,MVC三层架构组织,包含所有用到的图片资源以及数据库文件,大三上学期实训,注释很详细,按照阿里巴巴Java编程规范编写

玩转Linux:常用命令实例指南

人工智能、物联网、大数据时代,Linux正有着一统天下的趋势,几乎每个程序员岗位,都要求掌握Linux。本课程零基础也能轻松入门。 本课程以简洁易懂的语言手把手教你系统掌握日常所需的Linux知识,每个知识点都会配合案例实战让你融汇贯通。课程通俗易懂,简洁流畅,适合0基础以及对Linux掌握不熟练的人学习; 【限时福利】 1)购课后按提示添加小助手,进答疑群,还可获得价值300元的编程大礼包! 2)本月购买此套餐加入老师答疑交流群,可参加老师的免费分享活动,学习最新技术项目经验。 --------------------------------------------------------------- 29元=掌握Linux必修知识+社群答疑+讲师社群分享会+700元编程礼包。 &nbsp;

网络工程师小白入门--【思科CCNA、华为HCNA等网络工程师认证】

本课程适合CCNA或HCNA网络小白同志,高手请绕道,可以直接学习进价课程。通过本预科课程的学习,为学习网络工程师、思科CCNA、华为HCNA这些认证打下坚实的基础! 重要!思科认证2020年2月24日起,已启用新版认证和考试,包括题库都会更新,由于疫情原因,请关注官网和本地考点信息。题库网络上很容易下载到。

C++语言基础视频教程

C++语言基础视频培训课程:本课与主讲者在大学开出的程序设计课程直接对接,准确把握知识点,注重教学视频与实践体系的结合,帮助初学者有效学习。本教程详细介绍C++语言中的封装、数据隐藏、继承、多态的实现等入门知识;主要包括类的声明、对象定义、构造函数和析构函数、运算符重载、继承和派生、多态性实现等。 课程需要有C语言程序设计的基础(可以利用本人开出的《C语言与程序设计》系列课学习)。学习者能够通过实践的方式,学会利用C++语言解决问题,具备进一步学习利用C++开发应用程序的基础。

微信小程序 实例汇总 完整项目源代码

微信小程序 实例汇总 完整项目源代码

Python数据挖掘简易入门

&nbsp; &nbsp; &nbsp; &nbsp; 本课程为Python数据挖掘方向的入门课程,课程主要以真实数据为基础,详细介绍数据挖掘入门的流程和使用Python实现pandas与numpy在数据挖掘方向的运用,并深入学习如何运用scikit-learn调用常用的数据挖掘算法解决数据挖掘问题,为进一步深入学习数据挖掘打下扎实的基础。

2020-五一数学建模大赛C类问题饲料加工配比及优化.pdf

2020年,“51”数学建模C类问题,关于饲料配比问题以及加工优化方案。论文采用统计分析,建立了关于饲料加工的多目标优化模型。并利用蒙特卡罗算法对目标函数进行优化,解决了饲料加工质量最优配比问题并进行

MySQL数据库从入门到实战应用

限时福利1:购课进答疑群专享柳峰(刘运强)老师答疑服务 限时福利2:购课后添加学习助手(微信号:csdn590),按消息提示即可领取编程大礼包! 为什么说每一个程序员都应该学习MySQL? 根据《2019-2020年中国开发者调查报告》显示,超83%的开发者都在使用MySQL数据库。 使用量大同时,掌握MySQL早已是运维、DBA的必备技能,甚至部分IT开发岗位也要求对数据库使用和原理有深入的了解和掌握。 学习编程,你可能会犹豫选择 C++ 还是 Java;入门数据科学,你可能会纠结于选择 Python 还是 R;但无论如何, MySQL 都是 IT 从业人员不可或缺的技能! 【课程设计】 在本课程中,刘运强老师会结合自己十多年来对MySQL的心得体会,通过课程给你分享一条高效的MySQL入门捷径,让学员少走弯路,彻底搞懂MySQL。 本课程包含3大模块:&nbsp; 一、基础篇: 主要以最新的MySQL8.0安装为例帮助学员解决安装与配置MySQL的问题,并对MySQL8.0的新特性做一定介绍,为后续的课程展开做好环境部署。 二、SQL语言篇: 本篇主要讲解SQL语言的四大部分数据查询语言DQL,数据操纵语言DML,数据定义语言DDL,数据控制语言DCL,学会熟练对库表进行增删改查等必备技能。 三、MySQL进阶篇: 本篇可以帮助学员更加高效的管理线上的MySQL数据库;具备MySQL的日常运维能力,语句调优、备份恢复等思路。 &nbsp;

navicat简体中文版 绿色版 (64位)

解压后安装navicat,打开navicat执行PatchNavicat即破解成功。可以正常使用啦。

linux“开发工具三剑客”速成攻略

工欲善其事,必先利其器。Vim+Git+Makefile是Linux环境下嵌入式开发常用的工具。本专题主要面向初次接触Linux的新手,熟练掌握工作中常用的工具,在以后的学习和工作中提高效率。

机器学习初学者必会的案例精讲

通过六个实际的编码项目,带领同学入门人工智能。这些项目涉及机器学习(回归,分类,聚类),深度学习(神经网络),底层数学算法,Weka数据挖掘,利用Git开源项目实战等。

Python代码实现飞机大战

文章目录经典飞机大战一.游戏设定二.我方飞机三.敌方飞机四.发射子弹五.发放补给包六.主模块 经典飞机大战 源代码以及素材资料(图片,音频)可从下面的github中下载: 飞机大战源代码以及素材资料github项目地址链接 ————————————————————————————————————————————————————————— 不知道大家有没有打过飞机,喜不喜欢打飞机。当我第一次接触这个东西的时候,我的内心是被震撼到的。第一次接触打飞机的时候作者本人是身心愉悦的,因为周边的朋友都在打飞机, 每

java jdk 8 帮助文档 中文 文档 chm 谷歌翻译

JDK1.8 API 中文谷歌翻译版 java帮助文档 JDK API java 帮助文档 谷歌翻译 JDK1.8 API 中文 谷歌翻译版 java帮助文档 Java最新帮助文档 本帮助文档是使用谷

Qt5.10 GUI完全参考手册(强烈推荐)

本书是Qt中文版的参考手册,内容详尽易懂,详细介绍了Qt实现的各种内部原理,是一本不可多得的参考文献

Python可以这样学(第四季:数据分析与科学计算可视化)

董付国老师系列教材《Python程序设计(第2版)》(ISBN:9787302436515)、《Python可以这样学》(ISBN:9787302456469)配套视频,在教材基础上又增加了大量内容,通过实例讲解numpy、scipy、pandas、statistics、matplotlib等标准库和扩展库用法。

设计模式(JAVA语言实现)--20种设计模式附带源码

课程亮点: 课程培训详细的笔记以及实例代码,让学员开始掌握设计模式知识点 课程内容: 工厂模式、桥接模式、组合模式、装饰器模式、外观模式、享元模式、原型模型、代理模式、单例模式、适配器模式 策略模式、模板方法模式、观察者模式、迭代器模式、责任链模式、命令模式、备忘录模式、状态模式、访问者模式 课程特色: 笔记设计模式,用笔记串连所有知识点,让学员从一点一滴积累,学习过程无压力 笔记标题采用关键字标识法,帮助学员更加容易记住知识点 笔记以超链接形式让知识点关联起来,形式知识体系 采用先概念后实例再应用方式,知识点深入浅出 提供授课内容笔记作为课后复习以及工作备查工具 部分图表(电脑PC端查看):

进程监控软件 Performance Monitor中文版

告诉你每个程序现在在做什么,还可以根据你的要求过滤无关的内容。

八数码的深度优先算法c++实现

人工智能的八数码的深度优先算法c++实现

2021考研数学张宇基础30讲.pdf

张宇:博士,全国著名考研数学辅导专家,教育部“国家精品课程建设骨干教师”,全国畅销书《张宇高等数学18讲》《张宇线性代数9讲》《张宇概率论与数理统计9讲》《张宇考研数学题源探析经典1000题》《张宇考

2019 Python开发者日-培训

本次活动将秉承“只讲技术,拒绝空谈”的理念,邀请十余位身处一线的Python技术专家,重点围绕Web开发、自动化运维、数据分析、人工智能等技术模块,分享真实生产环境中使用Python应对IT挑战的真知灼见。此外,针对不同层次的开发者,大会还安排了深度培训实操环节,为开发者们带来更多深度实战的机会。

C/C++跨平台研发从基础到高阶实战系列套餐

一 专题从基础的C语言核心到c++ 和stl完成基础强化; 二 再到数据结构,设计模式完成专业计算机技能强化; 三 通过跨平台网络编程,linux编程,qt界面编程,mfc编程,windows编程,c++与lua联合编程来完成应用强化 四 最后通过基于ffmpeg的音视频播放器,直播推流,屏幕录像,

2020_五一数学建模_C题_整理后的数据.zip

该数据是我的程序读取的数据,仅供参考,问题的解决方案:https://blog.csdn.net/qq_41228463/article/details/105993051

机器学习实战系列套餐(必备基础+经典算法+案例实战)

机器学习实战系列套餐以实战为出发点,帮助同学们快速掌握机器学习领域必备经典算法原理并结合Python工具包进行实战应用。建议学习顺序:1.Python必备工具包:掌握实战工具 2.机器学习算法与实战应用:数学原理与应用方法都是必备技能 3.数据挖掘实战:通过真实数据集进行项目实战。按照下列课程顺序学习即可! 课程风格通俗易懂,用最接地气的方式带领大家轻松进军机器学习!提供所有课程代码,PPT与实战数据,有任何问题欢迎随时与我讨论。

实用主义学Python(小白也容易上手的Python实用案例)

原价169,限时立减100元! 系统掌握Python核心语法16点,轻松应对工作中80%以上的Python使用场景! 69元=72讲+源码+社群答疑+讲师社群分享会&nbsp; 【哪些人适合学习这门课程?】 1)大学生,平时只学习了Python理论,并未接触Python实战问题; 2)对Python实用技能掌握薄弱的人,自动化、爬虫、数据分析能让你快速提高工作效率; 3)想学习新技术,如:人工智能、机器学习、深度学习等,这门课程是你的必修课程; 4)想修炼更好的编程内功,优秀的工程师肯定不能只会一门语言,Python语言功能强大、使用高效、简单易学。 【超实用技能】 从零开始 自动生成工作周报 职场升级 豆瓣电影数据爬取 实用案例 奥运冠军数据分析 自动化办公:通过Python自动化分析Excel数据并自动操作Word文档,最终获得一份基于Excel表格的数据分析报告。 豆瓣电影爬虫:通过Python自动爬取豆瓣电影信息并将电影图片保存到本地。 奥运会数据分析实战 简介:通过Python分析120年间奥运会的数据,从不同角度入手分析,从而得出一些有趣的结论。 【超人气老师】 二两 中国人工智能协会高级会员 生成对抗神经网络研究者 《深入浅出生成对抗网络:原理剖析与TensorFlow实现》一书作者 阿里云大学云学院导师 前大型游戏公司后端工程师 【超丰富实用案例】 0)图片背景去除案例 1)自动生成工作周报案例 2)豆瓣电影数据爬取案例 3)奥运会数据分析案例 4)自动处理邮件案例 5)github信息爬取/更新提醒案例 6)B站百大UP信息爬取与分析案例 7)构建自己的论文网站案例

相关热词 c#设计思想 c#正则表达式 转换 c#form复制 c#写web c# 柱形图 c# wcf 服务库 c#应用程序管理器 c#数组如何赋值给数组 c#序列化应用目的博客园 c# 设置当前标注样式
立即提问