Lucene.net盘古查可是怎么也查不出来

Lucene的scoredoc[]这个集合一直都是空!查询的词文本文件里确定是有的,望大什么指教下,多谢多谢图片说明图片说明

1个回答

qq_33933083
TurboFeng 回复caozhy: 望大神还能帮我瞅瞅这是为啥我这个不可以呢!
接近 4 年之前 回复
qq_33933083
TurboFeng 回复caozhy: 望大神还能帮我瞅瞅这是为啥我这个不可以呢!
接近 4 年之前 回复
qq_33933083
TurboFeng 回复caozhy: 望大神还能帮我瞅瞅这是为啥我这个不可以呢!
接近 4 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
C# Lucene.Net对搜索结果添加超链接

我用lucene.net实现了搜索,想对标题添加超链接,就是点击标题后出现文档内容。我对文档的标题和内容是放在不同的域中分别存储的。我用下面的代码可以实现链接,但是只是在搜索内容的时候可以点开,都正常。但是如果搜索的关键字在标题中,就不能打开链接,而且搜出来的题目显示也不对,会把代码里的链接显示出来(比如我搜的是生物,结果显示就成了:_生物.xml"target=__blank">生物.xml_)。怎么回_事?_![图片说明](https://img-ask.csdn.net/upload/201508/24/1440406336_636829.png)

Lucene.net 创建索引 txt文档

怎么用Lucene.net对已有的txt文本创建索引,索引文件__r.cfs,_r.cfx,segments.gen,segments_m是编代码之后自动生成的还是怎么来的?大致步骤是什么样的。

lucene.net3.0.3开发环境配置 Visual Studio 10.0

怎么配置lucene.net3.0.3的开发环境,使其在Visual Studio 10.0上可以运行。我现在只有lucene.net3.0.3的代码,不知道该怎么用。

关于lucene.net站内搜索的简单问题

我做了一个简单的站内搜索,但是创建索引后无法搜索到数据,不知道为什么 ``` #region 创建索引 public void createIndex() { SqlConnection conn = new SqlConnection("server=localhost;database=news;uid=sa;pwd=intellitrans"); FSDirectory directory; IndexWriter writer; string indexPath = Context.Server.MapPath("~/IndexData"); System.IO.Directory.Delete(indexPath, true); directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory()); writer = new IndexWriter(directory, new PanGuAnalyzer(), true, IndexWriter.MaxFieldLength.UNLIMITED); try { conn.Open(); string sql = "select newsid,title,url,time,newsContent from news"; SqlCommand comm = new SqlCommand(sql, conn); SqlDataReader dataReader = comm.ExecuteReader(); while (dataReader.Read()) { Document document = new Document(); document.Add(new Field("newsid", dataReader[0].ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED)); document.Add(new Field("title", dataReader[0].ToString(), Field.Store.YES, Field.Index.ANALYZED)); document.Add(new Field("url", dataReader[1].ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS)); document.Add(new Field("time", dataReader[2].ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS)); document.Add(new Field("newsContent", dataReader[3].ToString(), Field.Store.YES, Field.Index.ANALYZED)); writer.AddDocument(document); } } catch (Exception ex) { this.Label1.Text = "创建索引失败" + ex.Message; } finally { conn.Close(); writer.Close(); directory.Close(); } } #endregion #region 搜索 private void SearchIndex() { string indexPath = Context.Server.MapPath("~/IndexData"); FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NoLockFactory()); IndexReader reader = IndexReader.Open(directory, true); IndexSearcher searcher = new IndexSearcher(reader); // PhraseQuery query = new PhraseQuery(); TermQuery query = null; BooleanQuery queryOr = new BooleanQuery(); foreach (string word in SplitWords(this.TextBox1.Text)) { // query.Add(new Term("title", word)); query = new TermQuery(new Term("title", word)); queryOr.Add(query, BooleanClause.Occur.SHOULD); query = new TermQuery(new Term("newsContent", word)); queryOr.Add(query, BooleanClause.Occur.SHOULD); //query.Add(new Term("newsContent", word)); } TopScoreDocCollector collector = TopScoreDocCollector.create(1000, true); searcher.Search(query, null, collector); //Hits hit = searcher.Search(query); ScoreDoc[] docs = collector.TopDocs(0, collector.GetTotalHits()).scoreDocs; List<News> newResult = new List<News>(); for (int i = 0; i < docs.Length; i++) { int docId = docs[i].doc; Document doc = searcher.Doc(docId); News news = new News(); news.Title = doc.Get("title"); news.ContentDescription = HightLight(this.TextBox1.Text, doc.Get("newsContent")); newResult.Add(news); } this.rptSearch.DataSource = newResult; this.rptSearch.DataBind(); } #endregion ```

Lucen.net搜索的时候,怎么让输入的关键词先显示,然后再显示单个的字

我用lucene.net和盘古分词结合,对txt文档实现了搜索,但搜索结果的排序有问题,比如,我搜索“方法”,盘古分词会先对“方法’进行分词,分为”方“、”方法‘、“法”,然后搜索结果会把含有“方”和“法”的文档和含有“方法”的文档都显示出来,但是我想把含有“方法”的文档优先显示出来,显示完之后再显示含有“方”和“法”的文档。应该怎么设置,如果要设置权重具体应该怎么设置;或者直接不分词,但是不分词应该怎么设置,QueryParser第二个参数要求输入使用的分词器。求指导

Lucene的Demo,查询不出来数据

今天初步学习了一下Lucene框架,写了一个Demo: 添加索引: ![图片说明](https://img-ask.csdn.net/upload/201707/03/1499059075_423686.png) 然后是搜索: ![图片说明](https://img-ask.csdn.net/upload/201707/03/1499061253_358878.png) 但是查询结果是0,不知道为什么,索引文件已经生成: ![图片说明](https://img-ask.csdn.net/upload/201707/03/1499059140_449499.png) 求大神解答,在线等...

如何加载Lucene.net3.0.0?

不会用,刚刚开始学Lucene.net,求教,哪位大神教教我,谢谢大神了

Lucene3.0显示高亮的问题

``` public Map<String, Object> displayHtmlHighlight(String queryString, Analyzer analyzer, int fragmentSize, Content con) throws IOException, InvalidTokenOffsetsException, ParseException{ Map<String, Object> map = new HashMap<>(); map.put("id", con.getId()); System.out.println("原始的标题-----------------"+con.getTitle()); QueryParser qp = new QueryParser(Version.LUCENE_30, "title", analyzer); Query query = qp.parse(queryString); Highlighter highlighter = new Highlighter(new SimpleHTMLFormatter("<font color='red'>", "</font>"), new QueryScorer(query)); Fragmenter fragmenter = new SimpleFragmenter(fragmentSize); highlighter.setTextFragmenter(fragmenter); String title = highlighter.getBestFragment(analyzer, "title", con.getTitle()); map.put("title", title); System.out.println("改动后的标题--------------"+title); System.out.println("原始的内容-----------------"+con.getTxt()); String content = highlighter.getBestFragment(analyzer, "content", con.getTxt()); System.out.println("--改动后的内容----"+content); map.put("content", content); System.out.println(map.toString()); return map; } ``` 我的标题:我的滑板鞋时尚,queryString = 我的 ,fragmentSize设置为200 但是: String title = highlighter.getBestFragment(analyzer, "title", con.getTitle());这个报错了,queryString为一个字就正确,两个字以上就报错了,求大神解惑。

lucene.net站内搜索找不到数据

不知道哪里错了,就是搜索的时候找不到数据。求大神帮忙看一下哪错了 ![图片说明](https://img-ask.csdn.net/upload/201605/05/1462433668_42708.png) ![图片说明](https://img-ask.csdn.net/upload/201605/05/1462433723_535362.png) ![图片说明](https://img-ask.csdn.net/upload/201605/05/1462433740_74097.png) ![图片说明](https://img-ask.csdn.net/upload/201605/05/1462433750_82233.png)

Lucene某条索引删除问题

我想问下 public static void deleteOneIndex(String indexDir, Analyzer analyzer, String field, String key) { try { Directory dir = new SimpleFSDirectory(new File(indexDir)); IndexWriter indexWriter = new IndexWriter(dir, analyzer, false, IndexWriter.MaxFieldLength.UNLIMITED); indexWriter.deleteDocuments(new Term(field, key)); indexWriter.optimize(); indexWriter.commit(); System.out.println("是否删除成功=" + indexWriter.hasDeletions()); System.out.println("一共有" + indexWriter.maxDoc() + "索引"); System.out.println("还剩" + indexWriter.numDocs() + "索引"); indexWriter.close(); } catch (IOException e) { System.out.println(" caught a " + e.getClass() + "\n with message: " + e.getMessage()); } } 这样为什么没有删除掉我想删除的索引 例如:deleteOneIndex("D:\\logs\\lucenedoc",new StandardAnalyzer(Version.LUCENE_33),"name","张三"); 没有分了 希望指点下,不胜感激!!

如何用正则表达式创建Lucene的短语查询?

假设有3个文档分别包含如下3个字符串。 * &lt;book isbn="101" name="abc" /&gt; * &lt;book isbn="102" name="def" /&gt; * &lt;book isbn="201" name="ghi" /&gt; 我想创建一个使用正则表达式的Lucene短语查询,来查询并返回以上的第1和第2个文档。但是使用如下的语句并没有效果。 ``` Query luceneQuery = new RegexpQuery(new Term("content", "isbn=\"1\d+\"")); ``` 请问是否有办法能做到使用正则表达式的Lucene短语查询呢?谢谢。

lucene不分词如果实现模糊查询

因为要存数字,比如12345678,我没有分词,想通过123,或者3456等关键字可以查出该条记录,请问怎么做?谢谢

lucene使用中设置结果高亮显示的问题

用下面的代码设置查询结果高亮显示,可结果`<font color='red'>`, `</font>`都给加到text的最前面了,就比如说我对“我爱中国”里的“中国”进行查询,返回的text是“`<font color='red'></font>`我爱中国”,为什么呢 代码如下 String text = doc.get(fields[2]); SimpleHTMLFormatter simpleHTMLFormatter = new SimpleHTMLFormatter("<font color='red'>", "</font>"); Highlighter highlighter = new Highlighter(simpleHTMLFormatter,new QueryScorer(query1)); highlighter.setTextFragmenter(new SimpleFragmenter(text.length())); TokenStream tokenStream = luceneAnalyzer.tokenStream("", new StringReader(text)); String highLightText = highlighter.getBestFragment(tokenStream, text);

lucence全文检索 按时间范围查询有没有接触过得大牛?

//创建时间类型的索引 (dates进行过转换的 格式是:yyyyMMddHHmmss) document.add(new NumericDocValuesField("pubtimes",Long.parseLong(dates))); //NumericRangeQuery范围查询 (这里的timestr1和timestr2页进行过格式转换,和上面一样) queryTime = NumericRangeQuery.newLongRange("pubtimes", Long.valueOf(timestr1), Long.valueOf(timestr2), true,true); 但是为什么一直查不到数据呢

关于lucene的多条件查询问题

![图片说明](https://img-ask.csdn.net/upload/201508/31/1441015213_995120.png) 我想用lucene的BooleanQuery写出这种类型的条件

Lucene索引和检索中文文件的问题

lucene初学者,基础不好,碰到以下问题,恳请各位大侠指导,小女子感激不尽! 用的是IKAnalyzer2012_u6.jar和lucene-core-3.6.2.jar 是对本地的文件进行的索引和检索,做的web版的 1、能检索英文的,就是检索不了中文的 2、英文的检索出来的doc.get("contents")的值是空的,但是文件名和路径能读出来 (附件里有代码) [color=orange]IndexUtil1.java [/color] [code="java"]package com.lium.bean; import java.io.BufferedReader; import java.io.File; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.IOException; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.store.LockObtainFailedException; import org.apache.lucene.util.Version; import org.wltea.analyzer.lucene.IKAnalyzer; public class IndexUtil1 { private Directory directory; private String indexPath = "F:/Lucene/test/indexDir1.2"; private String dataPath = "F:/Lucene/test/dataDir1.2"; public IndexUtil1() { try { directory = FSDirectory.open(new File(indexPath)); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } public String readFile(File f) { String s; StringBuffer text = new StringBuffer(); try { BufferedReader br = new BufferedReader(new FileReader(f)); while((s = br.readLine())!=null) { text.append(s); } return text.toString(); } catch (FileNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } public void Index() { IndexWriter writer = null; try { Analyzer analyzer = new IKAnalyzer(); writer = new IndexWriter(directory, new IndexWriterConfig(Version.LUCENE_36, analyzer)); writer.deleteAll(); Document doc = null; File file = new File(dataPath); for (File f : file.listFiles()) { String text = readFile(f); doc = new Document(); doc.add(new Field("contents",text, Field.Store.YES,Field.Index.ANALYZED)); /*System.out.println(text);*/ /*text值没有问题,可以读出来*/ doc.add(new Field("filename", f.getName(), Field.Store.YES,Field.Index.NOT_ANALYZED)); doc.add(new Field("filepath", f.getCanonicalPath(),Field.Store.YES,Field.Index.NOT_ANALYZED)); writer.addDocument(doc); } } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (LockObtainFailedException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } finally { if(writer != null) { try { writer.close(); } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } } } }[/code] [color=orange]SearcherUtil.java[/color] [code="java"]package com.lium.bean; import java.io.File; import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.lucene.document.Document; import org.apache.lucene.index.IndexReader; import org.apache.lucene.index.Term; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TermQuery; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; public class SearcherUtil { private Directory directory; private IndexReader reader; public SearcherUtil() { try { directory = FSDirectory.open(new File("F:/Lucene/indexDir")); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } public IndexSearcher getsearcher() { try { if(reader == null) { reader = IndexReader.open(directory); }else { IndexReader dr = IndexReader.openIfChanged(reader); if(dr != null) { reader = dr; } } return new IndexSearcher(reader); } /*catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); }*/ catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } public List<Results> seach(String keys) { try { IndexSearcher searcher = getsearcher(); Query query = new TermQuery(new Term("contents", keys)); TopDocs tds = searcher.search(query, 10); List<Results> rsList = new ArrayList<Results>(); for(ScoreDoc sd:tds.scoreDocs) { Document doc = searcher.doc(sd.doc); /*System.out.println(doc.get("contents"));*/ /*这里打印出来值是空的*/ Results rs = new Results(doc.get("filename"), doc.get("filepath"), doc.get("contents")); rsList.add(rs); } return rsList; } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } } [/code] [color=orange]Results.java[/color] [code="java"]package com.lium.bean; public class Results { String filename; String filepath; String content; public Results(String filename, String filepath, String content) { super(); this.filename = filename; this.filepath = filepath; this.content = content; } public String getFilename() { return filename; } public void setFilename(String filename) { this.filename = filename; } public String getFilepath() { return filepath; } public void setFilepath(String filepath) { this.filepath = filepath; } public String getContent() { return content; } public void setContent(String content) { this.content = content; } }[/code] [color=orange]ISservlet.java[/color] [code="java"]package com.lium.servlet; import java.io.IOException; import java.util.List; import javax.servlet.ServletException; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import com.lium.bean.IndexUtil1; import com.lium.bean.Results; import com.lium.bean.SearcherUtil; public class ISservlet extends HttpServlet { private static final long serialVersionUID = 1L; /** * @see HttpServlet#doGet(HttpServletRequest request, HttpServletResponse response) */ protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { this.doPost(request, response); } /** * @see HttpServlet#doPost(HttpServletRequest request, HttpServletResponse response) */ protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { //System.out.println(request.getCharacterEncoding()); request.setCharacterEncoding("UTF-8"); String keys = request.getParameter("keywords"); IndexUtil1 iu = new IndexUtil1(); iu.Index(); SearcherUtil su = new SearcherUtil(); List<Results> rsList = su.seach(keys); if(rsList.size() > 0) { request.setAttribute("rsList", rsList); request.getRequestDispatcher("/SeacherResult.jsp").forward(request, response); } else { request.getRequestDispatcher("/fail.jsp").forward(request, response); } } }[/code] [color=orange]Seacher.html[/color] [code="java"]<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <link href="bootstrap/css/bootstrap.min.css" type="text/css" rel="stylesheet"/> <title>用户搜索界面</title> </head> <body> <div class="container-fluid"> <div class="row-fluid"> <div class="span2"> <!--Sidebar content--> </div> <div class="span10"> <h2>A Simple Searcher</h2> <form class="form-search" action="web/ISservlet" method="post"> <input type="text" class="input-medium search-query" name="keywords"> <button type="submit" class="btn">搜索</button> </form> </div> </div> </div> </body> </html>[/code] [color=orange]SeacherResult.jsp[/color] [code="java"]<%@page import="java.util.List"%> <%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding="UTF-8"%> <%@page import="com.lium.bean.*" %> <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <title>搜索结果</title> </head> <body> <% List<Results> list=(List<Results>)request.getAttribute("rsList"); for(int i=0;i<list.size();i++) { Results rs = list.get(i); %> 文件名:<%=rs.getFilename()%><br> 文件内容:<%=rs.getContent()%><br> 文件路径:<%=rs.getFilepath()%><br> <% } %> </body> </html>[/code]

lucene的分组统计怎么弄

怎么或许到文档数据,然后分组统计出来,这几天一直在郁闷这个,

elasticsearch5.6查询没有elasticsearch2.3.3快,为什么

## elasticsearch5.6 # 索引模板 ``` curl cmserver:9200/track_20190809?pretty { "track_20190809" : { "aliases" : { }, "mappings" : { "track" : { "_all" : { "enabled" : false }, "properties" : { "dataSource" : { "type" : "keyword" }, "dtTime" : { "type" : "date" }, "idtype" : { "type" : "keyword" }, "linkId" : { "type" : "keyword" }, "strEqpId" : { "type" : "keyword" }, "strId" : { "type" : "keyword" } } } }, "settings" : { "index" : { "creation_date" : "1566555759568", "number_of_shards" : "4", "number_of_replicas" : "0", "uuid" : "X0e_Xj-ERB--GJedj6hsJw", "version" : { "created" : "5061699" }, "provided_name" : "track_20190809" } } } } ``` # maven ``` <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.0.9.RELEASE</version> </parent> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> <exclusions> <exclusion> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-logging</artifactId> </exclusion> </exclusions> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-log4j2</artifactId> </dependency> <dependency> <groupId>org.elasticsearch</groupId> <artifactId>elasticsearch</artifactId> <version>5.6.16</version> </dependency> <dependency> <groupId>org.elasticsearch.client</groupId> <artifactId>transport</artifactId> <version>5.6.16</version> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> </dependency> </dependencies> ``` # 客户端创建 ``` public class ESRepository { public TransportClient client = null; public void init() throws Exception { buildClient(); } private void buildClient() throws Exception { String[] hosts = { "192.168.0.82" }; Settings settings = Settings.builder().put("cluster.name", "elasticsearch").put("client.transport.sniff", true) .put("client.transport.ping_timeout", "60s").put("action.auto_create_index", true).build(); client = new PreBuiltTransportClient(settings); for (String strTransportHostName : hosts) { client.addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName(strTransportHostName), 9300)); } } } ``` # 查询代码 ``` public class QueryData { private ESRepository esr = new ESRepository(); private int total = 0; public void doRun(String query) { try { esr.init(); } catch (Exception e) { log.error("", e); } log.info("query data start..."); long a = System.currentTimeMillis(); String scrollId = getScrollId(query); queryByScrollId(scrollId); clearScroll(scrollId); long b = System.currentTimeMillis(); log.info("query data end total:" + total + ", time:" + (b-a)); } private void queryByScrollId(String scrollId) { SearchScrollRequestBuilder searchScrollRequestBuilder; SearchResponse response; int i = 0; while(true) { i++; searchScrollRequestBuilder = esr.client.prepareSearchScroll(scrollId); searchScrollRequestBuilder.setScroll(TimeValue.timeValueMinutes(5)); response = searchScrollRequestBuilder.get(); long count = response.getHits().getHits().length; log.info("--------- queryByScrollId size {}, i={}", count, i); total += count; if (count == 0) { break; } else { /*for (SearchHit searchHit : searchHits) { log.info("--------- queryByScrollId source {}", searchHit.getSourceAsString()); }*/ } scrollId = response.getScrollId(); } } private String getScrollId(String query) { BoolQueryBuilder queryBuilder = QueryBuilders.boolQuery(); if(query != null) { queryBuilder.must(QueryBuilders.wildcardQuery("strId", "*" + query + "*")); } SearchRequestBuilder searchRequestBuilder = esr.client.prepareSearch("track_20190809"); searchRequestBuilder.setTypes("track"); searchRequestBuilder.setScroll(TimeValue.timeValueMinutes(5)); searchRequestBuilder.setSearchType(SearchType.DEFAULT); searchRequestBuilder.setSize(10000); //searchRequestBuilder.addSort(SortBuilders.fieldSort("strId")); if(query != null) { searchRequestBuilder.setQuery(queryBuilder); } SearchResponse response = searchRequestBuilder.get(); long count = response.getHits().getHits().length; log.info("--------- getScrollId size {}", count); total += count; /*for (SearchHit searchHit : searchHits) { log.info("--------- getScrollId source {}", searchHit.getSourceAsString()); }*/ return response.getScrollId(); } private void clearScroll(String scrollId) { ClearScrollRequestBuilder clearScrollRequestBuilder = esr.client.prepareClearScroll(); clearScrollRequestBuilder.addScrollId(scrollId); ClearScrollResponse response = clearScrollRequestBuilder.get(); log.info("--------- clearScroll result {}", response.isSucceeded()); } } ``` ## elasticsearch2.3 # 索引模板 ``` curl cmserver:9200/track_20190809?pretty { "track_20190809" : { "aliases" : { }, "mappings" : { "track" : { "_all" : { "enabled" : false }, "properties" : { "dataSource" : { "type" : "string", "index" : "not_analyzed" }, "dtTime" : { "type" : "date", "format" : "strict_date_optional_time||epoch_millis" }, "idtype" : { "type" : "string", "index" : "not_analyzed" }, "linkId" : { "type" : "string", "index" : "not_analyzed" }, "strEqpId" : { "type" : "string", "index" : "not_analyzed" }, "strId" : { "type" : "string", "index" : "not_analyzed" } } } }, "settings" : { "index" : { "creation_date" : "1566465473765", "number_of_shards" : "4", "number_of_replicas" : "0", "uuid" : "MfT_bzy1TO-67aVocEt5uQ", "version" : { "created" : "2030399" } } } } } ``` ## maven ``` <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>1.4.2.RELEASE</version> </parent> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> <exclusions> <exclusion> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-logging</artifactId> </exclusion> </exclusions> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-log4j2</artifactId> </dependency> <dependency> <groupId>org.elasticsearch</groupId> <artifactId>elasticsearch</artifactId> <version>2.3.3</version> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> </dependency> </dependencies> ``` # 客户端创建 ``` public class ESRepository { public TransportClient client = null; public void init() throws Exception { buildClient(); } private void buildClient() throws Exception { String[] hosts = { "192.168.0.82" }; Settings settings = Settings.builder().put("cluster.name", "elasticsearch").put("client.transport.sniff", true) .put("client.transport.ping_timeout", "60s").put("action.auto_create_index", true).build(); client = TransportClient.builder().settings(settings).build(); for (String strTransportHostName : hosts) { client.addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName(strTransportHostName), 9300)); } } } ``` # 查询代码 和elasticsearch5.6一样 两个es内存配置都为1G,数据总条数1000万 **全部查出来,5.6需要300多秒,而2.3需要130秒左右,不清楚为什么,求大神帮忙**

Lucene的updateDocument(或deleteDocuments)执行结果异常

目的:增量生成Lucene索引 步骤:先将以前生成的索引用IndexWriter的addIndexes写入当前目录,然后从数据库中逐条取出数据生成索引并用IndexWriter的updateDocument插入。(之所以要用updateDocument或deleteDocuments,是因为有些新生成的索引是对旧索引数据的更新,需要把旧的索引删除。) 整个过程中没有报错,用读索引工具luke也能正常读出来,可是同事的程序使用原索引没问题,使用更新后的索引就死掉了。把updateDocumen拆成deleteDocuments和addDocument也是一样,把DeleteDocuments删掉只留addDocument就没问题了。 是不是使用DeleteDocumet时有什么需要注意的地方?(我是按字符串型字段删除的)。

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

Java基础知识面试题(2020最新版)

文章目录Java概述何为编程什么是Javajdk1.5之后的三大版本JVM、JRE和JDK的关系什么是跨平台性?原理是什么Java语言有哪些特点什么是字节码?采用字节码的最大好处是什么什么是Java程序的主类?应用程序和小程序的主类有何不同?Java应用程序与小程序之间有那些差别?Java和C++的区别Oracle JDK 和 OpenJDK 的对比基础语法数据类型Java有哪些数据类型switc...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Intellij IDEA 实用插件安利

1. 前言从2020 年 JVM 生态报告解读 可以看出Intellij IDEA 目前已经稳坐 Java IDE 头把交椅。而且统计得出付费用户已经超过了八成(国外统计)。IDEA 的...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

魂迁光刻,梦绕芯片,中芯国际终获ASML大型光刻机

据羊城晚报报道,近日中芯国际从荷兰进口的一台大型光刻机,顺利通过深圳出口加工区场站两道闸口进入厂区,中芯国际发表公告称该光刻机并非此前盛传的EUV光刻机,主要用于企业复工复产后的生产线扩容。 我们知道EUV主要用于7nm及以下制程的芯片制造,光刻机作为集成电路制造中最关键的设备,对芯片制作工艺有着决定性的影响,被誉为“超精密制造技术皇冠上的明珠”,根据之前中芯国际的公报,目...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

百度工程师,获利10万,判刑3年!

所有一夜暴富的方法都写在刑法中,但总有人心存侥幸。这些年互联网犯罪高发,一些工程师高技术犯罪更是引发关注。这两天,一个百度运维工程师的案例传遍朋友圈。1...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《Oracle Java SE编程自学与面试指南》最佳学习路线图2020年最新版(进大厂必备)

正确选择比瞎努力更重要!

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

实时更新:计算机编程语言排行榜—TIOBE世界编程语言排行榜(2020年6月份最新版)

内容导航: 1、TIOBE排行榜 2、总榜(2020年6月份) 3、本月前三名 3.1、C 3.2、Java 3.3、Python 4、学习路线图 5、参考地址 1、TIOBE排行榜 TIOBE排行榜是根据全世界互联网上有经验的程序员、课程和第三方厂商的数量,并使用搜索引擎(如Google、Bing、Yahoo!)以及Wikipedia、Amazon、YouTube统计出排名数据。

立即提问
相关内容推荐