新手lucene求助,创建索引遇到问题,配置与报错信息如图所示,真心求解

myecplise2016版,项目配置信息如图
项目导入lucene包如图
4个报错及报错信息如图

1个回答

用这种方法啊,Directory directory = FSDirectory.open(Paths.get(indexPath)); indexPath是你的D://index/test

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
WEB开发中Lucene创建索引时内存溢出

在查询数据库后创建索引过程中出现内存溢出,通过辅助软件查看,发现是很多的实体被占用没有被释放,导致堆内存溢出,是否有人遇到这种情况,如何解决? PS:增大JVM的堆内存,这种方式无效,因为实体越来越大,总会溢出。

lucene4.0恢复索引问题

由于在备份索引时候,索引文件更新导致索引文件损坏,经检查是下图中文件,由于数据量很大,不想重建索引库,在6月份有一个备份的索引文件,但是6月份的数据比现在少了很多,请问有什么方法可以把索引恢复呀??急!![图片说明](https://img-ask.csdn.net/upload/201712/04/1512354394_501186.jpg)

Lucene某条索引删除问题

我想问下 public static void deleteOneIndex(String indexDir, Analyzer analyzer, String field, String key) { try { Directory dir = new SimpleFSDirectory(new File(indexDir)); IndexWriter indexWriter = new IndexWriter(dir, analyzer, false, IndexWriter.MaxFieldLength.UNLIMITED); indexWriter.deleteDocuments(new Term(field, key)); indexWriter.optimize(); indexWriter.commit(); System.out.println("是否删除成功=" + indexWriter.hasDeletions()); System.out.println("一共有" + indexWriter.maxDoc() + "索引"); System.out.println("还剩" + indexWriter.numDocs() + "索引"); indexWriter.close(); } catch (IOException e) { System.out.println(" caught a " + e.getClass() + "\n with message: " + e.getMessage()); } } 这样为什么没有删除掉我想删除的索引 例如:deleteOneIndex("D:\\logs\\lucenedoc",new StandardAnalyzer(Version.LUCENE_33),"name","张三"); 没有分了 希望指点下,不胜感激!!

Lucene.net 创建索引 txt文档

怎么用Lucene.net对已有的txt文本创建索引,索引文件__r.cfs,_r.cfx,segments.gen,segments_m是编代码之后自动生成的还是怎么来的?大致步骤是什么样的。

lucene问题 一个小程序报错

建立索引的小程序 报错 Class not found createIndex java.lang.ClassNotFoundException: createIndex at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.loadClass(RemoteTestRunner.java:688) at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.loadClasses(RemoteTestRunner.java:421) at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.runTests(RemoteTestRunner.java:444) at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.runTests(RemoteTestRunner.java:678) at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.run(RemoteTestRunner.java:382) at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.main(RemoteTestRunner.java:192) 搞了半天不知道错在哪里 求大佬

请问下lucene在重建索引的时候如何保证不影响当前搜索,谢谢

请问如何做到此业务场景,谢谢了

lucene怎样将文档中一部分内容建立索引?

因为有大量的文档需要建立索引(上万),而且我要查找的并不是整个文档的内容,只要文档中的一部分 索引[color=red]我想知道怎样将一个文档中的一部分建立索引[/color],lucene有没有这样的机制? 还是说需要我在建立索引之前先将文档中我要建立索引的部分先读出来放到另外一个文件中,在对这个文件进行索引呢? 望指点啊!!!

lucene更新索引,被更新索引的还在,还能被搜索到

使用lucene进行索引更新时,被更新的那条索引还存在;如果单独调用删除索引的方法的话,那条索引可以被删除 代码如下: [color=red]// 生成索引[/color] public boolean saveIndex(String id, String userId, String url, String title, String contents, String author, String date) { File indexFile = new File(indexDirPath); indexFile.mkdirs(); if(!indexFile.exists()) { try { indexFile.createNewFile(); } catch (IOException e) { e.printStackTrace(); return false; } } File[] files = new File(indexDirPath).listFiles(); boolean isCreate = true; //判断索引文件的建立是新建还是追加模式 if(files.length>0) { isCreate = false; } /*超链接,主要应用于附件的使用,比如附件下载 每个元素的都是附件路径和附件名以逗号隔开的字符串*/ String accessStr = this.getUrlStr(id.trim()); IndexWriter indexWriter = null; Directory directory = null; try { directory = new SimpleFSDirectory(indexFile); //索引配置 IndexWriterConfig indexWriterConfig=new IndexWriterConfig(Version.LUCENE_30, analyzer); //创建索引模式:CREATE,覆盖模式; APPEND,追加模式 if(isCreate) { indexWriterConfig.setOpenMode(IndexWriterConfig.OpenMode.CREATE); } else { indexWriterConfig.setOpenMode(IndexWriterConfig.OpenMode.APPEND); } // indexWriterConfig.setOpenMode(IndexWriterConfig.OpenMode.CREATE); //初始化索引创建器 indexWriter = new IndexWriter(directory,indexWriterConfig); Document doc = new Document(); // 创建Field对象,并放入doc对象中 doc.add(new Field("id", id.trim(), Field.Store.YES, Field.Index.NOT_ANALYZED)); doc.add(new Field("userId", userId, Field.Store.YES, Field.Index.NOT_ANALYZED)); doc.add(new Field("url", url, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("title", title, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("contents", contents, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("accesses", accessStr, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("author", author, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("date", date, Field.Store.YES, Field.Index.NOT_ANALYZED)); doc.add(new Field("indexDate", DateTools.dateToString(new Date(), DateTools.Resolution.DAY), Field.Store.YES, Field.Index.NOT_ANALYZED)); // 写入IndexWriter indexWriter.addDocument(doc); // 查看IndexWriter里面有多少个索引 // System.out.println("numDocs" + indexWriter.numDocs()); indexWriter.close(); } catch (IOException e) { e.printStackTrace(); return false; } return true; } [color=red]// 删除索引[/color] public boolean deleteIndex(String id) { /*File classDir = new File(this.getClass().getClassLoader().getResource("").getPath()); String proDir = classDir.getParentFile().getParentFile().getPath();*/ File indexFile = new File(indexDirPath); // File indexDir = new File("D:\\temp\\indexDir"); Directory directory; try { directory = new SimpleFSDirectory(indexFile); /*IndexReader ir = IndexReader.open(directory,false); //true:索引打开模式为只读(readOnly); // false:索引打开模式不为可读,即为可更改 Term term = new Term("id",id); ir.deleteDocuments(term); ir.close();*/ IndexWriterConfig indexWriterConfig=new IndexWriterConfig(Version.LUCENE_30, analyzer); IndexWriter iw = new IndexWriter(directory,indexWriterConfig); Term term = new Term("id",id); iw.deleteDocuments(term); iw.optimize(); iw.commit(); iw.close(); } catch (IOException e) { e.printStackTrace(); return false; } return true; } [color=red]// 更新索引的方法[/color] public boolean updateIndex(String id, String userId, String url, String title, String contents, String author, String date) { /*this.deleteIndex(id.trim()); if(this.deleteIndex(id.trim())) { this.saveIndex(id.trim(), userId, url, title, contents, author, date); }*/ File indexFile = new File(indexDirPath); // 超链接,主要应用于附件的使用,比如附件下载 每个元素的都是附件路径和附件名以逗号隔开的字符串 String accessStr = this.getUrlStr(id); Term term = new Term("id",id); IndexWriter indexWriter = null; Directory directory = null; try { directory = new SimpleFSDirectory(indexFile); //索引配置 // IndexWriterConfig indexWriterConfig=new IndexWriterConfig(Version.LUCENE_30, analyzer); //创建索引模式:CREATE,覆盖模式; APPEND,追加模式 // indexWriterConfig.setOpenMode(IndexWriterConfig.OpenMode.CREATE); //初始化索引创建器 indexWriter = new IndexWriter(directory, analyzer, false, IndexWriter.MaxFieldLength.UNLIMITED); indexWriter.setUseCompoundFile(true); Document doc = new Document(); // 创建Field对象,并放入doc对象中 doc.add(new Field("id", id, Field.Store.YES, Field.Index.NOT_ANALYZED)); doc.add(new Field("userId", userId, Field.Store.YES, Field.Index.NOT_ANALYZED)); doc.add(new Field("url", url, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("title", title, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("contents", contents, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("accesses", accessStr, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("author", author, Field.Store.YES, Field.Index.ANALYZED)); doc.add(new Field("date", date, Field.Store.YES, Field.Index.NOT_ANALYZED)); doc.add(new Field("indexDate", DateTools.dateToString(new Date(), DateTools.Resolution.DAY), Field.Store.YES, Field.Index.NOT_ANALYZED)); // 更新IndexWriter indexWriter.updateDocument(term, doc); // 查看IndexWriter里面有多少个索引 // System.out.println("numDocs" + indexWriter.numDocs()); indexWriter.commit(); indexWriter.close(); } catch (IOException e) { e.printStackTrace(); return false; } return true; }

lucene怎样在做增量索引的同时更新旧数据?

现在的项目要求做近实时索引,大约15分钟更行一次。数据会不断新增,而旧数据也会经常被修改。我计划用增量索引来做,根据数据库的更新时间来添加文档。但被更新的文档可能索引里已经有了,添加之后数据可能会重复。 请问如何消除这种重复的可能性,是每添加一个document时都先查一下索引里是不是已经有,还是记录数据库所有的修改操作并将id放到队列里,跑索引的时候一起更新?请问lucene有没有更好的内部机制解决这个问题,比如能不能像数据库一样指定unique的字段?

使用lucene和paoding建立索引报错

这是其中的创建索引的代码:大家帮忙看下吧 package com.foresee.paodinganalyzer; import java.io.File; import java.io.FileReader; import java.io.IOException; import java.util.Date; import net.paoding.analysis.analyzer.PaodingAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.store.FSDirectory; public class CreateIndexer { /** * @param args */ private static String INDEX_DIR = "e:\\mypaoding\\index\\";// 索引存放目录 private static String DATA_DIR = "e:\\mypaoding\\small\\";// 原文件存放路径 public static void main(String[] args) throws IOException { // TODO Auto-generated method stub long start = new Date().getTime(); int numIndexed = index(new File(INDEX_DIR), new File(DATA_DIR));// 调用index方法 long end = new Date().getTime(); System.out.println("Indexing " + numIndexed + " files took " + (end - start) + " millseconds"); } private static int index(File indexDir, File dataDir) throws IOException { // TODO Auto-generated method stub if (!dataDir.exists() || !dataDir.isDirectory()) { throw new IOException(dataDir + " does not exist or is not a directory"); } IndexWriter iw = new IndexWriter(FSDirectory.open(indexDir), new PaodingAnalyzer()/*new StandardAnalyzer(Version.LUCENE_30)*/, true, IndexWriter.MaxFieldLength.LIMITED); indexDirectory(iw, dataDir); int numIndexed = iw.numDocs(); iw.optimize(); iw.close(); return numIndexed; } /** * 循环遍历目录下的所有.txt文件并进行索引 * * @param iw * @param dataDir * @throws IOException */ private static void indexDirectory(IndexWriter iw, File dataDir) throws IOException { // TODO Auto-generated method stub File[] files = dataDir.listFiles(); for (int i = 0; i < files.length; i++) { File f = files[i]; if (f.isDirectory()) { indexDirectory(iw, f);// 递归遍历 } else if (f.getName().endsWith(".txt")) { indexFile(iw, f); } } } private static void indexFile(IndexWriter iw, File f) throws IOException { // TODO Auto-generated method stub if (f.isHidden() || !f.exists() || !f.canRead()) { return; } System.out.println("Indexing " + f.getCanonicalPath()); Document doc = new Document(); doc.add(new Field("contents", new FileReader(f)));// 有变化的地方 doc.add(new Field("filename", f.getCanonicalPath(), Field.Store.YES, Field.Index.ANALYZED));// 有变化的地方 iw.addDocument(doc); } } 下面是报错的信息: 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker getProperties 信息: config paoding analysis from: D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-analysis.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-analysis-default.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-analyzer.properties;D:\workspace\PaodingAnalyzer\bin\paoding-dic-home.properties;E:\data\paoding\dic\paoding-dic-names.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-knives.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-knives-user.properties 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker createPaodingWithKnives 信息: add knike: net.paoding.analysis.knife.CJKKnife 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker createPaodingWithKnives 信息: add knike: net.paoding.analysis.knife.LetterKnife 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker createPaodingWithKnives 信息: add knike: net.paoding.analysis.knife.NumberKnife Indexing E:\mypaoding\small\girl0.txt Exception in thread "main" java.lang.AbstractMethodError: org.apache.lucene.analysis.TokenStream.incrementToken()Z at org.apache.lucene.index.DocInverterPerField.processFields(DocInverterPerField.java:137) at org.apache.lucene.index.DocFieldProcessorPerThread.processDocument(DocFieldProcessorPerThread.java:246) at org.apache.lucene.index.DocumentsWriter.updateDocument(DocumentsWriter.java:773) at org.apache.lucene.index.DocumentsWriter.addDocument(DocumentsWriter.java:751) at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1928) at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1902) at com.foresee.paodinganalyzer.CreateIndexer.indexFile(CreateIndexer.java:81) at com.foresee.paodinganalyzer.CreateIndexer.indexDirectory(CreateIndexer.java:66) at com.foresee.paodinganalyzer.CreateIndexer.index(CreateIndexer.java:43) at com.foresee.paodinganalyzer.CreateIndexer.main(CreateIndexer.java:29)

Lucene3.0.3配置 建立索引

进行Luence配置的过程中,到“Luence开发包中Demo调试”这步,“建立索引”,在DOS命令窗口中输入>java org.apache.lucene.demo.IndexFiles [D:\Java],回车,之后提示“文件名、目录名或卷标语法不正确。”问题出在哪里?输入Javac,有结果,应该不是环境变量设置的问题吧。求指点~

lucene搜索的时候可以去掉重复的索引只取一条吗?

lucene有这个功能吗?判断重复的条件是什么?可以自己指定吗?

Lucene索引和检索中文文件的问题

lucene初学者,基础不好,碰到以下问题,恳请各位大侠指导,小女子感激不尽! 用的是IKAnalyzer2012_u6.jar和lucene-core-3.6.2.jar 是对本地的文件进行的索引和检索,做的web版的 1、能检索英文的,就是检索不了中文的 2、英文的检索出来的doc.get("contents")的值是空的,但是文件名和路径能读出来 (附件里有代码) [color=orange]IndexUtil1.java [/color] [code="java"]package com.lium.bean; import java.io.BufferedReader; import java.io.File; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.IOException; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.store.LockObtainFailedException; import org.apache.lucene.util.Version; import org.wltea.analyzer.lucene.IKAnalyzer; public class IndexUtil1 { private Directory directory; private String indexPath = "F:/Lucene/test/indexDir1.2"; private String dataPath = "F:/Lucene/test/dataDir1.2"; public IndexUtil1() { try { directory = FSDirectory.open(new File(indexPath)); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } public String readFile(File f) { String s; StringBuffer text = new StringBuffer(); try { BufferedReader br = new BufferedReader(new FileReader(f)); while((s = br.readLine())!=null) { text.append(s); } return text.toString(); } catch (FileNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } public void Index() { IndexWriter writer = null; try { Analyzer analyzer = new IKAnalyzer(); writer = new IndexWriter(directory, new IndexWriterConfig(Version.LUCENE_36, analyzer)); writer.deleteAll(); Document doc = null; File file = new File(dataPath); for (File f : file.listFiles()) { String text = readFile(f); doc = new Document(); doc.add(new Field("contents",text, Field.Store.YES,Field.Index.ANALYZED)); /*System.out.println(text);*/ /*text值没有问题,可以读出来*/ doc.add(new Field("filename", f.getName(), Field.Store.YES,Field.Index.NOT_ANALYZED)); doc.add(new Field("filepath", f.getCanonicalPath(),Field.Store.YES,Field.Index.NOT_ANALYZED)); writer.addDocument(doc); } } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (LockObtainFailedException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } finally { if(writer != null) { try { writer.close(); } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } } } }[/code] [color=orange]SearcherUtil.java[/color] [code="java"]package com.lium.bean; import java.io.File; import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.lucene.document.Document; import org.apache.lucene.index.IndexReader; import org.apache.lucene.index.Term; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TermQuery; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; public class SearcherUtil { private Directory directory; private IndexReader reader; public SearcherUtil() { try { directory = FSDirectory.open(new File("F:/Lucene/indexDir")); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } public IndexSearcher getsearcher() { try { if(reader == null) { reader = IndexReader.open(directory); }else { IndexReader dr = IndexReader.openIfChanged(reader); if(dr != null) { reader = dr; } } return new IndexSearcher(reader); } /*catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); }*/ catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } public List<Results> seach(String keys) { try { IndexSearcher searcher = getsearcher(); Query query = new TermQuery(new Term("contents", keys)); TopDocs tds = searcher.search(query, 10); List<Results> rsList = new ArrayList<Results>(); for(ScoreDoc sd:tds.scoreDocs) { Document doc = searcher.doc(sd.doc); /*System.out.println(doc.get("contents"));*/ /*这里打印出来值是空的*/ Results rs = new Results(doc.get("filename"), doc.get("filepath"), doc.get("contents")); rsList.add(rs); } return rsList; } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } } [/code] [color=orange]Results.java[/color] [code="java"]package com.lium.bean; public class Results { String filename; String filepath; String content; public Results(String filename, String filepath, String content) { super(); this.filename = filename; this.filepath = filepath; this.content = content; } public String getFilename() { return filename; } public void setFilename(String filename) { this.filename = filename; } public String getFilepath() { return filepath; } public void setFilepath(String filepath) { this.filepath = filepath; } public String getContent() { return content; } public void setContent(String content) { this.content = content; } }[/code] [color=orange]ISservlet.java[/color] [code="java"]package com.lium.servlet; import java.io.IOException; import java.util.List; import javax.servlet.ServletException; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import com.lium.bean.IndexUtil1; import com.lium.bean.Results; import com.lium.bean.SearcherUtil; public class ISservlet extends HttpServlet { private static final long serialVersionUID = 1L; /** * @see HttpServlet#doGet(HttpServletRequest request, HttpServletResponse response) */ protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { this.doPost(request, response); } /** * @see HttpServlet#doPost(HttpServletRequest request, HttpServletResponse response) */ protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { //System.out.println(request.getCharacterEncoding()); request.setCharacterEncoding("UTF-8"); String keys = request.getParameter("keywords"); IndexUtil1 iu = new IndexUtil1(); iu.Index(); SearcherUtil su = new SearcherUtil(); List<Results> rsList = su.seach(keys); if(rsList.size() > 0) { request.setAttribute("rsList", rsList); request.getRequestDispatcher("/SeacherResult.jsp").forward(request, response); } else { request.getRequestDispatcher("/fail.jsp").forward(request, response); } } }[/code] [color=orange]Seacher.html[/color] [code="java"]<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <link href="bootstrap/css/bootstrap.min.css" type="text/css" rel="stylesheet"/> <title>用户搜索界面</title> </head> <body> <div class="container-fluid"> <div class="row-fluid"> <div class="span2"> <!--Sidebar content--> </div> <div class="span10"> <h2>A Simple Searcher</h2> <form class="form-search" action="web/ISservlet" method="post"> <input type="text" class="input-medium search-query" name="keywords"> <button type="submit" class="btn">搜索</button> </form> </div> </div> </div> </body> </html>[/code] [color=orange]SeacherResult.jsp[/color] [code="java"]<%@page import="java.util.List"%> <%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding="UTF-8"%> <%@page import="com.lium.bean.*" %> <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <title>搜索结果</title> </head> <body> <% List<Results> list=(List<Results>)request.getAttribute("rsList"); for(int i=0;i<list.size();i++) { Results rs = list.get(i); %> 文件名:<%=rs.getFilename()%><br> 文件内容:<%=rs.getContent()%><br> 文件路径:<%=rs.getFilepath()%><br> <% } %> </body> </html>[/code]

lucene多条件搜索时or与and问题

lucene版本:3.6 分词器:ansj_seg-master 在lucene多条件搜索时,想根据两个字段去做搜索,创建的Query如下所示 Analyzer analyzer = new AnsjAnalysis(); String paramsStr[] = new String[] { "CA0000001", "特惠" }; String keys[] = new String[] {"code", "name" }; BooleanClause.Occur occur[] = new BooleanClause.Occur[] { BooleanClause.Occur.MUST, BooleanClause.Occur.MUST}; Query query = MultiFieldQueryParser.parse(Version.LUCENE_36, paramsStr, keys, occur, analyzer); 索引中确定有code为"CA0000001",name为"特惠"的数据,但就是为BooleanClause.Occur.MUST时找不到,如果为BooleanClause.Occur.SHOULD,则可以查询到那条数据 请问各位要怎么解决?

关于 Lucene3.3 特殊符号 (@#$%^&*) 无法索引问题

Lucene3.3 如题: 比如说 ,创建一个字符串“test_java”的索引,但是用_test来搜索,是搜不出 这条索引记录的。请问 ,如何在创建索引的时候, 把一些特殊符号 (@#$%^&*) 转化我想要的字符串,如空格等 ?听说是可以调 用分词器里面的方法过滤掉的。但是具体要怎么做?我看了很久的API,还是一头雾水。希望大家帮帮我。 测试代码: package test; import java.io.File; import java.io.IOException; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.KeywordAnalyzer; import org.apache.lucene.analysis.SimpleAnalyzer; import org.apache.lucene.analysis.Token; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.cjk.CJKAnalyzer; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.analysis.tokenattributes.TermAttribute; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.document.Field.Index; import org.apache.lucene.document.Field.Store; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.index.Term; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TermQuery; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import org.junit.Test; public class Test { private static final Version MACTH_VERSION = Version.LUCENE_33; // version // number public void testCreate() throws IOException { Analyzer LUCENE_ANALUZER = new StandardAnalyzer(MACTH_VERSION); File indexDir = new File("D:\\index"); Directory dir = FSDirectory.open(indexDir); IndexWriterConfig iwc = new IndexWriterConfig(MACTH_VERSION, LUCENE_ANALUZER); // iwc.setOpenMode(IndexWriterConfig.OpenMode.CREATE); 创建索引时把历史索引删除 IndexWriter indexWriter = new IndexWriter(dir, iwc); Document document = new Document(); Field field = new Field("name", "java_Test", Store.YES, Index.ANALYZED); document.add(field); indexWriter.addDocument(document, LUCENE_ANALUZER); indexWriter.optimize(); indexWriter.close(); // close IndexWriter } public void testSearch() throws Exception { File indexDir = new File("D:\\index"); Directory dir = FSDirectory.open(indexDir); IndexSearcher indexSearcher = new IndexSearcher(dir); Term term = new Term("name", "_test"); Query query = new TermQuery(term); TopDocs topDocs = indexSearcher.search(query, Integer.MAX_VALUE); int totalResults = topDocs.totalHits; System.out.println(totalResults); for (int i = 0; i < totalResults; i++) { ScoreDoc scoreDoc = topDocs.scoreDocs[i]; int docSn = scoreDoc.doc; Document document = indexSearcher.doc(docSn); System.out.println(document.get("name")); } System.out.println(" ------------- "); indexSearcher.close(); } @Test public void testAnalyzer() throws Exception { String text = "test_java"; Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_33); System.out.println("当前使用的分词器:" + analyzer.getClass()); TokenStream tokenStream = analyzer.tokenStream("content",new StringReader(text)); tokenStream.addAttribute(TermAttribute.class); while (tokenStream.incrementToken()) { TermAttribute termAttribute = tokenStream.getAttribute(TermAttribute.class); System.out.println(termAttribute.term()); } tokenStream.end(); tokenStream.close(); } }

lucene对文件名、文件路径进行索引,搜索的时候不能检索出来

如题,lucene对文件名、文件路径都进行了索引,因为文件名、文件路径都包含特殊字符斜杠(/)和点(.),导致搜索的时候输入文件名或者路径,都无法搜索,使用/对字符进行转义也不行,请帮忙。 部分代码如下: protected Document getDocument(File f) throws IOException { Document doc = new Document(); doc.add(new Field("contents", new FileReader(f))); // System.out.println("=======f.getCanonicalPath()========"+f.getCanonicalPath()); // System.out.println("=======f.getName()========"+f.getName()); doc.add(new Field("fileName", f.getName(), Field.Store.YES,Field.Index.NOT_ANALYZED)); doc.add(new Field("fullpath",f.getCanonicalPath(),Field.Store.YES,Field.Index.NOT_ANALYZED)); return doc; } public void searchIndex(String key) throws CorruptIndexException, IOException, ParseException{ key = "C??work?output?张三?txt"; docDir = new File(indexDir); dir = FSDirectory.open(docDir); IndexSearcher indexSearcher = new IndexSearcher(dir); QueryParser parser = new QueryParser(Version.LUCENE_35, "fullpath", new StandardAnalyzer(Version.LUCENE_35)); Query query = parser.parse(key); TopDocs topDocs = indexSearcher.search(query, 10); System.out.println("====totalHits===="+topDocs.totalHits); for (ScoreDoc scoreDoc : topDocs.scoreDocs) { Document doc = indexSearcher.doc(scoreDoc.doc); System.out.println("====fullpath===="+doc.get("fullpath")); System.out.println("====fileName===="+doc.get("fileName")); } } 请给位大神帮忙,谢谢!

何时在Zend Lucene中创建索引和更新文档?

<div class="post-text" itemprop="text"> <p>I fiddling around with Zend Lucene and I have a question on it. When do you create an index and update document in Zend Lucene?</p> <p>Do you create an index whenever you add a new record / row and update the document whenever you update an existing record / row?</p> <p>Thanks.</p> </div>

spring3整合lucene3,启动报错。

spring3在整合lucene3出现了一些问题,是参考网上的例子来做的,不说废话直接贴图。 这是包: ![图片说明](https://img-ask.csdn.net/upload/201602/02/1454387979_699648.jpg) 这是spring配置地方: ![图片说明](https://img-ask.csdn.net/upload/201602/02/1454388006_715116.jpg) 这是报错: ![图片说明](https://img-ask.csdn.net/upload/201602/02/1454388038_118047.jpg) 这是lucene core包里面,明明有UNLIMITED,既然说找不到。 ![图片说明](https://img-ask.csdn.net/upload/201602/02/1454388100_936097.jpg) 新手,没币T-T,求大神帮忙啊。

我问个lucene+IKAnalyzer的加载顺序问题

我服务启动之后是先创建的索引 然后再执行加载用户配置的扩展词典到主词库表里![图片说明](https://img-ask.csdn.net/upload/201601/21/1453364673_550782.png) 我有些不明白了,既然我都创建完索引了,这时候我的扩展分词应该是要没效果的, 可是结果就是扩展分词是有效的 我的扩展分词怎么就成为我的索引了

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Linux面试题(2020最新版)

文章目录Linux 概述什么是LinuxUnix和Linux有什么区别?什么是 Linux 内核?Linux的基本组件是什么?Linux 的体系结构BASH和DOS之间的基本区别是什么?Linux 开机启动过程?Linux系统缺省的运行级别?Linux 使用的进程间通信方式?Linux 有哪些系统日志文件?Linux系统安装多个桌面环境有帮助吗?什么是交换空间?什么是root帐户什么是LILO?什...

将一个接口响应时间从2s优化到 200ms以内的一个案例

一、背景 在开发联调阶段发现一个接口的响应时间特别长,经常超时,囧… 本文讲讲是如何定位到性能瓶颈以及修改的思路,将该接口从 2 s 左右优化到 200ms 以内 。 二、步骤 2.1 定位 定位性能瓶颈有两个思路,一个是通过工具去监控,一个是通过经验去猜想。 2.1.1 工具监控 就工具而言,推荐使用 arthas ,用到的是 trace 命令 具体安装步骤很简单,大家自行研究。 我的使用步骤是...

学历低,无法胜任工作,大佬告诉你应该怎么做

微信上收到一位读者小涛的留言,大致的意思是自己只有高中学历,经过培训后找到了一份工作,但很难胜任,考虑要不要辞职找一份他能力可以胜任的实习工作。下面是他留言的一部分内容: 二哥,我是 2016 年高中毕业的,考上了大学但没去成,主要是因为当时家里经济条件不太允许。 打工了三年后想学一门技术,就去培训了。培训的学校比较垃圾,现在非常后悔没去正规一点的机构培训。 去年 11 月份来北京找到了一份工...

JVM内存结构和Java内存模型别再傻傻分不清了

JVM内存结构和Java内存模型都是面试的热点问题,名字看感觉都差不多,网上有些博客也都把这两个概念混着用,实际上他们之间差别还是挺大的。 通俗点说,JVM内存结构是与JVM的内部存储结构相关,而Java内存模型是与多线程编程相关,本文针对这两个总是被混用的概念展开讲解。 JVM内存结构 JVM构成 说到JVM内存结构,就不会只是说内存结构的5个分区,而是会延展到整个JVM相关的问题,所以先了解下

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Google 与微软的浏览器之争

浏览器再现“神仙打架”。整理 | 屠敏头图 | CSDN 下载自东方 IC出品 | CSDN(ID:CSDNnews)从 IE 到 Chrome,再从 Chrome 到 Edge,微软与...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

85后蒋凡:28岁实现财务自由、34岁成为阿里万亿电商帝国双掌门,他的人生底层逻辑是什么?...

蒋凡是何许人也? 2017年12月27日,在入职4年时间里,蒋凡开挂般坐上了淘宝总裁位置。 为此,时任阿里CEO张勇在任命书中力赞: 蒋凡加入阿里,始终保持创业者的冲劲,有敏锐的...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

什么时候跳槽,为什么离职,你想好了么?

都是出来打工的,多为自己着想

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

立即提问
相关内容推荐