lucene中FSDirectory对象中为什么没有open类

package com.lucene;

import java.io.File;
import java.io.IOException;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
import org.apache.lucene.document.LongField;
import org.apache.lucene.document.TextField;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.util.Version;
import org.apache.lucene.document.Field.Store;

public class Lucene {

public void CreateIndex(){
    Document doc=new Document();
    doc.add(new LongField("id", 1, Store.YES));
    doc.add(new TextField("title", "如何学习lucene", Store.YES));
    doc.add(new TextField("content", "掌握原理,熟悉API,多看文档", Store.YES));
    Directory dir=new FSDirectory.**open**(new File("D:\\index"));//open()类没有,写上就会报错

    Analyzer analyzer=new StandardAnalyzer(Version.LUCENE_46);
    IndexWriterConfig config=new IndexWriterConfig(Version.LUCENE_46, analyzer);
    IndexWriter index=new IndexWriter(dir, config);
    index.addDocument(doc);
    index.close();
}

}

2个回答

Directory dir=new FSDirectory.**open**(new File("D:\index"));//open()类没有,写上就会报错

该正,FSDirectory前面为什么要放个new呢,又不是创建对象

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
学习lucene建立检索和搜索过程中遇到的错误
使用lucene4.6.0版本建立的索引和搜索,在创建索引后会产生如下索引文件 [img] [img]http://dl2.iteye.com/upload/attachment/0096/4453/79ed3575-bec1-3dbf-bb93-067fe57531b5.png[/img] [/img] 但是在搜索时[code="java"] ScoreDoc[] sds = tds.scoreDocs; [/code]中的sds总为空。[b]求大神帮忙解决!!!!!!![/b] 代码如下: [code="java"] package nhky.bs.lucene.test.hellolucene; import java.io.File; import java.io.FileReader; import java.io.IOException; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.document.FieldType; import org.apache.lucene.document.StoredField; import org.apache.lucene.index.DirectoryReader; import org.apache.lucene.index.IndexReader; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.queryparser.classic.ParseException; import org.apache.lucene.queryparser.classic.QueryParser; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.store.RAMDirectory; import org.apache.lucene.util.Version; public class HelloLucene { /** * 建立索引 */ public void index() { IndexWriter writer = null; try { Directory directory = FSDirectory.open(new File("F:/lucene/index01")); IndexWriterConfig iwc = new IndexWriterConfig(Version.LUCENE_46,new StandardAnalyzer(Version.LUCENE_46)); writer = new IndexWriter(directory, iwc); // 3,创建Document Document document = null; // 4,为Docuemnt添加Field File files = new File("F:/lucene/files"); // 5,通过IndexWriter添加文档到索引中 for (File file : files.listFiles()) { document = new Document(); document.add(new Field("content", new FileReader(file),new FieldType())); document.add(new StoredField("fileName", file.getName())); document.add(new StoredField("path", file.getAbsolutePath())); writer.addDocument(document); } } catch (IOException e) { e.printStackTrace(); } finally { if (writer != null) { try { writer.close(); } catch (IOException e) { e.printStackTrace(); } } } } /** * 建立搜索 */ public void searcher() { DirectoryReader reader = null; try { // 创建Directory (去哪里搜索,此目录跟建立索引的目录一致) Directory directory = FSDirectory.open(new File("F:/lucene/index01")); reader = DirectoryReader.open(directory); IndexSearcher searcher = new IndexSearcher(reader); QueryParser parser = new QueryParser(Version.LUCENE_46, "fileName",new StandardAnalyzer(Version.LUCENE_46)); Query query = parser.parse("document"); //根据searcher搜索并且返回TopDocs TopDocs tds = searcher.search(query, 10); // 根据TopDocs获取ScoreDoc对象 // 得到查询结果数组 ScoreDoc[] sds = tds.scoreDocs; for (ScoreDoc sd : sds) { // 根据searcher和scoreDoc对象获取具体的Document对象 Document d = searcher.doc(sd.doc); // 根据Document获取需要的值 System.out.println("搜索结果:"); System.out.println(d.get("fileName") + "[" + d.get("path") + "]"); } } catch (IOException e) { e.printStackTrace(); } catch (ParseException e) { e.printStackTrace(); } finally { // 关闭reader if (reader != null) { try { reader.close(); } catch (IOException e) { e.printStackTrace(); } } } } } [/code]
Lucene索引和检索中文文件的问题
lucene初学者,基础不好,碰到以下问题,恳请各位大侠指导,小女子感激不尽! 用的是IKAnalyzer2012_u6.jar和lucene-core-3.6.2.jar 是对本地的文件进行的索引和检索,做的web版的 1、能检索英文的,就是检索不了中文的 2、英文的检索出来的doc.get("contents")的值是空的,但是文件名和路径能读出来 (附件里有代码) [color=orange]IndexUtil1.java [/color] [code="java"]package com.lium.bean; import java.io.BufferedReader; import java.io.File; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.IOException; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.store.LockObtainFailedException; import org.apache.lucene.util.Version; import org.wltea.analyzer.lucene.IKAnalyzer; public class IndexUtil1 { private Directory directory; private String indexPath = "F:/Lucene/test/indexDir1.2"; private String dataPath = "F:/Lucene/test/dataDir1.2"; public IndexUtil1() { try { directory = FSDirectory.open(new File(indexPath)); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } public String readFile(File f) { String s; StringBuffer text = new StringBuffer(); try { BufferedReader br = new BufferedReader(new FileReader(f)); while((s = br.readLine())!=null) { text.append(s); } return text.toString(); } catch (FileNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } public void Index() { IndexWriter writer = null; try { Analyzer analyzer = new IKAnalyzer(); writer = new IndexWriter(directory, new IndexWriterConfig(Version.LUCENE_36, analyzer)); writer.deleteAll(); Document doc = null; File file = new File(dataPath); for (File f : file.listFiles()) { String text = readFile(f); doc = new Document(); doc.add(new Field("contents",text, Field.Store.YES,Field.Index.ANALYZED)); /*System.out.println(text);*/ /*text值没有问题,可以读出来*/ doc.add(new Field("filename", f.getName(), Field.Store.YES,Field.Index.NOT_ANALYZED)); doc.add(new Field("filepath", f.getCanonicalPath(),Field.Store.YES,Field.Index.NOT_ANALYZED)); writer.addDocument(doc); } } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (LockObtainFailedException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } finally { if(writer != null) { try { writer.close(); } catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } } } }[/code] [color=orange]SearcherUtil.java[/color] [code="java"]package com.lium.bean; import java.io.File; import java.io.IOException; import java.util.ArrayList; import java.util.List; import org.apache.lucene.document.Document; import org.apache.lucene.index.IndexReader; import org.apache.lucene.index.Term; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TermQuery; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; public class SearcherUtil { private Directory directory; private IndexReader reader; public SearcherUtil() { try { directory = FSDirectory.open(new File("F:/Lucene/indexDir")); } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } } public IndexSearcher getsearcher() { try { if(reader == null) { reader = IndexReader.open(directory); }else { IndexReader dr = IndexReader.openIfChanged(reader); if(dr != null) { reader = dr; } } return new IndexSearcher(reader); } /*catch (CorruptIndexException e) { // TODO Auto-generated catch block e.printStackTrace(); }*/ catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } public List<Results> seach(String keys) { try { IndexSearcher searcher = getsearcher(); Query query = new TermQuery(new Term("contents", keys)); TopDocs tds = searcher.search(query, 10); List<Results> rsList = new ArrayList<Results>(); for(ScoreDoc sd:tds.scoreDocs) { Document doc = searcher.doc(sd.doc); /*System.out.println(doc.get("contents"));*/ /*这里打印出来值是空的*/ Results rs = new Results(doc.get("filename"), doc.get("filepath"), doc.get("contents")); rsList.add(rs); } return rsList; } catch (IOException e) { // TODO Auto-generated catch block e.printStackTrace(); } return null; } } [/code] [color=orange]Results.java[/color] [code="java"]package com.lium.bean; public class Results { String filename; String filepath; String content; public Results(String filename, String filepath, String content) { super(); this.filename = filename; this.filepath = filepath; this.content = content; } public String getFilename() { return filename; } public void setFilename(String filename) { this.filename = filename; } public String getFilepath() { return filepath; } public void setFilepath(String filepath) { this.filepath = filepath; } public String getContent() { return content; } public void setContent(String content) { this.content = content; } }[/code] [color=orange]ISservlet.java[/color] [code="java"]package com.lium.servlet; import java.io.IOException; import java.util.List; import javax.servlet.ServletException; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import com.lium.bean.IndexUtil1; import com.lium.bean.Results; import com.lium.bean.SearcherUtil; public class ISservlet extends HttpServlet { private static final long serialVersionUID = 1L; /** * @see HttpServlet#doGet(HttpServletRequest request, HttpServletResponse response) */ protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { this.doPost(request, response); } /** * @see HttpServlet#doPost(HttpServletRequest request, HttpServletResponse response) */ protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { //System.out.println(request.getCharacterEncoding()); request.setCharacterEncoding("UTF-8"); String keys = request.getParameter("keywords"); IndexUtil1 iu = new IndexUtil1(); iu.Index(); SearcherUtil su = new SearcherUtil(); List<Results> rsList = su.seach(keys); if(rsList.size() > 0) { request.setAttribute("rsList", rsList); request.getRequestDispatcher("/SeacherResult.jsp").forward(request, response); } else { request.getRequestDispatcher("/fail.jsp").forward(request, response); } } }[/code] [color=orange]Seacher.html[/color] [code="java"]<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <link href="bootstrap/css/bootstrap.min.css" type="text/css" rel="stylesheet"/> <title>用户搜索界面</title> </head> <body> <div class="container-fluid"> <div class="row-fluid"> <div class="span2"> <!--Sidebar content--> </div> <div class="span10"> <h2>A Simple Searcher</h2> <form class="form-search" action="web/ISservlet" method="post"> <input type="text" class="input-medium search-query" name="keywords"> <button type="submit" class="btn">搜索</button> </form> </div> </div> </div> </body> </html>[/code] [color=orange]SeacherResult.jsp[/color] [code="java"]<%@page import="java.util.List"%> <%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding="UTF-8"%> <%@page import="com.lium.bean.*" %> <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <title>搜索结果</title> </head> <body> <% List<Results> list=(List<Results>)request.getAttribute("rsList"); for(int i=0;i<list.size();i++) { Results rs = list.get(i); %> 文件名:<%=rs.getFilename()%><br> 文件内容:<%=rs.getContent()%><br> 文件路径:<%=rs.getFilepath()%><br> <% } %> </body> </html>[/code]
关于 Lucene3.3 特殊符号 (@#$%^&*) 无法索引问题
Lucene3.3 如题: 比如说 ,创建一个字符串“test_java”的索引,但是用_test来搜索,是搜不出 这条索引记录的。请问 ,如何在创建索引的时候, 把一些特殊符号 (@#$%^&*) 转化我想要的字符串,如空格等 ?听说是可以调 用分词器里面的方法过滤掉的。但是具体要怎么做?我看了很久的API,还是一头雾水。希望大家帮帮我。 测试代码: package test; import java.io.File; import java.io.IOException; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.KeywordAnalyzer; import org.apache.lucene.analysis.SimpleAnalyzer; import org.apache.lucene.analysis.Token; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.cjk.CJKAnalyzer; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.analysis.tokenattributes.TermAttribute; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.document.Field.Index; import org.apache.lucene.document.Field.Store; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.index.Term; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TermQuery; import org.apache.lucene.search.TopDocs; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import org.junit.Test; public class Test { private static final Version MACTH_VERSION = Version.LUCENE_33; // version // number public void testCreate() throws IOException { Analyzer LUCENE_ANALUZER = new StandardAnalyzer(MACTH_VERSION); File indexDir = new File("D:\\index"); Directory dir = FSDirectory.open(indexDir); IndexWriterConfig iwc = new IndexWriterConfig(MACTH_VERSION, LUCENE_ANALUZER); // iwc.setOpenMode(IndexWriterConfig.OpenMode.CREATE); 创建索引时把历史索引删除 IndexWriter indexWriter = new IndexWriter(dir, iwc); Document document = new Document(); Field field = new Field("name", "java_Test", Store.YES, Index.ANALYZED); document.add(field); indexWriter.addDocument(document, LUCENE_ANALUZER); indexWriter.optimize(); indexWriter.close(); // close IndexWriter } public void testSearch() throws Exception { File indexDir = new File("D:\\index"); Directory dir = FSDirectory.open(indexDir); IndexSearcher indexSearcher = new IndexSearcher(dir); Term term = new Term("name", "_test"); Query query = new TermQuery(term); TopDocs topDocs = indexSearcher.search(query, Integer.MAX_VALUE); int totalResults = topDocs.totalHits; System.out.println(totalResults); for (int i = 0; i < totalResults; i++) { ScoreDoc scoreDoc = topDocs.scoreDocs[i]; int docSn = scoreDoc.doc; Document document = indexSearcher.doc(docSn); System.out.println(document.get("name")); } System.out.println(" ------------- "); indexSearcher.close(); } @Test public void testAnalyzer() throws Exception { String text = "test_java"; Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_33); System.out.println("当前使用的分词器:" + analyzer.getClass()); TokenStream tokenStream = analyzer.tokenStream("content",new StringReader(text)); tokenStream.addAttribute(TermAttribute.class); while (tokenStream.incrementToken()) { TermAttribute termAttribute = tokenStream.getAttribute(TermAttribute.class); System.out.println(termAttribute.term()); } tokenStream.end(); tokenStream.close(); } }
lucene对文件名、文件路径进行索引,搜索的时候不能检索出来
如题,lucene对文件名、文件路径都进行了索引,因为文件名、文件路径都包含特殊字符斜杠(/)和点(.),导致搜索的时候输入文件名或者路径,都无法搜索,使用/对字符进行转义也不行,请帮忙。 部分代码如下: protected Document getDocument(File f) throws IOException { Document doc = new Document(); doc.add(new Field("contents", new FileReader(f))); // System.out.println("=======f.getCanonicalPath()========"+f.getCanonicalPath()); // System.out.println("=======f.getName()========"+f.getName()); doc.add(new Field("fileName", f.getName(), Field.Store.YES,Field.Index.NOT_ANALYZED)); doc.add(new Field("fullpath",f.getCanonicalPath(),Field.Store.YES,Field.Index.NOT_ANALYZED)); return doc; } public void searchIndex(String key) throws CorruptIndexException, IOException, ParseException{ key = "C??work?output?张三?txt"; docDir = new File(indexDir); dir = FSDirectory.open(docDir); IndexSearcher indexSearcher = new IndexSearcher(dir); QueryParser parser = new QueryParser(Version.LUCENE_35, "fullpath", new StandardAnalyzer(Version.LUCENE_35)); Query query = parser.parse(key); TopDocs topDocs = indexSearcher.search(query, 10); System.out.println("====totalHits===="+topDocs.totalHits); for (ScoreDoc scoreDoc : topDocs.scoreDocs) { Document doc = indexSearcher.doc(scoreDoc.doc); System.out.println("====fullpath===="+doc.get("fullpath")); System.out.println("====fileName===="+doc.get("fileName")); } } 请给位大神帮忙,谢谢!
Lucene结果高亮显示时,内容缩短了好多是为什么?
源代码如下: ``` String fsearchkey = request.getParameter("fsearchkey"); ArrayList fbooklist = new ArrayList(); Directory directory = FSDirectory.open(new File("F:\\temp\\index")); IndexReader indexReader = DirectoryReader.open(directory); IndexSearcher indexSearcher = new IndexSearcher(indexReader); SmartChineseAnalyzer analyzer = new SmartChineseAnalyzer(); QueryParser parser = new QueryParser("fileContent", analyzer); Query query = parser.parse(fsearchkey); TopDocs topDocs = indexSearcher.search(query, 100); ScoreDoc[] scoreDocs = topDocs.scoreDocs; for (ScoreDoc scoreDoc : scoreDocs) { int doc = scoreDoc.doc; Document document = indexSearcher.doc(doc); String fileName = document.get("fileName"); String fileContent = document.get("fileContent"); System.out.println(fileContent); if (fileContent != null) { // 下面是高亮显示 QueryScorer scorer = new QueryScorer(query); Fragmenter fragmenter = new SimpleSpanFragmenter(scorer); SimpleHTMLFormatter simpleHTMLFormatter = new SimpleHTMLFormatter( "<b><font color='red'>", "</font></b>"); Highlighter highlighter = new Highlighter(simpleHTMLFormatter, scorer); highlighter.setTextFragmenter(fragmenter); // TokenStream tokenStream = analyzer.tokenStream("fileContent", new StringReader(fileContent)); fileContent = highlighter.getBestFragment(tokenStream, fileContent).toString(); } System.out.println(fileContent); System.out.println("---------------------------------"); ``` 结果如下: 软计算方法是国际上最新发展起来的数学优化方法,它在国民经济的各个领域都有广泛的应用。《软计算及其应用》较系统地介绍了软计算及其应用方法,包括模拟退火算法、人工神经网络计算方法、遗传算法、支持向量机和模糊计算等。书中从结构上对软计算方法进行了统一地描述,并注重叙述各内容之间的相互融合,特别注意讲述这些软计算方法的实际应用,并给出了其应用实例。 《软计算及其应用》取材新颖,反映了当前国际先进的软计算技术,并兼顾课堂教学、自学的特点。叙述深入浅出,易读易懂,可作为高等院校相关专业的研究生、本科生的教材和参考书,也可供有关学科的教师及工程技术人员参考。 软计算<b><font color='red'>方法</font></b>是国际上最新发展起来的数学优化<b><font color='red'>方法</font></b>,它在国民经济的各个领域都有广泛的应用。《软计算及其应用》较系统地介绍了软计算及其应用<b><font color='red'>方法</font></b>,包括模拟退火算法、人工神经网络计算<b><font color='red'>方法</font></b>、遗传算法、支持 --------------------------------- 前两段是文章内容,经过高亮显示后只显示第三段中的内容,这是为什么?求大神解答
java lucene的搜索和翻页效率?
lucene上千万的数据翻页怎么这么慢啊,基本上要5s-6s。前面的页数还比较快,越到后面的页数翻页越慢。 贴上代码: 方式一: ``` public static void searchPage(int pageIndex,int pageSize) throws IOException, ParseException{ Date start=new Date(); Directory dir=FSDirectory.open(Paths.get("D:\\FCJS\\FCJS_bigdata_lucene5.3.0")); IndexReader reader = DirectoryReader.open(dir); IndexSearcher searcher=new IndexSearcher(reader); Analyzer analyzer=new IKAnalyzer(false);//false细粒度分词,true智能分词 QueryParser parser=new QueryParser("all", analyzer); Query query=parser.parse("all"); TopDocs tds = searcher.search(query,Integer.MAX_VALUE); ScoreDoc[] sds = tds.scoreDocs; int page_start = (pageIndex-1)*pageSize; int page_end = pageIndex*pageSize; for(int i=page_start;i<page_end;i++) { Document doc = searcher.doc(sds[i].doc); System.out.println(sds[i].doc+":"+doc.get("ArticleID")); } Date end=new Date(); System.out.println("耗时:"+(end.getTime()-start.getTime())+"ms"); } ``` 方式二: ``` private static void searchPageByAfter(int pageIndex,int pageSize) throws IOException, ParseException{ Date start=new Date(); Directory dir=FSDirectory.open(Paths.get("D:\\FCJS\\FCJS_bigdata")); IndexReader reader = DirectoryReader.open(dir); IndexSearcher searcher=new IndexSearcher(reader); Analyzer analyzer=new IKAnalyzer(false);//false细粒度分词,true智能分词 QueryParser parser=new QueryParser("all", analyzer); Query query=parser.parse("all"); //获取上一页的最后一个元素 ScoreDoc lastSd = getLastScoreDoc(pageIndex, pageSize, query, searcher); //通过最后一个元素去搜索下一页的元素 TopDocs tds = searcher.searchAfter(lastSd,query, pageSize); for(ScoreDoc sd:tds.scoreDocs) { Document doc = searcher.doc(sd.doc); System.out.println(sd.doc+":"+doc.get("ArticleID")); } Date end=new Date(); System.out.println("耗时:"+(end.getTime()-start.getTime())+"ms"); } ```
使用sae中遇到的关于directory路径的问题
我在sae上开发的时候采用了有关lucene的内容,其中lucene需要生成索引,我把索引文件已经放到了sae提供的storage中。我用sae自带的com.sina.sae.storage.SaeStorage; 和com.sina.sae.util.SaeUserInfo;包操作的时候,都能在SAE的storage中取到我想要找的文件(路径获取方法是:saeStorage.getUrl,能取到文件并读出文件),但是当我采用 Directory directory = FSDirectory.open(new File(通过saeStorage.getUrl取到的路径));就出现了问题,后来我打印了一下这个directory,发现出现 org.apache.lucene.store.MMapDirectory@/usr/local/sae/jkdaemon/(写好的路径),和本地测试比较后发现,是在路径前面多了 **/usr/local/sae/jkdaemon/** ,估计是sae自动给加的,我想问问大神们是怎么处理的,小弟被这事困扰了两天了,希望大家能帮我解决下
使用lucene和paoding建立索引报错
这是其中的创建索引的代码:大家帮忙看下吧 package com.foresee.paodinganalyzer; import java.io.File; import java.io.FileReader; import java.io.IOException; import java.util.Date; import net.paoding.analysis.analyzer.PaodingAnalyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.store.FSDirectory; public class CreateIndexer { /** * @param args */ private static String INDEX_DIR = "e:\\mypaoding\\index\\";// 索引存放目录 private static String DATA_DIR = "e:\\mypaoding\\small\\";// 原文件存放路径 public static void main(String[] args) throws IOException { // TODO Auto-generated method stub long start = new Date().getTime(); int numIndexed = index(new File(INDEX_DIR), new File(DATA_DIR));// 调用index方法 long end = new Date().getTime(); System.out.println("Indexing " + numIndexed + " files took " + (end - start) + " millseconds"); } private static int index(File indexDir, File dataDir) throws IOException { // TODO Auto-generated method stub if (!dataDir.exists() || !dataDir.isDirectory()) { throw new IOException(dataDir + " does not exist or is not a directory"); } IndexWriter iw = new IndexWriter(FSDirectory.open(indexDir), new PaodingAnalyzer()/*new StandardAnalyzer(Version.LUCENE_30)*/, true, IndexWriter.MaxFieldLength.LIMITED); indexDirectory(iw, dataDir); int numIndexed = iw.numDocs(); iw.optimize(); iw.close(); return numIndexed; } /** * 循环遍历目录下的所有.txt文件并进行索引 * * @param iw * @param dataDir * @throws IOException */ private static void indexDirectory(IndexWriter iw, File dataDir) throws IOException { // TODO Auto-generated method stub File[] files = dataDir.listFiles(); for (int i = 0; i < files.length; i++) { File f = files[i]; if (f.isDirectory()) { indexDirectory(iw, f);// 递归遍历 } else if (f.getName().endsWith(".txt")) { indexFile(iw, f); } } } private static void indexFile(IndexWriter iw, File f) throws IOException { // TODO Auto-generated method stub if (f.isHidden() || !f.exists() || !f.canRead()) { return; } System.out.println("Indexing " + f.getCanonicalPath()); Document doc = new Document(); doc.add(new Field("contents", new FileReader(f)));// 有变化的地方 doc.add(new Field("filename", f.getCanonicalPath(), Field.Store.YES, Field.Index.ANALYZED));// 有变化的地方 iw.addDocument(doc); } } 下面是报错的信息: 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker getProperties 信息: config paoding analysis from: D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-analysis.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-analysis-default.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-analyzer.properties;D:\workspace\PaodingAnalyzer\bin\paoding-dic-home.properties;E:\data\paoding\dic\paoding-dic-names.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-knives.properties;D:\workspace\PaodingAnalyzer\file:\E:\jar\pading\paoding-analysis.jar!\paoding-knives-user.properties 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker createPaodingWithKnives 信息: add knike: net.paoding.analysis.knife.CJKKnife 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker createPaodingWithKnives 信息: add knike: net.paoding.analysis.knife.LetterKnife 2010-3-10 9:16:00 net.paoding.analysis.knife.PaodingMaker createPaodingWithKnives 信息: add knike: net.paoding.analysis.knife.NumberKnife Indexing E:\mypaoding\small\girl0.txt Exception in thread "main" java.lang.AbstractMethodError: org.apache.lucene.analysis.TokenStream.incrementToken()Z at org.apache.lucene.index.DocInverterPerField.processFields(DocInverterPerField.java:137) at org.apache.lucene.index.DocFieldProcessorPerThread.processDocument(DocFieldProcessorPerThread.java:246) at org.apache.lucene.index.DocumentsWriter.updateDocument(DocumentsWriter.java:773) at org.apache.lucene.index.DocumentsWriter.addDocument(DocumentsWriter.java:751) at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1928) at org.apache.lucene.index.IndexWriter.addDocument(IndexWriter.java:1902) at com.foresee.paodinganalyzer.CreateIndexer.indexFile(CreateIndexer.java:81) at com.foresee.paodinganalyzer.CreateIndexer.indexDirectory(CreateIndexer.java:66) at com.foresee.paodinganalyzer.CreateIndexer.index(CreateIndexer.java:43) at com.foresee.paodinganalyzer.CreateIndexer.main(CreateIndexer.java:29)
关于lucene+IK分词,查询条件越长,查询结果越多的问题怎么破
如题,lucene+IK分词实现检索功能,目的是比数据库查询快的多,但是问题来了,如:我输入“小米”查询企业信息列表,返回了**小米**XXXXX公司、**小米**XXXXX服务公司。。。。。,我输入“小米科技”,返回了**小米**XXXXX公司、**小米**XXXXX服务公司、XXX百度**科技**XXXX公司,输入越精确分词返回结果集越多,想想觉得不太合理,希望将分词后返回包含所有分词后小词条的结果,但是没找到相应的办法,不知道有没坛友遇到类似问题有解决经验的,求指引! PropKit.use(ConstantConfig.CONFIG_PROPERTIES); Directory dir = FSDirectory.open(Paths.get(PropKit.get(ConstantConfig.LUCENCE_PATH)));// 打开索引目录 IndexSearcher isearcher = new IndexSearcher(DirectoryReader.open(dir));// search对象 IKAnalyzer analyzer = new IKAnalyzer(false);// IK分词器 // KeywordAnalyzer analyzer = new KeywordAnalyzer(); // StandardAnalyzer analyzer = new StandardAnalyzer(); List<String> fieldNameList = new ArrayList<String>(); List<String> fieldValueList = new ArrayList<String>(); fieldNameList.add(ConstantField.STATUS_CODE); fieldValueList.add(StatusCode.STATUS_NORMAL.getValue()); fieldNameList.add("spName"); fieldValueList.add("小米科技"); // 分页查询 TopFieldCollector c = TopFieldCollector.create(new Sort(SortField.FIELD_SCORE), 50, false, false, false); if (fieldNameList.size() < 1) { isearcher.search(new MatchAllDocsQuery(), c); } else { String[] queries = new String[fieldNameList.size()]; String[] fields = new String[fieldNameList.size()]; BooleanClause.Occur[] clauses = new BooleanClause.Occur[fieldNameList.size()]; for (int i = 0; i < fieldNameList.size(); i++) { queries[i] = fieldValueList.get(i); fields[i] = fieldNameList.get(i); clauses[i] = BooleanClause.Occur.MUST; } //多字段查询 QueryParser parser=new MultiFieldQueryParser(new String[]{""}, analyzer); Query query = MultiFieldQueryParser.parse(queries, fields, clauses, analyzer); isearcher.search(query, c); } System.out.println(c.getTotalHits()); ScoreDoc[] hits = c.topDocs(0, 50).scoreDocs; List<Map<String, Object>> dataList = new ArrayList<Map<String, Object>>(); Map<String, Object> entity; for (int i = 0; i < hits.length; i++) { Document doc = isearcher.doc(hits[i].doc); entity = new HashMap<String, Object>(); entity.put("spName", doc.get("spName")); dataList.add(entity); } System.out.println(JSON.toJSON(dataList).toString());
在使用lucene时,怎么设置搜索方式让输入短语(如管理信息系统),输出结果中必须带有管理,信息和系统
在使用lucene时,怎么设置搜索方式让输入短语(如管理信息系统),输出结果中必须带有管理,信息和系统? ``` public ScoreDoc[] SearchIndex(String searchplace, String searchkey) throws Exception { Directory directory = FSDirectory.open(new File("F:\\temp\\index")); IndexReader indexReader = DirectoryReader.open(directory); IndexSearcher indexSearcher = new IndexSearcher(indexReader); IKAnalyzer analyzer = new IKAnalyzer(); QueryParser parser = new QueryParser(searchplace, analyzer); Query query = parser.parse(searchkey); TopDocs topDocs = indexSearcher.search(query, 100); ScoreDoc[] scoreDocs = topDocs.scoreDocs; System.out.println("共有 " + topDocs.totalHits + " 条匹配的结果"); System.out.println("共有 " + scoreDocs.length + " 条匹配的结果"); System.out.println("-----------------------------------------------------------------"); for (ScoreDoc scoreDoc : scoreDocs) { int doc = scoreDoc.doc; Document document = indexSearcher.doc(doc); // 文件名称 String fileName = document.get("fileName"); System.out.println(fileName); // 文件内容 String fileContent = document.get("fileContent"); System.out.println(fileContent); // 文件大小 String fileSize = document.get("fileSize"); System.out.println(fileSize); // 文件路径 String filePath = document.get("filePath"); System.out.println(filePath); System.out.println("-----------------------------------------------------------------"); } indexReader.close(); return scoreDocs; } ``` 我这么写的代码,假如搜索词是管理信息系统,输出结果会是带有管理、信息或者系统的文件,怎么把或者改成都要出现?
关于lucene.net站内搜索的简单问题
我做了一个简单的站内搜索,但是创建索引后无法搜索到数据,不知道为什么 ``` #region 创建索引 public void createIndex() { SqlConnection conn = new SqlConnection("server=localhost;database=news;uid=sa;pwd=intellitrans"); FSDirectory directory; IndexWriter writer; string indexPath = Context.Server.MapPath("~/IndexData"); System.IO.Directory.Delete(indexPath, true); directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory()); writer = new IndexWriter(directory, new PanGuAnalyzer(), true, IndexWriter.MaxFieldLength.UNLIMITED); try { conn.Open(); string sql = "select newsid,title,url,time,newsContent from news"; SqlCommand comm = new SqlCommand(sql, conn); SqlDataReader dataReader = comm.ExecuteReader(); while (dataReader.Read()) { Document document = new Document(); document.Add(new Field("newsid", dataReader[0].ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED)); document.Add(new Field("title", dataReader[0].ToString(), Field.Store.YES, Field.Index.ANALYZED)); document.Add(new Field("url", dataReader[1].ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS)); document.Add(new Field("time", dataReader[2].ToString(), Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS)); document.Add(new Field("newsContent", dataReader[3].ToString(), Field.Store.YES, Field.Index.ANALYZED)); writer.AddDocument(document); } } catch (Exception ex) { this.Label1.Text = "创建索引失败" + ex.Message; } finally { conn.Close(); writer.Close(); directory.Close(); } } #endregion #region 搜索 private void SearchIndex() { string indexPath = Context.Server.MapPath("~/IndexData"); FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NoLockFactory()); IndexReader reader = IndexReader.Open(directory, true); IndexSearcher searcher = new IndexSearcher(reader); // PhraseQuery query = new PhraseQuery(); TermQuery query = null; BooleanQuery queryOr = new BooleanQuery(); foreach (string word in SplitWords(this.TextBox1.Text)) { // query.Add(new Term("title", word)); query = new TermQuery(new Term("title", word)); queryOr.Add(query, BooleanClause.Occur.SHOULD); query = new TermQuery(new Term("newsContent", word)); queryOr.Add(query, BooleanClause.Occur.SHOULD); //query.Add(new Term("newsContent", word)); } TopScoreDocCollector collector = TopScoreDocCollector.create(1000, true); searcher.Search(query, null, collector); //Hits hit = searcher.Search(query); ScoreDoc[] docs = collector.TopDocs(0, collector.GetTotalHits()).scoreDocs; List<News> newResult = new List<News>(); for (int i = 0; i < docs.Length; i++) { int docId = docs[i].doc; Document doc = searcher.Doc(docId); News news = new News(); news.Title = doc.Get("title"); news.ContentDescription = HightLight(this.TextBox1.Text, doc.Get("newsContent")); newResult.Add(news); } this.rptSearch.DataSource = newResult; this.rptSearch.DataBind(); } #endregion ```
no segments file found 错误
最近将全文检索的程序从windows平台移植到linux平台中,发现了一个问题: 搜索时总是报如下错误: [code="java"] java.io.FileNotFoundException: no segments* file found in org.apache.lucene.store.FSDirectory@/usr/local/holendb: files: at org.apache.lucene.index.SegmentInfos$FindSegmentsFile.run(SegmentInfos.java:516) at org.apache.lucene.index.IndexReader.open(IndexReader.java:221) at org.apache.lucene.index.IndexReader.open(IndexReader.java:148) at asop.lucene.SearchByLucene.getHighLightResult(SearchByLucene.java:62) 。。。。。。。 [/code] 但是在/usr/local/holendb的目录下有如下的文件: -rw-r--r-- 1 root root 34822300 04-20 13:33 _1p3b.cfs -rw-r--r-- 1 root root 44 04-20 13:33 segments_3e6w -rw-r--r-- 1 root root 20 04-20 13:33 segments.gen 我将这些文件拷贝到windows平台中的索引目录中运行搜索程序,可以正常使用,查处结果。这是什么问题呢?请教各位大大了 [b]问题补充:[/b] 路径是正确的 [b]问题补充:[/b] 我的建立索引的方法如下: [code="java"] public int createDataBase(File file, boolean newOrAppend) { int returnValue = 0; if (!file.isDirectory()) { file.mkdirs(); } try { MyPaoding pp = MyPaoding.getInstance(); Analyzer writerAnalyzer = PaodingAnalyzer.writerMode(pp .getPaoDing()); IndexWriter indexWriter = new IndexWriter(file, writerAnalyzer, newOrAppend); indexWriter.close(); returnValue = 1; } catch (Exception ex) { ex.printStackTrace(); } return returnValue; } /** * * 传入检索库路径,初始化库 * * @param file * * @return * */ public int createDataBase(String file) { return this.createDataBase(new File(file), true); } [/code] 插入数据的方法 [code="java"] /** * 创建全文索引 * * @param dbpath * 索引文件的位置 * @param map * 创建索引的索引数据 * @return */ @SuppressWarnings("unchecked") public int insertRecords(String dbpath, HashMap map) { int returnValue = 0; try { MyPaoding pp = MyPaoding.getInstance(); Analyzer writerAnalyzer = PaodingAnalyzer.writerMode(pp .getPaoDing()); IndexWriter indexWriter = new IndexWriter(dbpath, writerAnalyzer, false); //Directory dir = FSDirectory.getDirectory(dbpath,false);// this.addMap(indexWriter, map); returnValue = 1; } catch (Exception ex) { ex.printStackTrace(); log.error(ex); } return returnValue; } /** * 创建索引 * * @param indexWriter * @param map */ @SuppressWarnings("unchecked") private void addMap(IndexWriter indexWriter, HashMap map) { Document doc = new Document(); try { Set entries = map.entrySet(); if (entries == null) throw new Exception("空数据"); Iterator iterator = entries.iterator(); while (iterator.hasNext()) { Map.Entry entry = (Map.Entry) iterator.next(); Object value; Object key = entry.getKey(); if(entry.getValue()==null){ value = extractText(""); } else{ value = extractText(entry.getValue().toString());} if (!key.toString().equals("content")) { Field fd = new Field(key.toString(), value.toString(), Field.Store.YES, Field.Index.NO, Field.TermVector.NO); doc.add(fd); } else { Field fd = new Field(key.toString(), value.toString(), Field.Store.YES, Field.Index.TOKENIZED, Field.TermVector.WITH_POSITIONS_OFFSETS); doc.add(fd); } } indexWriter.addDocument(doc); indexWriter.optimize(); indexWriter.close(); } catch (Exception ex) { ex.printStackTrace(); log.error(ex); } } [/code] 搜索的方法: [code="java"] MyPaoding pp = MyPaoding.getInstance(); FSDirectory fsdir = FSDirectory.getDirectory(term.getDbpath()); IndexReader reader = IndexReader.open(fsdir); QueryParser parser = new QueryParser(term.getQueryFieldName(), PaodingAnalyzer.writerMode(pp.getPaoDing())); Query query = parser.parse(term.getQueryString()); Searcher searcher = new IndexSearcher(term.getDbpath()); query = query.rewrite(reader); Hits hits = searcher.search(query); [/code] 现在报错的地方是:IndexReader reader = IndexReader.open(fsdir);
动态规划入门到熟悉,看不懂来打我啊
持续更新。。。。。。 2.1斐波那契系列问题 2.2矩阵系列问题 2.3跳跃系列问题 3.1 01背包 3.2 完全背包 3.3多重背包 3.4 一些变形选讲 2.1斐波那契系列问题 在数学上,斐波纳契数列以如下被以递归的方法定义:F(0)=0,F(1)=1, F(n)=F(n-1)+F(n-2)(n&gt;=2,n∈N*)根据定义,前十项为1, 1, 2, 3...
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是一个本地线程副本变量工具类,各个线程都拥有一份线程私...
对计算机专业来说学历真的重要吗?
我本科学校是渣渣二本,研究生学校是985,现在毕业五年,校招笔试、面试,社招面试参加了两年了,就我个人的经历来说下这个问题。 这篇文章很长,但绝对是精华,相信我,读完以后,你会知道学历不好的解决方案,记得帮我点赞哦。 先说结论,无论赞不赞同,它本质就是这样:对于技术类工作而言,学历五年以内非常重要,但有办法弥补。五年以后,不重要。 目录: 张雪峰讲述的事实 我看到的事实 为什么会这样 ...
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
Python 植物大战僵尸代码实现(2):植物卡片选择和种植
这篇文章要介绍的是: - 上方植物卡片栏的实现。 - 点击植物卡片,鼠标切换为植物图片。 - 鼠标移动时,判断当前在哪个方格中,并显示半透明的植物作为提示。
防劝退!数据结构和算法难理解?可视化动画带你轻松透彻理解!
大家好,我是 Rocky0429,一个连数据结构和算法都不会的蒟蒻… 学过数据结构和算法的都知道这玩意儿不好学,没学过的经常听到这样的说法还没学就觉得难,其实难吗?真难! 难在哪呢?当年我还是个小蒟蒻,初学数据结构和算法的时候,在忍着枯燥看完定义原理,之后想实现的时候,觉得它们的过程真的是七拐八绕,及其难受。 在简单的链表、栈和队列这些我还能靠着在草稿上写写画画理解过程,但是到了数论、图...
【搞定 Java 并发面试】面试最常问的 Java 并发基础常见面试题总结!
本文为 SnailClimb 的原创,目前已经收录自我开源的 JavaGuide 中(61.5 k Star!【Java学习 面试指南】 一份涵盖大部分Java程序员所需要掌握的核心知识。欢迎 Star!)。 另外推荐一篇原创:终极推荐!可能是最适合你的Java学习路线 方法 网站 书籍推荐! Java 并发基础常见面试题总结 1. 什么是线程和进程? 1.1. 何为进程? 进程是程...
西游记团队中如果需要裁掉一个人,会先裁掉谁?
2019年互联网寒冬,大批企业开始裁员,下图是网上流传的一张截图: 裁员不可避免,那如何才能做到不管大环境如何变化,自身不受影响呢? 我们先来看一个有意思的故事,如果西游记取经团队需要裁员一名,会裁掉谁呢,为什么? 西游记团队组成: 1.唐僧 作为团队teamleader,有很坚韧的品性和极高的原则性,不达目的不罢休,遇到任何问题,都没有退缩过,又很得上司支持和赏识(直接得到唐太宗的任命,既给
shell脚本:备份数据库、代码上线
备份MySQL数据库 场景: 一台MySQL服务器,跑着5个数据库,在没有做主从的情况下,需要对这5个库进行备份 需求: 1)每天备份一次,需要备份所有的库 2)把备份数据存放到/data/backup/下 3)备份文件名称格式示例:dbname-2019-11-23.sql 4)需要对1天以前的所有sql文件压缩,格式为gzip 5)本地数据保留1周 6)需要把备份的数据同步到远程备份中心,假如...
iOS Bug 太多,苹果终于坐不住了!
开源的 Android 和闭源的 iOS,作为用户的你,更偏向哪一个呢? 整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 毋庸置疑,当前移动设备操作系统市场中,Android 和 iOS 作为两大阵营,在相互竞争的同时不断演进。不过一直以来,开源的 Android 吸引了无数的手机厂商涌入其中,为其生态带来了百花齐放的盛景,但和神秘且闭源的 iOS 系统相比,不少网友...
神经⽹络可以计算任何函数的可视化证明
《Neural Networks and Deep Learning》读书笔记第四篇本章其实和前面章节的关联性不大,所以大可将本章作为小短文来阅读,当然基本的深度学习基础还是要有的。主要介绍了神经⽹络拥有的⼀种普遍性,比如说不管目标函数是怎样的,神经网络总是能够对任何可能的输入,其值(或者说近似值)是网络的输出,哪怕是多输入和多输出也是如此,我们大可直接得出一个结论:不论我们想要计算什么样的函数,...
聊聊C语言和指针的本质
坐着绿皮车上海到杭州,24块钱,很宽敞,在火车上非正式地聊几句。 很多编程语言都以 “没有指针” 作为自己的优势来宣传,然而,对于C语言,指针却是与生俱来的。 那么,什么是指针,为什么大家都想避开指针。 很简单, 指针就是地址,当一个地址作为一个变量存在时,它就被叫做指针,该变量的类型,自然就是指针类型。 指针的作用就是,给出一个指针,取出该指针指向地址处的值。为了理解本质,我们从计算机模型说起...
为什么你学不过动态规划?告别动态规划,谈谈我的经验
动态规划难吗?说实话,我觉得很难,特别是对于初学者来说,我当时入门动态规划的时候,是看 0-1 背包问题,当时真的是一脸懵逼。后来,我遇到动态规划的题,看的懂答案,但就是自己不会做,不知道怎么下手。就像做递归的题,看的懂答案,但下不了手,关于递归的,我之前也写过一篇套路的文章,如果对递归不大懂的,强烈建议看一看:为什么你学不会递归,告别递归,谈谈我的经验 对于动态规划,春招秋招时好多题都会用到动态...
程序员一般通过什么途径接私活?
二哥,你好,我想知道一般程序猿都如何接私活,我也想接,能告诉我一些方法吗? 上面是一个读者“烦不烦”问我的一个问题。其实不止是“烦不烦”,还有很多读者问过我类似这样的问题。 我接的私活不算多,挣到的钱也没有多少,加起来不到 20W。说实话,这个数目说出来我是有点心虚的,毕竟太少了,大家轻喷。但我想,恰好配得上“一般程序员”这个称号啊。毕竟苍蝇再小也是肉,我也算是有经验的人了。 唾弃接私活、做外...
字节跳动面试官这样问消息队列:分布式事务、重复消费、顺序消费,我整理了一下
你知道的越多,你不知道的越多 点赞再看,养成习惯 GitHub上已经开源 https://github.com/JavaFamily 有一线大厂面试点脑图、个人联系方式和人才交流群,欢迎Star和完善 前言 消息队列在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在消息队列的使用和原理方面对小伙伴们进行360°的刁难。 作为一个在互联网公司面一次拿一次Offer的面霸...
如何安装 IntelliJ IDEA 最新版本——详细教程
IntelliJ IDEA 简称 IDEA,被业界公认为最好的 Java 集成开发工具,尤其在智能代码助手、代码自动提示、代码重构、代码版本管理(Git、SVN、Maven)、单元测试、代码分析等方面有着亮眼的发挥。IDEA 产于捷克,开发人员以严谨著称的东欧程序员为主。IDEA 分为社区版和付费版两个版本。 我呢,一直是 Eclipse 的忠实粉丝,差不多十年的老用户了。很早就接触到了 IDEA...
面试还搞不懂redis,快看看这40道面试题(含答案和思维导图)
Redis 面试题 1、什么是 Redis?. 2、Redis 的数据类型? 3、使用 Redis 有哪些好处? 4、Redis 相比 Memcached 有哪些优势? 5、Memcache 与 Redis 的区别都有哪些? 6、Redis 是单进程单线程的? 7、一个字符串类型的值能存储最大容量是多少? 8、Redis 的持久化机制是什么?各自的优缺点? 9、Redis 常见性...
大学四年自学走来,这些珍藏的「实用工具/学习网站」我全贡献出来了
知乎高赞:文中列举了互联网一线大厂程序员都在用的工具集合,涉及面非常广,小白和老手都可以进来看看,或许有新收获。
为什么要推荐大家学习字节码?
配套视频: 为什么推荐大家学习Java字节码 https://www.bilibili.com/video/av77600176/ 一、背景 本文主要探讨:为什么要学习 JVM 字节码? 可能很多人会觉得没必要,因为平时开发用不到,而且不学这个也没耽误学习。 但是这里分享一点感悟,即人总是根据自己已经掌握的知识和技能来解决问题的。 这里有个悖论,有时候你觉得有些技术没用恰恰是...
互联网公司的裁员,能玩出多少种花样?
裁员,也是一门学问,可谓博大精深!以下,是互联网公司的裁员的多种方法:-正文开始-135岁+不予续签的理由:千禧一代网感更强。95后不予通过试用期的理由:已婚已育员工更有责任心。2通知接下来要过苦日子,让一部分不肯同甘共苦的员工自己走人,以“兄弟”和“非兄弟”来区别员工。3强制996。员工如果平衡不了工作和家庭,可在离婚或离职里二选一。4不布置任何工作,但下班前必须提交千字工作日报。5不给活干+...
【超详细分析】关于三次握手与四次挥手面试官想考我们什么?
在面试中,三次握手和四次挥手可以说是问的最频繁的一个知识点了,我相信大家也都看过很多关于三次握手与四次挥手的文章,今天的这篇文章,重点是围绕着面试,我们应该掌握哪些比较重要的点,哪些是比较被面试官给问到的,我觉得如果你能把我下面列举的一些点都记住、理解,我想就差不多了。 三次握手 当面试官问你为什么需要有三次握手、三次握手的作用、讲讲三次三次握手的时候,我想很多人会这样回答: 首先很多人会先讲下握...
新程序员七宗罪
当我发表这篇文章《为什么每个工程师都应该开始考虑开发中的分析和编程技能呢?》时,我从未想到它会对读者产生如此积极的影响。那些想要开始探索编程和数据科学领域的人向我寻求建议;还有一些人问我下一篇文章的发布日期;还有许多人询问如何顺利过渡到这个职业。我非常鼓励大家继续分享我在这个旅程的经验,学习,成功和失败,以帮助尽可能多的人过渡到一个充满无数好处和机会的职业生涯。亲爱的读者,谢谢你。 -罗伯特。 ...
活到老,学到老,程序员也该如此
全文共2763字,预计学习时长8分钟 图片来源:Pixabay 此前,“网传阿里巴巴要求尽快实现P8全员35周岁以内”的消息闹得沸沸扬扬。虽然很快被阿里辟谣,但苍蝇不叮无缝的蛋,无蜜不招彩蝶蜂。消息从何而来?真相究竟怎样?我们无从而知。我们只知道一个事实:不知从何时开始,程序猿也被划在了“吃青春饭”行业之列。 饱受“996ICU”摧残后,好不容易“头秃了变强了”,即将步入为“高...
Vue快速实现通用表单验证
本文开篇第一句话,想引用鲁迅先生《祝福》里的一句话,那便是:“我真傻,真的,我单单知道后端整天都是CRUD,我没想到前端整天都是Form表单”。这句话要从哪里说起呢?大概要从最近半个月的“全栈工程师”说起。项目上需要做一个城市配载的功能,顾名思义,就是通过框选和拖拽的方式在地图上完成配载。博主选择了前后端分离的方式,在这个过程中发现:首先,只要有依赖jQuery的组件,譬如Kendoui,即使使用...
2019年Spring Boot面试都问了什么?快看看这22道面试题!
Spring Boot 面试题 1、什么是 Spring Boot? 2、Spring Boot 有哪些优点? 3、什么是 JavaConfig? 4、如何重新加载 Spring Boot 上的更改,而无需重新启动服务器? 5、Spring Boot 中的监视器是什么? 6、如何在 Spring Boot 中禁用 Actuator 端点安全性? 7、如何在自定义端口上运行 Sprin...
【图解】记一次手撕算法面试:字节跳动的面试官把我四连击了
字节跳动这家公司,应该是所有秋招的公司中,对算法最重视的一个了,每次面试基本都会让你手撕算法,今天这篇文章就记录下当时被问到的几个算法题,并且每个算法题我都详细着给出了最优解,下面再现当时的面试场景。看完一定让你有所收获 一、小牛试刀:有效括号 大部分情况下,面试官都会问一个不怎么难的问题,不过你千万别太开心,因为这道题往往可以拓展出更多有难度的问题,或者一道题看起来很简单,但是给出最优解,确实很...
关于裁员几点看法及建议
最近网易裁员事件引起广泛关注,昨天网易针对此事,也发了声明,到底谁对谁错,孰是孰非?我们作为吃瓜观众实在是知之甚少,所以不敢妄下定论。身处软件开发这个行业,近一两年来,对...
面试官:关于Java性能优化,你有什么技巧
通过使用一些辅助性工具来找到程序中的瓶颈,然后就可以对瓶颈部分的代码进行优化。 一般有两种方案:即优化代码或更改设计方法。我们一般会选择后者,因为不去调用以下代码要比调用一些优化的代码更能提高程序的性能。而一个设计良好的程序能够精简代码,从而提高性能。 下面将提供一些在JAVA程序的设计和编码中,为了能够提高JAVA程序的性能,而经常采用的一些方法和技巧。 1.对象的生成和大小的调整。 J...
【图解算法面试】记一次面试:说说游戏中的敏感词过滤是如何实现的?
版权声明:本文为苦逼的码农原创。未经同意禁止任何形式转载,特别是那些复制粘贴到别的平台的,否则,必定追究。欢迎大家多多转发,谢谢。 小秋今天去面试了,面试官问了一个与敏感词过滤算法相关的问题,然而小秋对敏感词过滤算法一点也没听说过。于是,有了下下事情的发生… 面试官开怼 面试官:玩过王者荣耀吧?了解过敏感词过滤吗?,例如在游戏里,如果我们发送“你在干嘛?麻痹演员啊你?”,由于“麻痹”是一个敏感词,...
程序员需要了解的硬核知识之汇编语言(一)
之前的系列文章从 CPU 和内存方面简单介绍了一下汇编语言,但是还没有系统的了解一下汇编语言,汇编语言作为第二代计算机语言,会用一些容易理解和记忆的字母,单词来代替一个特定的指令,作为高级编程语言的基础,有必要系统的了解一下汇编语言,那么本篇文章希望大家跟我一起来了解一下汇编语言。 汇编语言和本地代码 我们在之前的文章中探讨过,计算机 CPU 只能运行本地代码(机器语言)程序,用 C 语言等高级语...
GitHub 标星 1.6w+,我发现了一个宝藏项目,作为编程新手有福了!
大家好,我是 Rocky0429,一个最近老在 GitHub 上闲逛的蒟蒻… 特别惭愧的是,虽然我很早就知道 GitHub,但是学会逛 GitHub 的时间特别晚。当时一方面是因为菜,看着这种全是英文的东西难受,不知道该怎么去玩,另一方面是一直在搞 ACM,没有做一些工程类的项目,所以想当然的以为和 GitHub 也没什么关系(当然这种想法是错误的)。 后来自己花了一个星期看完了 Pyt...
java知识体系整理,学会了,月入过万不是梦
欢迎关注个人公众号:程序猿学社 前言: 一转眼,工作4年了,正式写博客也有一年多了,之前就有整理和总结的习惯,只是都记录在有道云,感觉知识点都是很凌乱,花时间系统整理下,该文会一直同步更新,有不足之处,希望各位同行指正,既然,选择做技术这行,就得有分享的精神,而不是抱着别人会超过你的心理。希望各位博友们互相交流,互相进步。 目录 java系统学习 小白也能...
2020年去一线大厂面试先过SSM框架源码这一关!
SSM框架介绍 (1)持久层(Mybatis):Dao层(mapper) DAO层:DAO层主要是做数据持久层的工作,负责与数据库进行联络的一些任务都封装在此。 DAO层的设计首先是设计DAO的接口。 然后在Spring的配置文件中定义此接口的实现类。 然后就可在模块中调用此接口来进行数据业务的处理,而不用关心此接口的具体实现类是哪个类,显得结构非常清晰。 DAO层的数据源配置,以及有...
教你一键快速生成后台代码,这样和测试小姐姐聊天的时间又多了
教你一键快速生成后台代码,咋们作为开发人员,应该把时间精力放在业务逻辑的实现上面。
Java程序员必备基础:内部类解析
前言 整理了一下内部类的相关知识,算是比较全,比较基础的,希望大家一起学习进步。 一、什么是内部类? 在Java中,可以将一个类的定义放在另外一个类的定义内部,这就是内部类。内部类本身就是类的一个属性,与其他属性 定义方式一致。 一个内部类的例子: public class Outer { private int radius = 1; public static int co...
相关热词 c# id读写器 c#俄罗斯方块源码 c# linq原理 c# 装箱有什么用 c#集合 复制 c# 一个字符串分组 c++和c#哪个就业率高 c# 批量动态创建控件 c# 模块和程序集的区别 c# gmap 截图
立即提问