nlp = spacy.blank("en") 这条语句是什么含义,为什么要用这条语句呢

在Python中这条语句的含义是什么呢,为什么要用这条语句呢?

import spacy
nlp = spacy.blank("en")

1个回答

创建一个空的模型,en表示是英文的模型。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
使用gesim.downloader.load()加载数据集出现URLError
使用gesim.downloader.load()加载数据集出现URLError,入门小白,求大佬指示 代码: ``` import gensim.downloader as api model = api.load("glove-twitter-25") ``` 报错情况: ``` E:\Anaconda\lib\site-packages\gensim\utils.py:1197: UserWarning: detected Windows; aliasing chunkize to chunkize_serial warnings.warn("detected Windows; aliasing chunkize to chunkize_serial") Traceback (most recent call last): File "E:\Anaconda\lib\urllib\request.py", line 1317, in do_open encode_chunked=req.has_header('Transfer-encoding')) File "E:\Anaconda\lib\http\client.py", line 1229, in request self._send_request(method, url, body, headers, encode_chunked) File "E:\Anaconda\lib\http\client.py", line 1275, in _send_request self.endheaders(body, encode_chunked=encode_chunked) File "E:\Anaconda\lib\http\client.py", line 1224, in endheaders self._send_output(message_body, encode_chunked=encode_chunked) File "E:\Anaconda\lib\http\client.py", line 1016, in _send_output self.send(msg) File "E:\Anaconda\lib\http\client.py", line 956, in send self.connect() File "E:\Anaconda\lib\http\client.py", line 1384, in connect super().connect() File "E:\Anaconda\lib\http\client.py", line 928, in connect (self.host,self.port), self.timeout, self.source_address) File "E:\Anaconda\lib\socket.py", line 707, in create_connection for res in getaddrinfo(host, port, 0, SOCK_STREAM): File "E:\Anaconda\lib\socket.py", line 748, in getaddrinfo for res in _socket.getaddrinfo(host, port, family, type, proto, flags): socket.gaierror: [Errno 11004] getaddrinfo failed During handling of the above exception, another exception occurred: Traceback (most recent call last): File "C:/Users/lenovo/Desktop/NLP/test.py", line 113, in <module> model = api.load("glove-twitter-25") File "E:\Anaconda\lib\site-packages\gensim\downloader.py", line 411, in load _download(name) File "E:\Anaconda\lib\site-packages\gensim\downloader.py", line 287, in _download urllib.urlretrieve(url_load_file, init_path) File "E:\Anaconda\lib\urllib\request.py", line 247, in urlretrieve with contextlib.closing(urlopen(url, data)) as fp: File "E:\Anaconda\lib\urllib\request.py", line 222, in urlopen return opener.open(url, data, timeout) File "E:\Anaconda\lib\urllib\request.py", line 531, in open response = meth(req, response) File "E:\Anaconda\lib\urllib\request.py", line 641, in http_response 'http', request, response, code, msg, hdrs) File "E:\Anaconda\lib\urllib\request.py", line 563, in error result = self._call_chain(*args) File "E:\Anaconda\lib\urllib\request.py", line 503, in _call_chain result = func(*args) File "E:\Anaconda\lib\urllib\request.py", line 755, in http_error_302 return self.parent.open(new, timeout=req.timeout) File "E:\Anaconda\lib\urllib\request.py", line 525, in open response = self._open(req, data) File "E:\Anaconda\lib\urllib\request.py", line 543, in _open '_open', req) File "E:\Anaconda\lib\urllib\request.py", line 503, in _call_chain result = func(*args) File "E:\Anaconda\lib\urllib\request.py", line 1360, in https_open context=self._context, check_hostname=self._check_hostname) File "E:\Anaconda\lib\urllib\request.py", line 1319, in do_open raise URLError(err) urllib.error.URLError: <urlopen error [Errno 11004] getaddrinfo failed> ```
跪求各位大侠帮忙解决LDA代码问题,小妹感激不尽!
我在网上找到了yangliuy提供的LDA Gibbs Sampling 的JAVA实现源码,但它是针对英文文档的。我在他的基础上,把英文文档换成已经分词的中文文档,并把停用词换成中文的,但运行时老是有问题。 **LdaGibbsSampling代码如下:** package liuyang.nlp.lda.main; import java.io.File; import java.io.IOException; import java.util.ArrayList; import liuyang.nlp.lda.com.FileUtil; import liuyang.nlp.lda.conf.ConstantConfig; import liuyang.nlp.lda.conf.PathConfig; /**Liu Yang's implementation of Gibbs Sampling of LDA * @author yangliu * @blog http://blog.csdn.net/yangliuy * @mail yangliuyx@gmail.com */ public class LdaGibbsSampling { public static class modelparameters { float alpha = 0.5f; //usual value is 50 / K float beta = 0.1f;//usual value is 0.1 int topicNum = 100; int iteration = 100; int saveStep = 10; int beginSaveIters = 50; } /**Get parameters from configuring file. If the * configuring file has value in it, use the value. * Else the default value in program will be used * @param ldaparameters * @param parameterFile * @return void */ private static void getParametersFromFile(modelparameters ldaparameters, String parameterFile) { // TODO Auto-generated method stub ArrayList<String> paramLines = new ArrayList<String>(); FileUtil.readLines(parameterFile, paramLines); for(String line : paramLines){ String[] lineParts = line.split("\t"); switch(parameters.valueOf(lineParts[0])){ case alpha: ldaparameters.alpha = Float.valueOf(lineParts[1]); break; case beta: ldaparameters.beta = Float.valueOf(lineParts[1]); break; case topicNum: ldaparameters.topicNum = Integer.valueOf(lineParts[1]); break; case iteration: ldaparameters.iteration = Integer.valueOf(lineParts[1]); break; case saveStep: ldaparameters.saveStep = Integer.valueOf(lineParts[1]); break; case beginSaveIters: ldaparameters.beginSaveIters = Integer.valueOf(lineParts[1]); break; } } } public enum parameters{ alpha, beta, topicNum, iteration, saveStep, beginSaveIters; } /** * @param args * @throws IOException */ public static void main(String[] args) throws IOException { // TODO Auto-generated method stub String originalDocsPath = PathConfig.ldaDocsPath; String resultPath = PathConfig.LdaResultsPath; String parameterFile= ConstantConfig.LDAPARAMETERFILE; modelparameters ldaparameters = new modelparameters(); getParametersFromFile(ldaparameters, parameterFile); Documents docSet = new Documents(); docSet.readDocs(originalDocsPath); System.out.println("wordMap size " + docSet.termToIndexMap.size()); FileUtil.mkdir(new File(resultPath)); LdaModel model = new LdaModel(ldaparameters); System.out.println("1 Initialize the model ..."); model.initializeModel(docSet); System.out.println("2 Learning and Saving the model ..."); model.inferenceModel(docSet); System.out.println("3 Output the final model ..."); model.saveIteratedModel(ldaparameters.iteration, docSet); System.out.println("Done!"); } } **Documents代码如下:** package liuyang.nlp.lda.main; import java.io.File; import java.util.ArrayList; import java.util.HashMap; import java.util.Map; import java.util.regex.Matcher; import java.util.regex.Pattern; import liuyang.nlp.lda.com.FileUtil; import liuyang.nlp.lda.com.Stopwords; /**Class for corpus which consists of M documents * @author yangliu * @blog http://blog.csdn.net/yangliuy * @mail yangliuyx@gmail.com */ public class Documents { ArrayList<Document> docs; Map<String, Integer> termToIndexMap; ArrayList<String> indexToTermMap; Map<String,Integer> termCountMap; public Documents(){ docs = new ArrayList<Document>(); termToIndexMap = new HashMap<String, Integer>(); indexToTermMap = new ArrayList<String>(); termCountMap = new HashMap<String, Integer>(); } public void readDocs(String docsPath){ for(File docFile : new File(docsPath).listFiles()){ Document doc = new Document(docFile.getAbsolutePath(), termToIndexMap, indexToTermMap, termCountMap); docs.add(doc); } } public static class Document { private String docName; int[] docWords; public Document(String docName, Map<String, Integer> termToIndexMap, ArrayList<String> indexToTermMap, Map<String, Integer> termCountMap){ this.docName = docName; //Read file and initialize word index array ArrayList<String> docLines = new ArrayList<String>(); ArrayList<String> words = new ArrayList<String>(); FileUtil.readLines(docName, docLines); for(String line : docLines){ FileUtil.tokenizeAndLowerCase(line, words); } //Remove stop words and noise words for(int i = 0; i < words.size(); i++){ if(Stopwords.isStopword(words.get(i)) || isNoiseWord(words.get(i))){ words.remove(i); i--; } } //Transfer word to index this.docWords = new int[words.size()]; for(int i = 0; i < words.size(); i++){ String word = words.get(i); if(!termToIndexMap.containsKey(word)){ int newIndex = termToIndexMap.size(); termToIndexMap.put(word, newIndex); indexToTermMap.add(word); termCountMap.put(word, new Integer(1)); docWords[i] = newIndex; } else { docWords[i] = termToIndexMap.get(word); termCountMap.put(word, termCountMap.get(word) + 1); } } words.clear(); } public boolean isNoiseWord(String string) { // TODO Auto-generated method stub string = string.toLowerCase().trim(); Pattern MY_PATTERN = Pattern.compile(".*[a-zA-Z]+.*"); Matcher m = MY_PATTERN.matcher(string); // filter @xxx and URL if(string.matches(".*www\\..*") || string.matches(".*\\.com.*") || string.matches(".*http:.*") ) return true; if (!m.matches()) { return true; } else return false; } } } **FileUtil代码如下:** package liuyang.nlp.lda.com; import java.util.*; import java.util.regex.Matcher; import java.util.regex.Pattern; import java.io.*; public class FileUtil { public static void readLines(String file, ArrayList<String> lines) { BufferedReader reader = null; try { reader = new BufferedReader(new FileReader(new File(file))); String line = null; while ((line = reader.readLine()) != null) { lines.add(line); } } catch (FileNotFoundException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } finally { if (reader != null) { try { reader.close(); } catch (IOException e) { e.printStackTrace(); } } } } public static void writeLines(String file, HashMap<?, ?> hashMap) { BufferedWriter writer = null; try { writer = new BufferedWriter(new FileWriter(new File(file))); Set<?> s = hashMap.entrySet(); Iterator<?> it = s.iterator(); while (it.hasNext()) { Map.Entry m = (Map.Entry) it.next(); writer.write(m.getKey() + "\t" + m.getValue() + "\n"); } } catch (Exception e) { e.printStackTrace(); } finally { if (writer != null) { try { writer.close(); } catch (IOException e) { e.printStackTrace(); } } } } public static void writeLines(String file, ArrayList<?> counts) { BufferedWriter writer = null; try { writer = new BufferedWriter(new FileWriter(new File(file))); for (int i = 0; i < counts.size(); i++) { writer.write(counts.get(i) + "\n"); } } catch (FileNotFoundException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } finally { if (writer != null) { try { writer.close(); } catch (IOException e) { e.printStackTrace(); } } } } public static void writeLines(String file, ArrayList<String> uniWordMap, ArrayList<Integer> uniWordMapCounts) { BufferedWriter writer = null; try { writer = new BufferedWriter(new FileWriter(new File(file))); for (int i = 0; i < uniWordMap.size() || i < uniWordMapCounts.size(); i++) { writer.write(uniWordMap.get(i) + "\t" + uniWordMapCounts.get(i) + "\n"); } } catch (FileNotFoundException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } finally { if (writer != null) { try { writer.close(); } catch (IOException e) { e.printStackTrace(); } } } } @SuppressWarnings("unchecked") public static void writeLinesSorted(String file, ArrayList<?> uniWordMap, ArrayList<?> uniWordMapCounts, int flag) { // flag = 0 decreasing order otherwise increasing HashMap map = new HashMap(); if (uniWordMap.size() != uniWordMapCounts.size()) { System.err.println("Array sizes are not equal!!! Function returned."); } else { for (int i = 0; i < uniWordMap.size(); i++) { map.put(uniWordMap.get(i), uniWordMapCounts.get(i)); } map = (HashMap<String, Integer>) ComUtil.sortByValue(map, flag); writeLines(file, map); map.clear(); } } public static void tokenize(String line, ArrayList<String> tokens) { StringTokenizer strTok = new StringTokenizer(line); while (strTok.hasMoreTokens()) { String token = strTok.nextToken(); tokens.add(token); } } public static void print(ArrayList<?> tokens) { for (int i = 0; i < tokens.size(); i++) { System.out.print(tokens.get(i) + " "); } System.out.print("\n"); } // HashMap Operations public static void printHash(HashMap<String, Integer> hashMap) { Set<?> s = hashMap.entrySet(); Iterator<?> it = s.iterator(); while (it.hasNext()) { Map.Entry m = (Map.Entry) it.next(); System.out.println(m.getKey() + "\t" + m.getValue()); } } public static ArrayList<String> getHashMap(HashMap<?, ?> hm) { ArrayList<String> a = new ArrayList<String>(); Set<?> s = hm.entrySet(); Iterator<?> it = s.iterator(); while (it.hasNext()) { Map.Entry m = (Map.Entry) it.next(); a.add(m.getKey() + "\t" + m.getValue()); } return a; } public static String getKeysFromValue(HashMap<Integer, String> hm, String value) { Set<?> s = hm.entrySet(); // Move next key and value of HashMap by iterator Iterator<?> it = s.iterator(); while (it.hasNext()) { // key=value separator this by Map.Entry to get key and value Map.Entry m = (Map.Entry) it.next(); if (m.getValue().equals(value)) return m.getKey() + ""; } System.err.println("Error, can't find the data in Hashmap!"); return null; } public static void readHash(String type_map, HashMap<String, String> typeMap) { ArrayList<String> types = new ArrayList<String>(); ArrayList<String> tokens = new ArrayList<String>(); if (type_map != null) { readLines(type_map, types); for (int i = 0; i < types.size(); i++) { if (!types.get(i).isEmpty()) { FileUtil.tokenize(types.get(i), tokens); if (tokens.size() != 0) { if (tokens.size() != 2) { for (int j = 0; j < tokens.size(); j++) { System.out.print(tokens.get(j) + " "); } System.err .println(type_map + " Error ! Not two elements in one line !"); return; } if (!typeMap.containsKey(tokens.get(0))) typeMap.put(tokens.get(0), tokens.get(1)); else { System.out.println(tokens.get(0) + " " + tokens.get(1)); System.err.println(type_map + " Error ! Same type in first column !"); return; } } tokens.clear(); } } } } public static void readHash2(String type_map, HashMap<String, Integer> hashMap) { ArrayList<String> types = new ArrayList<String>(); ArrayList<String> tokens = new ArrayList<String>(); if (type_map != null) { readLines(type_map, types); for (int i = 0; i < types.size(); i++) { if (!types.get(i).isEmpty()) { FileUtil.tokenize(types.get(i), tokens); if (tokens.size() != 0) { if (tokens.size() != 2) { for (int j = 0; j < tokens.size(); j++) { System.out.print(tokens.get(j) + " "); } System.err .println(type_map + " Error ! Not two elements in one line !"); return; } if (!hashMap.containsKey(tokens.get(0))) hashMap.put(tokens.get(0), new Integer(tokens.get(1))); else { System.out.println(tokens.get(0) + " " + tokens.get(1)); System.err.println(type_map + " Error ! Same type in first column !"); return; } } tokens.clear(); } } } } public static void readHash3(String type_map, HashMap<String, Integer> hashMap) { ArrayList<String> types = new ArrayList<String>(); ArrayList<String> tokens = new ArrayList<String>(); if (type_map != null) { readLines(type_map, types); for (int i = 0; i < types.size(); i++) { if (!types.get(i).isEmpty()) { FileUtil.tokenize(types.get(i), tokens); if (tokens.size() != 0) { if (tokens.size() < 2) { for (int j = 0; j < tokens.size(); j++) { System.out.print(tokens.get(j) + " "); } System.err .println(type_map + " Error ! Not two elements in one line !"); return; } String key = tokens.get(0); String value = tokens.get(tokens.size() - 1); for (int no = 1; no < tokens.size() - 1; no++) { key += " " + tokens.get(no); } if (!hashMap.containsKey(key)) hashMap.put(key, new Integer(value)); else { System.out.println(key + " " + value); System.err.println(type_map + " Error ! Same type in first column !"); return; } } tokens.clear(); } } } } /** * Create a directory by calling mkdir(); * * @param dirFile */ public static void mkdir(File dirFile) { try { // File dirFile = new File(mkdirName); boolean bFile = dirFile.exists(); if (bFile == true) { System.err.println("The folder exists."); } else { System.err .println("The folder do not exist,now trying to create a one..."); bFile = dirFile.mkdir(); if (bFile == true) { System.out.println("Create successfully!"); } else { System.err .println("Disable to make the folder,please check the disk is full or not."); } } } catch (Exception err) { System.err.println("ELS - Chart : unexpected error"); err.printStackTrace(); } } public static void mkdir(File file, boolean b) { if(b) {// true delete first deleteDirectory(file); mkdir(file); } else { mkdir(file); } } /** * * @param path * @return */ static public boolean deleteDirectory(File path) { if (path.exists()) { File[] files = path.listFiles(); for (int i = 0; i < files.length; i++) { if (files[i].isDirectory()) { deleteDirectory(files[i]); } else { files[i].delete(); } } } return (path.delete()); } /** * List files in a given directory * * */ static public String[] listFiles(String inputdir) { File dir = new File(inputdir); String[] children = dir.list(); if (children == null) { // Either dir does not exist or is not a directory } else { for (int i = 0; i < children.length; i++) { // Get filename of file or directory String filename = children[i]; } } return children; } /** * List files in a given directory * * */ static public String[] listFilteredFiles(String inputdir, final String filterCondition) { File dir = new File(inputdir); String[] children = dir.list(); // It is also possible to filter the list of returned files. // This example does not return any files that start with `.'. FilenameFilter filter = new FilenameFilter() { public boolean accept(File dir, String name) { return name.endsWith(filterCondition); } }; children = dir.list(filter); return children; } /** * List files recursively in a given directory * * */ static public void listFilesR() { File dir = new File("directoryName"); String[] children = dir.list(); // The list of files can also be retrieved as File objects File[] files = dir.listFiles(); // This filter only returns directories FileFilter fileFilter = new FileFilter() { public boolean accept(File file) { return file.isDirectory(); } }; files = dir.listFiles(fileFilter); } /** * Frequently used functions * */ static public int count(String a, String contains) { int i = 0; int count = 0; while (a.contains(contains)) { i = a.indexOf(contains); a = a.substring(0, i) + a.substring(i + contains.length(), a.length()); count++; } return count; } public static void print(String[] files) { for (int i = 0; i < files.length; i++) { System.out.print(files[i] + " "); } System.out.print("\n"); } public static void print(int[] c1) { for (int i = 0; i < c1.length; i++) { System.out.print(c1[i] + " "); } System.out.println(); } public static void test() { String a = "fdsfdsaf"; a += "\nfdsaf fd fd"; a += "\nfd sf fd fd\n"; System.out.println(a); a = a.replaceAll("\n+", " "); System.out.println(a); System.exit(0); } public static void readHash(String type_map, HashMap<String, String> typeMap, boolean flag) { ArrayList<String> types = new ArrayList<String>(); ArrayList<String> tokens = new ArrayList<String>(); if(type_map != null) { readLines(type_map, types); for (int i = 0; i < types.size(); i++) { if (!types.get(i).isEmpty()) { FileUtil.tokenize(types.get(i), tokens); if(tokens.size() != 0) { if (tokens.size() != 2) { for(int j = 0; j < tokens.size(); j++) { System.out.print(tokens.get(j)+" "); } System.err .println(type_map + " Error ! Not two elements in one line !"); return; } String tokens0 = ""; String tokens1 = ""; if(flag) { tokens0 = tokens.get(0).trim(); tokens1 = tokens.get(1).trim(); } else { tokens0 = tokens.get(1).trim(); tokens1 = tokens.get(0).trim(); } if (!typeMap.containsKey(tokens0)) typeMap.put(tokens0, tokens1); else { System.err.println(tokens0 + " " + tokens1); System.err .println(type_map + " Ignore this one ! Same type in first column !"); } } tokens.clear(); } } } } public static String filter4tokenization(String inputstring) { // inputstring = "fds fds Won't won't can't Can't ain't"; // aggregate common tokenization error inputstring = inputstring.replaceAll("(?i)won't", "will not"); inputstring = inputstring.replaceAll("(?i)can't", "can not"); inputstring = inputstring.replaceAll("(?i)shan't", "shall not"); inputstring = inputstring.replaceAll("(?i)ain't", "am not"); return inputstring; } public static void tokenizeAndLowerCase(String line, ArrayList<String> tokens) { // TODO Auto-generated method stub StringTokenizer strTok = new StringTokenizer(line); while (strTok.hasMoreTokens()) { String token = strTok.nextToken(); tokens.add(token.toLowerCase().trim()); } } } 运行结果显示:The folder exists. wordMap size 0 1 Initialize the model ... 2 Learning and Saving the model ... Iteration 0 Iteration 1 Iteration 2 Saving model at iteration 80 ... Exception in thread "main" java.lang.IndexOutOfBoundsException: Index: 0, Size: 0 at java.util.ArrayList.rangeCheck(ArrayList.java:604) at java.util.ArrayList.get(ArrayList.java:382) at liuyang.nlp.lda.main.LdaModel.saveIteratedModel(LdaModel.java:228) at liuyang.nlp.lda.main.LdaModel.inferenceModel(LdaModel.java:102) at liuyang.nlp.lda.main.LdaGibbsSampling.main(LdaGibbsSampling.java:89)。 请问是什么原因呢?
各位大神求帮忙,java编的语料标注方面的程序初学看不懂求解释,自己一些注释忽略就好,多谢多谢!!
public EventCorpusEditFrame() { keyWords.add("出发"); keyWords.add("开出"); keyWords.add("驶出"); keyWords.add("到达"); keyWords.add("到"); keyWords.add("抵达"); keyWords.add("求"); initComponents(); pack(); } private void initComponents() { // TODO Auto-generated method stub jMenuBar1 = new javax.swing.JMenuBar(); jMenu1 = new javax.swing.JMenu(); loadDataItem = new javax.swing.JMenuItem(); saveFileItem = new javax.swing.JMenuItem(); jSeparator1 = new javax.swing.JSeparator(); exitItem = new javax.swing.JMenuItem(); new javax.swing.JMenu(); new javax.swing.JCheckBoxMenuItem(); setTitle("Parser"); addWindowListener(new java.awt.event.WindowAdapter() { @Override public void windowClosing(java.awt.event.WindowEvent evt) { exitForm(evt); } }); jMenu1.setText("File"); loadDataItem.setAccelerator(javax.swing.KeyStroke.getKeyStroke( java.awt.event.KeyEvent.VK_O, java.awt.event.InputEvent.ALT_MASK)); loadDataItem.setMnemonic('o'); loadDataItem.setText("Load File"); loadDataItem.setToolTipText("Load a data file."); loadDataItem.addActionListener(new java.awt.event.ActionListener() { public void actionPerformed(java.awt.event.ActionEvent evt) { loadFileItemActionPerformed(evt); } }); jMenu1.add(loadDataItem); saveFileItem.setText("Save File"); saveFileItem.addActionListener(new java.awt.event.ActionListener() { public void actionPerformed(java.awt.event.ActionEvent evt) { SaveFileItemActionPerformed(evt); } }); jMenu1.add(saveFileItem); jMenu1.add(jSeparator1); exitItem.setAccelerator(javax.swing.KeyStroke.getKeyStroke( java.awt.event.KeyEvent.VK_X, java.awt.event.InputEvent.ALT_MASK)); exitItem.setMnemonic('x'); exitItem.setText("Exit"); exitItem.setToolTipText("Exits the program."); exitItem.addActionListener(new java.awt.event.ActionListener() { public void actionPerformed(java.awt.event.ActionEvent evt) { exitItemActionPerformed(evt); } }); jMenu1.add(exitItem); jMenuBar1.add(jMenu1); setJMenuBar(jMenuBar1); panel = new Panel(); initPanels(); getContentPane().add("Center", panel); pack(); }// GEN-END:initComponents protected void SaveFileItemActionPerformed(ActionEvent evt) { // TODO Auto-generated method stub } protected void loadFileItemActionPerformed(ActionEvent evt) { // TODO Auto-generated method stub } private void exitItemActionPerformed(java.awt.event.ActionEvent evt)// GEN-FIRST:event_exitItemActionPerformed {// GEN-HEADEREND:event_exitItemActionPerformed exitForm(null); }// GEN-LAST:event_exitItemActionPerformed /** * Exit the Application */ private void exitForm(java.awt.event.WindowEvent evt) {// GEN-FIRST:event_exitForm System.exit(0); }// GEN-LAST:event_exitForm /** * @param args * the command line arguments */ public static void main(String args[]) { ecef = new EventCorpusEditFrame(); // ecef.setSize(new Dimension(1000,800)); double width = Toolkit.getDefaultToolkit().getScreenSize().width; //得到当前屏幕分辨率的高 double height = Toolkit.getDefaultToolkit().getScreenSize().height; //得到当前屏幕分辨率的宽 ecef.setSize((int)width,(int)height); //设置大小 ecef.setLocation(0,0); //设置窗体居中显示 ecef.setVisible(true); } private void initPanels()// GEN-BEGIN:initComponents { directoryTextField = new javax.swing.JTextField(15); directoryTextField.setText("F:/event-extract/result"); senteneList = new javax.swing.JTable(250,3); senteneList.setAutoResizeMode(JTable.AUTO_RESIZE_OFF); TableColumn column = senteneList.getColumnModel().getColumn(0); //0是代表的第一列 column.setPreferredWidth(30); //这个是设置列的宽度 column = senteneList.getColumnModel().getColumn(1); //0是代表的第一列 column.setPreferredWidth(10); //这个是设置列的宽度 column = senteneList.getColumnModel().getColumn(2); //0是代表的第一列 column.setPreferredWidth(200); //这个是设置列的宽度 // senteneList.setVisibleRowCount(5); JScrollPane senteneListScrollPane = new javax.swing.JScrollPane(senteneList); senteneListScrollPane.setViewportView(senteneList); senteneListScrollPane.setVerticalScrollBarPolicy(ScrollPaneConstants.VERTICAL_SCROLLBAR_ALWAYS); sourceFile= new javax.swing.JTextPane(); sourceFile.setEditable(false); JButton OKButton = new javax.swing.JButton(); OKButton.setText("确定"); OKButton.addActionListener(new java.awt.event.ActionListener() { public void actionPerformed(java.awt.event.ActionEvent evt) { if (directoryTextField.getText().length() > 0) directory = directoryTextField.getText(); LinkedList<File> fileLists = (LinkedList<File>) FileUtils .listFiles(new File(directory), new String[] { "xml" }, false); int rowIndex=0; for (File f : fileLists) { try { SAXReader sax = new SAXReader(); Document doc = sax.read(f); List<DefaultElement> d = (List<DefaultElement>) doc.selectNodes("xml4nlp/doc"); if(d.get(0).attribute("isEdited")!=null&&d.get(0).attributeValue("isEdited").equalsIgnoreCase("y")) { senteneList.getModel().setValueAt("√", rowIndex,1 ); } }catch (Exception e) { // TODO Auto-generated catch block e.printStackTrace(); } senteneList.getModel().setValueAt(rowIndex, rowIndex,0 ); senteneList.getModel().setValueAt(f.getName(), rowIndex,2 ); rowIndex++; } } }); senteneList.getSelectionModel().addListSelectionListener(new ListSelectionListener(){ @Override public void valueChanged(ListSelectionEvent e) { // TODO Auto-generated method stub if (senteneList.getSelectedRow() >= 0&&senteneList.getSelectedRow()!=currentRow) { try { eventID=0; //每次更改xml文件都对事件id重新编号 currentRow = senteneList.getSelectedRow(); currentFilePath = directory + "/"+ senteneList.getModel().getValueAt(senteneList.getSelectedRow(),2); getSourceFile().setText(FileUtils.readFileToString( new File(currentFilePath),"UTF8")); // List<String> lines = FileUtils.readLines( // new File(currentFilePath),"UTF8"); // cont = lines.get(3); // if(cont.indexOf("cont=\"")==-1) // cont = lines.get(4); // cont = cont.substring(cont.indexOf("cont=\"") + 6, // cont.indexOf(">") - 1); SAXReader sax = new SAXReader(); document = sax.read(new File(currentFilePath)); List<DefaultElement> doc = (List<DefaultElement>) document.selectNodes("xml4nlp/doc"); if(doc.get(0).attribute("cont")!=null) { cont = doc.get(0).attributeValue("cont").trim(); content.setText(cont); DecorateKeyWords(content); startMapID.clear(); endMapID.clear(); computePosMap(cont); System.out.println(startMapID); System.out.println(endMapID); } System.out.println(cont); } catch (IOException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } catch (DocumentException e1) { // TODO Auto-generated catch block e1.printStackTrace(); } } } });
zeromq 服务端多线程在数据量大一点的情况下出现问题,跪求大神解答
zeromq 服务端开启了20个线程,客服端会发送6000个请求过来; 在处理1000个请求的时候,速度很快,一口气就跑完了, 在处理一千到三千的请求的时候,中间总是停一会,跑一会, 到了三千以后停的时间越来越长,到四千左右就不动了. 有时候会报"gc开销过大",调了gc之后.还是没有多大的作用, 但是呢:当我把服务端的线程只开启一个的时候,就能顺利跑完, 下面是服务端的代码 ``` /** * 多线程 NLP 服务器 */ public class mtserver { /*默认为20个NLP线程*/ static Integer WORKERNUM = 20; private static class HeronlpWorker extends Thread { private ZContext context; private MyUncaughtExceptionhandler myUncaughtException; public void setMyUncaughtException(MyUncaughtExceptionhandler myUncaughtException) { this.myUncaughtException = myUncaughtException; } private HeronlpWorker(ZContext context) { this.context = context; } @Override public void run() { Socket socket = context.createSocket(SocketType.REP); myUncaughtException.setSkt(socket); socket.connect("inproc://workers"); HeroNLP heroNLP = new HeroNLP(); String result = null; String msgType = ""; while (true) { try { //接收命令 String command = socket.recvStr(0).trim(); System.out.println(Thread.currentThread().getName() + " Received request: [" + command + "]"); String content = null; switch (command){ //分词 case "SEGMENT": content = socket.recvStr(0).trim(); List<Term> terms = NLP.segment(content); result = listToString(terms, " "); break; default: while (socket.hasReceiveMore()){ socket.recvStr(0).trim(); } result = "FAILED: 未匹配到命令!"; break; } } catch (Exception e) { result = "FAILED:" + e.getMessage(); } // 给客户端返回结果(C字符串) System.out.println("是否有异常: " + result.contains("FAILED:")); if(result.contains("FAILED:")){ msgType = "FAILED"; } socket.send(msgType, 2); socket.send(result, 0); } } } public static void main(String[] args) { try (ZContext context = new ZContext()) { //前端--router Socket clients = context.createSocket(SocketType.ROUTER); boolean bind = clients.bind("tcp://*:9002"); //后端--dealer Socket workers = context.createSocket(SocketType.DEALER); workers.bind("inproc://workers"); //后端启动20个服务线程 for (int thread_nbr = 0; thread_nbr < WORKERNUM; thread_nbr++) { Thread nlpworker = new HeronlpWorker(context); MyUncaughtExceptionhandler myUncaughtExceptionhandler = new MyUncaughtExceptionhandler(); ((HeronlpWorker) nlpworker).setMyUncaughtException(myUncaughtExceptionhandler); nlpworker.setUncaughtExceptionHandler(myUncaughtExceptionhandler); nlpworker.start(); } ZMQ.proxy(clients, workers, null); } } ```
如何用NLP把文本的数据结构化提取出来?
如提供N个病历,识别是否有高血压,糖尿病,如何用NLP技术直接生成一个数据集,一行表示一个病人,有高血压就是1,没有就是0
NLP 文本相似度匹配应如何设计流程
本人是nlp小白,目前做评测,对设计流程不是很懂 评测描述: 给出一个txt文本,里面有500个样本 每3个为一组 样本1. A1, B1, C1 样本2. A2, B2, C2 样本3. A3, B3, C3 ... 样本500. A4, B4, C4 给出训练集保证 Similarities(A, B) > Similarities(A, C) A和B 的相似度 > A和B 的相似度 要求训练一个模型 用于测试集 来求出每一列 AB 和 AC 哪个相似度更高 目前baseline是用jieba 对测集进行了处理,然后转换成list 然后将 整个数据集用tfidfvectorizer 训练 tfidf_model = TfidfVectorizer(token_pattern=r"(?u)\b\w+\b").fit(data) 将每一行的A B C 转化成矩阵 a= sparse_result = tfidf_model.transform(A ) b= sparse_result = tfidf_model.transform(B) c= sparse_result = tfidf_model.transform(C ) 分别把 矩阵a 和 b c 相加对比 v1 = np.sum(np.dot(a, np.transpose(b))) v2 = np.sum(np.dot(a, np.transpose(c))) 目前没有什么设计思路 求大神指点!
如何用python对英文文本进行分句?
刚入门nlp,最近需要设计一个文本分句工具,本来以为很简单,但是想了一下需要考虑的问题很多,因为英文的句号容易和小数点,人名地名缩写,省略号等等混淆。尤其在句号前后没有空格的情况下,感觉很难准确判定英文句号处是否需要进行断句。我现在的思路就是列举所有可能的情况(小数点,缩写),对每一个句号的上下文进行检查,用正则表达式判断是否为句号,再进行分句。但是这样做有两个问题:一是可能发生歧义的情况很难列举wan,二是类似于“my age is 13.13 is my age." 这种句子单纯依靠规则很难识别。我之前使用的是nltk的sent__tokenize方法,但是这个工具没有办法处理句号前后无空格的情况。所以想问一下大佬们一般在对文本分句的时候是怎么做的?
python利用jieba分词出现乱码问题,求指教
用一段新闻作分词,先用正则表达式去除标点符号re.sub(r,'',pos_news[0]),其中pos_news[0]是一段新闻。 print 之后是去除标点的一段新闻。 print " ".join(jieba.cut(re.sub(r,'',pos_news[0])))打出来乱码: 涵 閬 涓 婁簡 杩 欎 唤 鐙 壒 鐨 勭 ょ 墿 濞 绀 句 氬 悇 鐣 鍟 璧 蜂 簡 搴 鐑 堢 殑 鍙 但是如果直接print " ".join(jieba.cut(pos_news[0])) 是正常的分词后的新闻 “ 我 经常 和 孩子 们 说 , 要 记住 每 一个 帮助 过 我们 的 人 , 日后 有 能力 了 要 记得 报答 人家 ! ” 走访 结束 后 , 赵继 ( 化名 ) 母亲 的话 依然 在 e 租宝 志愿者 的 耳畔 回绕 。 不知道为什么我去除标点后分词就是乱码。。。NLP小白求指教!
哪位大神可以指教一下叨叨记账应用的底层原理?
关于叨叨记账已知: 1. 从使用经验来看,肯定是有一个众包的语料库 2. 通过关键字来检索语料库进行回复 3. 并非传统意义上的chatbot,一方面,用户无法提问;另一方面,用户的回复并不会激发角色的二次回复 问题:既然没有实现交互,那底层实现需要进行自然语言理解、情感分析或者机器学习吗?仅仅只是关键字匹配然后检索知识库吗?(我只是个刚刚开始研究NLP的小白,如果哪里说错了还请多多指教)
NLP 文本信息提取,跪求各位大佬给个思路。
![图片说明](https://img-ask.csdn.net/upload/201903/20/1553073245_577842.jpg) 如图所示,第一列是商品信息,从里面提取出五维信息:品名,数量,单位,规格,品牌。图里面的结果是利用正则化的想法去做的。 现在先用NLP的一些方法做,没有接触过NLP,跪求各位大佬给个思路。
做NLP的语义正负面判断,能够用CNN网络模型来做吗
做NLP的语义正负面判断,能够用CNN网络模型来做吗 做NLP的语义正负面判断,能够用CNN网络模型来做吗 做NLP的语义正负面判断,能够用CNN网络模型来做吗
NLP文本相似度 余弦相似度和Jaccard相似度的算法
请问各路大神,我刚开始接触NLP,老师让我们自学人类语言的相似性度量 我研究了naive的不加权的余弦相似度和Jaccard相似度 老师要求我们研究他们的算法,由于我算法太渣,知道运算原理但是总结不出算法 请哪位大神能够指点一下,告诉我这两个算法的伪代码怎么弄,谢啦
该文件怎么下载呢???
![图片说明](https://img-ask.csdn.net/upload/201809/27/1538025231_526098.jpg) ## # **下面是网址:https://nlp.stanford.edu/projects/nmt/data
Jar在spark-shell上运行报错:主类找不到
scala IntelliJ的项目,sbt打好包在spark-shell上运行后报错:主类找不到;使用了两个中文分词包(ansj_seg-2.0.8.jar,nlp-lang-0.3.jar),但是已经加入到 External libraries里去了;打包没问题,运行报错 ![![图片说明](https://img-ask.csdn.net/upload/201601/26/1453780626_723163.jpg)![图片说明](https://img-ask.csdn.net/upload/201601/26/1453780648_659305.jpg) spark-shell 提交命令: [gaohui@hadoop-1-2 test]$ spark-submit --master yarn --driver-memory 5G --num-executors 20 --executor-cores 16 --executor-memory 10G --conf spark.serializer=org.apache.spark.serializer.KryoSerializer --class NLP_V6.Nlp_test --jars /home/gaohui/test/NLP_v6_test.jar /home/gaohui/test/NLP_v6_test.jar 报错图片: ![图片说明](https://img-ask.csdn.net/upload/201601/26/1453780776_603750.jpg)
新手用2层LSTM做NLP时遇到一个问题
本来是想把文章输入后,第一层lstm取每个句子的最后作为输出,输入到第二层的LSTM,但是这样一想,每篇文章句子数不一样,是不是要按句子padding,然后每个句子字数也不一样,还要按单词做padding,一下子感觉好蠢。请问有没有简单明了点的方法? 如果用句向量的话,是不是也要按句子padding?目前了解的句向量是相当于这句话的词向量的平均值,这样padding的句向量是一个[embedding size,1]的0矩阵吗?
Stanford NLP或者其他NLP能不能根据文本生成问题,求指教
例如文本是:浣熊体长在42-60厘米之间,它们的脚觉发达,经常用前爪捕食和吃食,使用前爪几乎同猴子一样灵活。 希望生成类似下面的问题: 浣熊体长多少 浣熊怎样捕食 浣熊前爪灵活吗
python的nlp中,有没有给句子的完整性打分的模型?
请问在python中,有没有可以给汉语一句话的完整性(语义通顺)进行处理的,比如打分等
怎样实现对短文本的主题分析?python3实现
NLP新手求问 python3实现对短文本的主题分类,就是文本要匹配的目标主题我已经限定了某几类, 目标是把很多短文本区分出来是属于哪个或者哪几个主题,用LDA主题模型做过,但效果不好,好像是不能限定主题的,所以区分出来的东西都不知道属于哪个主题。 希望能得到的结果是:每个短文本对每个主题都有对应的相关程度,类似于推荐模型的相似度,然后根据需要选取相似程度较高的主题进行归类,不知道能不能实现,望论坛里面能有大神赐教。 由于数据涉及保密性,只需要大神们提供方法思路和实现的python库就好,就此谢过
word2vec以及paragraph vector的原理细节?
大家好,我是刚开始学习NLP这方面的知识,在学CBOW、SKIP-GRAM以及paragraph vector过程中遇到几个不理解的地方,烦请高手指点~~ 1、CBOW中随机初始化的word vec有没有归一化?也就是向量的每个维度的值的范围是?若有归一化(每个值都是-1到1),那么输入层到输出层的求和操作之后,是否还需要进行归一化? 2、大家知道,Mikolov提出的paragraph vec方法就是在CBOW的输入层增加了一个paragraph vec,那请问整个算法过程是:①先用原先CBOW的方法根据整个语料库训练出词典中每个词的向量以及网络中的参数;然后固定所有词向量以及网络参数,选定某个paragraph,在输入层加入随机初始化的paragraph vec,在选定的paragraph中随机选取一个context,将context中的词的vec连同初始化得到的para vec一起输入网络,然后梯度下降来更新para vec直到收敛,这样得到了相应para的vec,继续对下一个para处理。 还是②训练时对于每个para随机初始化一个vec,训练word vec的同时也对para vec进行更新。等整个语料库训练完后,就得到了词典中所有词的vec以及每个para的vec? 3、skip-gram和CBOW的区别。CBOW是用context预测下一个词,比如“this is a paper”,用this is a 预测下一个词会是什么。skip-gram是用一个词来预测它的context,是否可以理解为:把“this is a”当成一个词来预测context(也就是下一个词paper)?skip-gram相比于CBOW有什么优或劣处?实际应用中哪个更常用呢? 在此谢谢您的指导~
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 顺便拉下票,我在参加csdn博客之星竞选,欢迎投票支持,每个QQ或者微信每天都可以投5票,扫二维码即可,http://m234140.nofollow.ax.
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入  假设现有4个人
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 欢迎 改进 留言。 演示地点跳到演示地点 html代码如下`&lt;!DOCTYPE html&gt; &lt;html&gt; &lt;head&gt; &lt;title&gt;music&lt;/title&gt; &lt;meta charset="utf-8"&gt
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。 1. for - else 什么?不是 if 和 else 才
数据库优化 - SQL优化
前面一篇文章从实例的角度进行数据库优化,通过配置一些参数让数据库性能达到最优。但是一些“不好”的SQL也会导致数据库查询变慢,影响业务流程。本文从SQL角度进行数据库优化,提升SQL运行效率。 判断问题SQL 判断SQL是否有问题时可以通过两个表象进行判断: 系统级别表象 CPU消耗严重 IO等待严重 页面响应时间过长
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 c/c++ 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7
通俗易懂地给女朋友讲:线程池的内部原理
餐厅的约会 餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”我楞了一下,心里想女朋友今天是怎么了,怎么突然问出这么专业的问题,但做为一个专业人士在女朋友面前也不能露怯啊,想了一下便说:“我先给你讲讲我前同事老王的故事吧!” 大龄程序员老王 老王是一个已经北漂十多年的程序员,岁数大了,加班加不动了,升迁也无望,于是拿着手里
经典算法(5)杨辉三角
写在前面: 我是 扬帆向海,这个昵称来源于我的名字以及女朋友的名字。我热爱技术、热爱开源、热爱编程。技术是开源的、知识是共享的。 这博客是对自己学习的一点点总结及记录,如果您对 Java、算法 感兴趣,可以关注我的动态,我们一起学习。 用知识改变命运,让我们的家人过上更好的生活。 目录一、杨辉三角的介绍二、杨辉三角的算法思想三、代码实现1.第一种写法2.第二种写法 一、杨辉三角的介绍 百度
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹
面试官:你连RESTful都不知道我怎么敢要你?
面试官:了解RESTful吗? 我:听说过。 面试官:那什么是RESTful? 我:就是用起来很规范,挺好的 面试官:是RESTful挺好的,还是自我感觉挺好的 我:都挺好的。 面试官:… 把门关上。 我:… 要干嘛?先关上再说。 面试官:我说出去把门关上。 我:what ?,夺门而去 文章目录01 前言02 RESTful的来源03 RESTful6大原则1. C-S架构2. 无状态3.统一的接
JDK12 Collectors.teeing 你真的需要了解一下
前言在 Java 12 里面有个非常好用但在官方 JEP 没有公布的功能,因为它只是 Collector 中的一个小改动,它的作用是 merge 两个 collector 的结果,这句话
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看
SQL-小白最佳入门sql查询一
一 说明 如果是初学者,建议去网上寻找安装Mysql的文章安装,以及使用navicat连接数据库,以后的示例基本是使用mysql数据库管理系统; 二 准备前提 需要建立一张学生表,列分别是id,名称,年龄,学生信息;本示例中文章篇幅原因SQL注释略; 建表语句: CREATE TABLE `student` ( `id` int(11) NOT NULL AUTO_INCREMENT, `
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // dosho
【图解经典算法题】如何用一行代码解决约瑟夫环问题
约瑟夫环问题算是很经典的题了,估计大家都听说过,然后我就在一次笔试中遇到了,下面我就用 3 种方法来详细讲解一下这道题,最后一种方法学了之后保证让你可以让你装逼。 问题描述:编号为 1-N 的 N 个士兵围坐在一起形成一个圆圈,从编号为 1 的士兵开始依次报数(1,2,3…这样依次报),数到 m 的 士兵会被杀死出列,之后的士兵再从 1 开始报数。直到最后剩下一士兵,求这个士兵的编号。 1、方
致 Python 初学者
文章目录1. 前言2. 明确学习目标,不急于求成,不好高骛远3. 在开始学习 Python 之前,你需要做一些准备2.1 Python 的各种发行版2.2 安装 Python2.3 选择一款趁手的开发工具3. 习惯使用IDLE,这是学习python最好的方式4. 严格遵从编码规范5. 代码的运行、调试5. 模块管理5.1 同时安装了py2/py35.2 使用Anaconda,或者通过IDE来安装模
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,
程序员:我终于知道post和get的区别
IT界知名的程序员曾说:对于那些月薪三万以下,自称IT工程师的码农们,其实我们从来没有把他们归为我们IT工程师的队伍。他们虽然总是以IT工程师自居,但只是他们一厢情愿罢了。 此话一出,不知激起了多少(码农)程序员的愤怒,却又无可奈何,于是码农问程序员。 码农:你知道get和post请求到底有什么区别? 程序员:你看这篇就知道了。 码农:你月薪三万了? 程序员:嗯。 码农:你是怎么做到的? 程序员:
GitHub标星近1万:只需5秒音源,这个网络就能实时“克隆”你的声音
作者 | Google团队译者 | 凯隐编辑 | Jane出品 | AI科技大本营(ID:rgznai100)本文中,Google 团队提出了一种文本语音合成(text to speech)神经系统,能通过少量样本学习到多个不同说话者(speaker)的语音特征,并合成他们的讲话音频。此外,对于训练时网络没有接触过的说话者,也能在不重新训练的情况下,仅通过未知说话者数秒的音频来合成其讲话音频,即网
《程序人生》系列-这个程序员只用了20行代码就拿了冠军
你知道的越多,你不知道的越多 点赞再看,养成习惯GitHub上已经开源https://github.com/JavaFamily,有一线大厂面试点脑图,欢迎Star和完善 前言 这一期不算《吊打面试官》系列的,所有没前言我直接开始。 絮叨 本来应该是没有这期的,看过我上期的小伙伴应该是知道的嘛,双十一比较忙嘛,要值班又要去帮忙拍摄年会的视频素材,还得搞个程序员一天的Vlog,还要写BU
加快推动区块链技术和产业创新发展,2019可信区块链峰会在京召开
      11月8日,由中国信息通信研究院、中国通信标准化协会、中国互联网协会、可信区块链推进计划联合主办,科技行者协办的2019可信区块链峰会将在北京悠唐皇冠假日酒店开幕。   区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。如果说蒸汽机释放了人类的生产力,电力解决了人类基本的生活需求,互联网彻底改变了信息传递的方式,区块链作为构造信任的技术有重要的价值。   1
程序员把地府后台管理系统做出来了,还有3.0版本!12月7号最新消息:已在开发中有github地址
第一幕:缘起 听说阎王爷要做个生死簿后台管理系统,我们派去了一个程序员…… 996程序员做的梦: 第一场:团队招募 为了应对地府管理危机,阎王打算找“人”开发一套地府后台管理系统,于是就在地府总经办群中发了项目需求。 话说还是中国电信的信号好,地府都是满格,哈哈!!! 经常会有外行朋友问:看某网站做的不错,功能也简单,你帮忙做一下? 而这次,面对这样的需求,这个程序员
网易云6亿用户音乐推荐算法
网易云音乐是音乐爱好者的集聚地,云音乐推荐系统致力于通过 AI 算法的落地,实现用户千人千面的个性化推荐,为用户带来不一样的听歌体验。 本次分享重点介绍 AI 算法在音乐推荐中的应用实践,以及在算法落地过程中遇到的挑战和解决方案。 将从如下两个部分展开: AI 算法在音乐推荐中的应用 音乐场景下的 AI 思考 从 2013 年 4 月正式上线至今,网易云音乐平台持续提供着:乐屏社区、UGC
【技巧总结】位运算装逼指南
位算法的效率有多快我就不说,不信你可以去用 10 亿个数据模拟一下,今天给大家讲一讲位运算的一些经典例子。不过,最重要的不是看懂了这些例子就好,而是要在以后多去运用位运算这些技巧,当然,采用位运算,也是可以装逼的,不信,你往下看。我会从最简单的讲起,一道比一道难度递增,不过居然是讲技巧,那么也不会太难,相信你分分钟看懂。 判断奇偶数 判断一个数是基于还是偶数,相信很多人都做过,一般的做法的代码如下
【管理系统课程设计】美少女手把手教你后台管理
【后台管理系统】URL设计与建模分析+项目源码+运行界面 栏目管理、文章列表、用户管理、角色管理、权限管理模块(文章最后附有源码) 一、这是一个什么系统? 1.1 学习后台管理系统的原因 随着时代的变迁,现如今各大云服务平台横空出世,市面上有许多如学生信息系统、图书阅读系统、停车场管理系统等的管理系统,而本人家里就有人在用烟草销售系统,直接在网上完成挑选、购买与提交收货点,方便又快捷。 试想,
4G EPS 第四代移动通信系统
目录 文章目录目录4G EPSEPS 的架构EPS 的参考模型E-UTRANUEeNodeBEPCMME(移动性控制处理单元)S-GW(E-RAB 无线访问承载接入点)P-GW(PDN 接入点)HSS(用户认证中心)PCRF(计费规则与策略)SPR(用户档案)OCS(在线计费)OFCS(离线计费)接口类型Uu 接口(空中接口,UE 和 AN 之间)S1 接口(AN 和 CN 之间)S1-U 接口和
相关热词 c# 输入ip c# 乱码 报表 c#选择结构应用基本算法 c# 收到udp包后回包 c#oracle 头文件 c# 序列化对象 自定义 c# tcp 心跳 c# ice连接服务端 c# md5 解密 c# 文字导航控件
立即提问