mapreduce 实现单词的个数统计

数据形式:
第一行 ABCDE
第二行 CDEF

利用mapreduce统计出现单词的个数(ABCDEF一共6个单词)

2个回答

这不需要mapreduce 直接map输出就可以了,reduce用不到吧。

import java.io.*;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordCount
{
    public static class WordCountMapper
    extends Mapper<Object,Text,Text,IntWritable>
   {
       private final static IntWritable one = new IntWritable(1);
       private Text word = new Text();
       public void map(Object key,Text value,Context context)  
        throws IOException, InterruptedException {
String[] words = value.toString().split(",");
 for (String str: words)
           {
                         //去除空格,防止越界
                 String ss=str.replace(" ","");
                   for(int i=0;i<ss.length();i++){
                        word.set(str.substring(i,i+1));  
                        context.write(word,one);
                   }
            }
    }
}
 public static class WordCountReducer extends Reducer<Text,IntWritable,Text,IntWritable> {
  public void reduce(Text key,Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
          int total=0;
        for (IntWritable val : values){
            total += val.get();
         }
IntWritable sum = new IntWritable(total);
context.write(key, sum);
       }   
     }
//INPUT_PATH:文件在hdfs上的路径
private static final String INPUT_PATH = "/mr.txt";
//OUTPUT_PATH:文件输出路径
private static final String OUTPUT_PATH = "/mr/out/";
public static void main (String[] args) throws Exception{
Configuration conf = new Configuration(); 
conf.set("mapred.jar","wc.jar");
Job job = new Job(conf, "word count");
job.setJarByClass(WordCount.class);
job.setMapperClass(WordCountMapper.class);
job.setReducerClass(WordCountReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
FileInputFormat.setInputPaths(job, INPUT_PATH);
FileOutputFormat.setOutputPath(job, new Path(OUTPUT_PATH));
 }
}
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
Python+OpenCV计算机视觉

Python+OpenCV计算机视觉

求问如何画MapReduce统计单词个数过程?

试画出使用MapReduce来对英语句子“Whatever is worth doing is worth doing well”进行单词统计的过程

MapReduce 时间排序并统计

A文件 1 a 2013-04-01 1 a 2013-04-08 1 a 2013-04-28 2 a 2013-04-08 2 a 2013-11-11 3 a 2016-01-11 求MapReduce代码,实现以前两列为key,比较多个日期从中找出最早最晚时间,并统计出现次数, 如果时间只有一条记录,则最晚最早时间一样,都记录这个时间 B文件 1 a 2013-04-01 2013-04-28 3 2 a 2013-04-08 2013-11-11 2 3 a 2016-01-11 2016-01-11 1

MapReduce实现文件查询

不用HDFS提供的FileSystem实现,用MapReduce机制实现文件查询,用户给定相应的字段,通过这些字段查询所在的文件。

MapReduce清洗数据文件

求一数据清洗大神,会MapReduce的帮忙解决一程序。酬劳私聊,随时联系。

mapreduce下实现pagerank

用mapreduce实现简单的pagerank算法 求大神帮忙 我有一份源代码但不知道哪里出错了

MapReduce实现TF-IDF算法问题,急问!!!!

课内项目需要使用MapReduce,我的程序可以运行,但是存在以下两个问题: 1.只有第一个单词可以显示所在文件名和TF-IDF的值,其他的词只能显示NULL和0.000000,请问这是为什么? 2.引入DistributedCache后提示无法找到文件 (我是用ubuntu 下eclipse编译运行的,hadoop单机版) 下面是我的代码: ``` public class TF_IDF { public static class Map extends Mapper<LongWritable,Text,Text,Text>{ String filename="";//用于存放file name int allcount=0; //doc中的单词数 //private final static IntWritable one =new IntWritable(1);//value private Text one=new Text("1"); private String word="";//key private Path[] querypath=null; private BufferedReader fis; private Set<String> queryword=new HashSet<String>(); private FileSplit filesplit; public void setup(Context context)throws IOException, InterruptedException{ Configuration conf=context.getConfiguration(); querypath=DistributedCache.getLocalCacheFiles(conf); //FileSystem fsopen=FileSystem.getLocal(conf); //FSDataInputStream in=fsopen.open(path[0]); String queryfilename=querypath[0].getName().toString(); try{ fis=new BufferedReader(new FileReader(queryfilename)); String word=null; while((word=fis.readLine())!=null){ queryword.add(word); } }catch(IOException ioe){ System.err.println("Caught exception while parsing the cached file '" + StringUtils.stringifyException(ioe)); } } public void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException{ String line=value.toString().toLowerCase(); line=line.replaceAll("[\\pP\\p{Punct}]"," "); line=line.replaceAll("[\\pN\\p{Punct}]"," "); StringTokenizer itr=new StringTokenizer(line); filesplit=(FileSplit)context.getInputSplit(); filename=filesplit.getPath().getName();//输入文件的路径为/xxx/xxx/xxx.txt // InputSplit split=(InputSplit)context.getInputSplit(); //filename=((FileSplit)context.getInputSplit()).getPath().getName();//输入文件的路径为/xxx/xxx/xxx.txt //FileSplit split=(FileSplit)context.getInputSplit(); // String str=split.getPath().toString(); //filename=str.substring(str.lastIndexOf("/")+1); //int abc=context.getInputSplit().toString().lastIndexOf(":"); //filename=context.getInputSplit().toString().substring(0, abc); while(itr.hasMoreTokens()){ if(queryword.contains(itr.nextToken())){ word=itr.nextToken(); word = word+" "; word=word+filename; allcount+=1; context.write(new Text(word),one); } } }//map函数结束 public void cleanup(Context context)throws IOException,InterruptedException{ String str="";//这里只是转换allcount变为string类型,不用加空格 str=String.valueOf(allcount); context.write(new Text("!"+" "+filename),new Text(str)); }//cleanup 函数结束 }//map class 结束 //map 出来的结果是<A doc1, 1><B doc1,1>...其中A doc1为key private static class Combiner extends Reducer<Text,Text,Text,Text>{ double all=0;//取值,单词的总数 public void reduce(Text key, Iterable<Text> values, Context context)throws IOException, InterruptedException{ Set<Text> valueset=new TreeSet<Text>(); for(Text val:values){ valueset.add(val); } //取all的值 int index=key.toString().indexOf(" "); if(key.toString().substring(index-1, index).equals("!")){//我将!提前,所以不能使用原来的方法 for(Text val:valueset){ all=Integer.parseInt(val.toString()); } return; } double sum=0; for(Text val:valueset){ sum+=Integer.parseInt(val.toString()); } double tf=sum/all; tf=Math.round(tf*100000)/100000.00000; String tfstring=null;//这儿也不用加空格,只是转化字符串 tfstring=String.valueOf(tf); String oldkey[]=key.toString().split(" "); String newkey=oldkey[0]; String newvalue=oldkey[2]+" "+tfstring; context.write(new Text(newkey),new Text(newvalue)); }//reduce函数结束 }//Combiner class 结束 //Combiner出来的结果是<A, doc1 TF>,A为key //经过partitioner,将所有的同一key的合起来算针对某一个单词的IDF public static class Reduce extends Reducer<Text,Text,Text,Text>{ int a=0;//用于计算单词出现的文件的个数,注意的是这个时候key就是单词 public void reduce(Text key, Iterable<Text> values, Context context)throws IOException, InterruptedException{ Set<Text> valueset=new TreeSet<Text>(); for(Text val:values){ a+=1; valueset.add(val); } //double filenumber=context.getNumReduceTasks()+1; double filenumber=Integer.parseInt(context.getJobName()); double idf=Math.log(filenumber/a);//算出针对某一个单词的IDF(权重) double max=0;//直接比大小,不然之后很难办,有三个变量呢 String docs[]=new String[a+1]; double TFIDFs[]=new double[a+1];//一一对应,寻找一个对儿 int i=0;//用于循环 //用一个for循环修改每一个对儿 //Iterable<Text> valuefromvalues=values; for(Text val:valueset){ //先拆value String value[]=val.toString().split(" "); String doc=value[0]; String tf=value[1]; double tfdouble=Double.parseDouble(tf); double tfidf=tfdouble*idf; if(max<tfidf){ max=tfidf; } docs[i]=doc; TFIDFs[i]=tfidf; i++; } //循环结束后,所有value值都被拆了,max的tfidf也照出来了,现在开始定位 int j=0; for(j=0;j<i;j++){ if(TFIDFs[j]==max){ break; } } String finalvalues=docs[j]+" "+String.format("%.7f",TFIDFs[j]); context.write(key,new Text(finalvalues)); }//reduce 函数结束 }//Reduce class 结束 public static void main(String[] args) throws Exception{ Configuration conf=new Configuration(); FileSystem input=FileSystem.get(conf); FileStatus p[]=input.listStatus(new Path(args[0])); DistributedCache.addCacheFile(new URI(args[2]), conf);//add in query.txt Job job=Job.getInstance(conf,"TF_IDF"); job.setJarByClass(TF_IDF.class); job.setMapperClass(Map.class); job.setCombinerClass(Combiner.class); job.setReducerClass(Reduce.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(Text.class); String filenumber=""; filenumber+=p.length; job.setJobName(filenumber); // job.setNumReduceTasks(p.length+1); FileInputFormat.addInputPath(job,new Path(args[0])); FileOutputFormat.setOutputPath(job,new Path(args[1])); System.exit(job.waitForCompletion(true)?0:1); }//main结束 }//class结束 ```

hadoop mapreduce 数据分析 丢数据

最近发现hadoop的mapreduce程序会丢数据,不知道是什么原因,请教各位: hadoop环境,通过mapreduce程序分析hdfs上的数据,一天的数据是按小时存储的,每一个小时一个文件价,数据格式都是一样的,现在如果在16点这个文件价里有一条数据a,如果我用mr分析一整天的数据,数据a则丢失,如果单独跑16点这个文件夹里的数据,则数据a不会丢失,可以正常被分析出来,只要一加上其他时间段的数据,数据a就分析不出来,请问这是为什么? 最近在学习spark,我用spark程序跑同样的数据,整天的,不会有丢失的问题,的所以我肯定不是数据格式的问题 希望大家能帮我解决这个hadoop的问题,谢谢啦

利用MapReduce求海量数据中最大的K个数

利用MapReduce求海量数据中最大的K个数 context.write(new IntWritable(top[i]), new IntWritable(top[i])); 这句代码运行时显示有错误 Exception in thread "main" java.lang.ArrayIndexOutOfBoundsException: 0 at com.javson.TopKNum.run(TopKNum.java:79) at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70) at com.javson.TopKNum.main(TopKNum.java:92)

hadoop mapreduce 统计所有的key-value中value为空的数目

遇到一个问题,望大家有空可以帮忙看看,小弟感激不尽! 现在在做信令解析,有一条信令:[2016-04-02 09:58:09,724] len:78;type:1002;msc:0E1F;bsc:3F17;time:2016-04-01 16:48:46.494;lac:13883;ci:8713;imsi:460004544938252;msisdn:13994482976;callType:0;disLen:11;disMsisdn:13503531697;remark:0; map0: 输入:一条信令(上面那一条) 通过解析,得到一个Object 输出:key:imsi value:{imsi:460004544938252,msisdn:13994482976} reduce0: 输入:key:imsi value:List<> {imsi:460004544938252,msisdn:''},{imsi:460004544938252,msisdn:13994482976},{imsi:460004544938252,msisdn:''} 在这里我想统计一下: 1、所有的msisdn为空的个数 2、imsi对应的msisdn为空的个数(List里的msisdn全为空计1) 现在问题是:要把统计的值(一行:日期 | 呼叫总量 | IMSI未解析总呼叫次数 | 占比1 | 总IMSI | 未解析总IMSI数 | 占比2)写到文件中,怎么判断我读的是最后一条信令呢?如果不行的话,把这个reduce的结果传给第二个mapreduce统计怎么实现呢? 希望有空的朋友多多指点!谢谢

java mapreduce wordcount 统计出现次数

一天时间内,每个小时内该网页有多少次访问记录,这么多访问记录中有多少个用户,如下格式: hourid url 0 com 0 com 0 cn 0 net 输出格式类似下面: hourid visitscount userscount 0 4 3 如果用wordcount的那种实现方法的话,都是根据key来直接累加value的,实在不知道该怎么弄,还请大神支招 有几条访问记录,visitscount就是几;userscount指的是(com,cn,net) 最后能输出是csv格式的文档就更好了

MapReduce清洗数据,输出多个文件

测试数据: 067017    DA2821EA174C4CD6F4E0914C14E740BC    尊敬的周斌颉,您编号为14060800112的项目收款逾期,担保公司将对借款人进行催收,借款人将支付您一定的逾期罚息,详情请至陆金所网站查询。    2014-11-26     008080    B96D6244E733E1F97259927CF79B9B04    您的一笔借款已逾期!将每日产生罚息并影响您的信用记录,请您尽快还款。如您不再需要收到此类短信,请登录网站设置或致电400-090-6600    2014-11-26 420894    66AEE4A81D0DC3F7597CF14304DF8A37    马鹏云先生:您的借款第二次借款绝不逾期希望支持    第1期将于2014-12-03到期,为保证您的信誉良好,介时请及时还款,谢谢!    2014-11-26 067017    98717067FE78A6E71213A3F02969863C    尊敬的陈慧丽,您编号为14082000739的项目收款逾期,担保公司将对借款人进行催收,借款人将支付您一定的逾期罚息,详情请至陆金所网站查询。    2014-11-26 000000    4DCB184986008ADD3AD33E4860745FAA    [2111-9607-5482-7768]F 有效期2014-08-11到2014-10-31;项王故里成人票(停车场负一楼团队售票处报江苏南方旅行社验证取票,有问题联系唐13515299345)-成人票2张  000000    822D3A7BD4B44547D5E71C60D521D694    [2111-9211-4633-7607]U 有效期2014-10-17到2014-12-31;月亮河温泉度假酒店房-双人温泉/桑拿家庭套票1张  000000    4929EDF20844D65ECD4333FBA9D8FD7F    [2111-7081-7365-7431]G 有效期2014-12-15到2015-03-31;南京麦乐迪KTV-团圆桌餐698元/套(8-10人)VIP房(12-3)1张  000000    F64D4901A21600ED51BE0D49DF390F81    [2111-7381-8605-8288]Z 有效期2014-11-18到2015-09-30;顺景温泉酒店-行政豪华房 (含2人温泉)1张  000000    822D3A7BD4B44547D5E71C60D521D694    [2111-7011-4144-0946]F 有效期2014-10-17到2014-12-31月亮河温泉度假酒店房-双人特惠房2张 000000    C4183B38CF4D0141BF23CA1D794B4093    [2111-9677-3783-8938]S 有效期2013-11-01到2015-06-30汽车博物馆-双成人套票2张  000000    BF67C952CDE878AA79D2F6683A464947    [2111-4021-6549-0044]M 有效期2014-10-08到2015-08-31北京青泉赢睿卡丁车-假日票(新)4张 000000    22FD17C8CA607FB179D7FE505748AA61    [2111-4079-9733-2324]F 有效期2015-05-01到2015-08-31大兴野生动物园-自驾区车票1张 使用MapReduce清洗数据,并根据不同的内容分别输出到多个文件 清洗规则:提取第一列,第二列,第三列中括号里面的内容 结果数据: 如果第三列包含逾期则输出到overdue.txt 067017    DA2821EA174C4CD6F4E0914C14E740BC    008080    B96D6244E733E1F97259927CF79B9B04    420894    66AEE4A81D0DC3F7597CF14304DF8A37    067017    98717067FE78A6E71213A3F02969863C    如果第三列包含房则输出到house.txt 000000    4DCB184986008ADD3AD33E4860745FAA    000000    822D3A7BD4B44547D5E71C60D521D694      000000    4929EDF20844D65ECD4333FBA9D8FD7F      000000    F64D4901A21600ED51BE0D49DF390F81      000000    822D3A7BD4B44547D5E71C60D521D694    如果第三列包含车则输出到car.txt 000000    4DCB184986008ADD3AD33E4860745FAA    000000    C4183B38CF4D0141BF23CA1D794B4093      000000    BF67C952CDE878AA79D2F6683A464947    000000    22FD17C8CA607FB179D7FE505748AA61   

mapreduce的value值排序!

假如同一个游客有多个逗留时间,现在想计算该游客相邻时间两个时间的间隔,需要先对该游客不同的逗留时间进行排序,求解!

MapReduce处理数据文件

求一MapReduce大神,帮忙改一程序,润笔费私下交流。有意者私下联系。

大数据的数据清洗,是应该先根据简单的逻辑清洗好数据然后入hdfs,还是直接把原始直接入hdfs

今天公司商量大数据的架构,都认为应该要先清洗数据 然后把清洗好的数据入到hbase.说是这样节省磁盘空间。我认为这样做的话,没有发挥hdfs的实际作用。应该是先把原始数据直接入到hdfs,再通过hive和mapreduce做数据的清洗入到hbase。 这里用hive还是mapreduce具体应该看业务逻辑是否复杂。请问大家我说的对不对?

Hadoop用mapreduce的排序问题

com.chaozh.iReaderFree 小说,阅读器,电子书,图书,图书,图书,电子书 com.chaozh.iReaderFree15 小说,漫画书,阅读器,电子书,阅读器 有这样的文本格式,需要输出为: com.chaozh.iReaderFree 图书,电子书,阅读器 com.chaozh.iReaderFree15 阅读器,电子书,小说 这样的后面出现次数越多的标签排名越前的格式,请问应该怎么做呢...

以下网址是别人的id3算法 怎样用mapreduce模型来改

http://www.tuicool.com/articles/3EZJBz

mapreduce计算的数据导入mysql出错,导入到本地都ok,哪位路过的大佬能帮忙看下

![报错信息](https://img-ask.csdn.net/upload/201909/29/1569747157_413167.png) Driver代码如下 package com.sky.cmcc.offlineComputeMR; import com.sky.cmcc.pojo.MFee; import com.sky.cmcc.pojo.RFee; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.db.DBConfiguration; import org.apache.hadoop.mapreduce.lib.db.DBOutputFormat; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import java.io.IOException; /** * Classname CmccDriver * Date 2019/9/29 11:08 * Created by Teddys * Description 负责加载配置,启动MR,写入数据到mysql */ public class CmccDriver { // 定义msyql的四项 private static String DriverClass="com.mysql.jdbc.Driver"; private static String url="jdbc:mysql://localhost:3306/bot?characterEncoding=UTF-8"; private static String username="root"; private static String password="123456"; public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { //1 加载配置文件和设定Job Configuration conf = new Configuration(); Job job = Job.getInstance(conf); //连接mysql DBConfiguration.configureDB(conf,DriverClass,url,username,password); //2 设置Job的加载路径 job.setJarByClass(CmccDriver.class); //3 指定job的mapper和reducer的类 job.setMapperClass(CmccMapper.class); job.setReducerClass(CmccReducer.class); //4 设置mqpper和最后的输出类型 job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(MFee.class); job.setOutputKeyClass(RFee.class); job.setOutputValueClass(NullWritable.class); //5 设置输入和输出的路径 FileInputFormat.setInputPaths(job,new Path(args[0])); //注意:输出路径为mysql DBOutputFormat.setOutput(job,"cmcc0513", "day","chargefee","shouldfee","orderCount","chargePayTime","chargeSuccessCount"); //6 提交任务,执行程序 boolean b = job.waitForCompletion(true); System.exit(b ? 0 : 1); System.out.println("b===="+b); } }

MapReduce数据处理相关问题

mapreduce想对map side join之后传到reduce端的key,value值进行进一步处理,该如何做?

求救高手,Mapreduce导入数据到Hadoop报ClassNotFoundException

最近在用Mapreduce连Hadoop,出现各类问题。请高手答疑。 环境: hadoop:2.7.0 Hbase:1.0.1.1 刚开始的时候报:HBaseConfiguration 找不到,百度之,说将 hbase的lib下的jar复制到hadoop的lib下 复制之,无果,找各类参考资料修改hadoop参数,都还是报异常。 最后无奈,只能修改 hadoop-env.sh,将 hbase 的lib加入到 classpath下。 ![图片说明](https://img-ask.csdn.net/upload/201509/14/1442242731_955123.jpg) 最后终于不报这个异常。 可是接着更加无解的事情发生了。 ![图片说明](https://img-ask.csdn.net/upload/201509/14/1442242933_762859.jpg) 报出各类我自己定义的类找不到。 网上找遍了所有的贴,没找到答案。 ``` public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); conf = HBaseConfiguration.create(conf); if (args.length != 6) { System.err.println("Usage: MroFormat <in-mro> <in-xdr> <sample tbname> <event tbname>"); System.exit(2); } //makeConfig(conf, args); String inpath1 = args[0]; String inpath2 = args[1]; Job job = Job.getInstance(conf,"MyTest"); job.setNumReduceTasks(40); job.setJarByClass(Main.class); job.setReducerClass(ReduceDeal.MroFormatReducer.class); //job.setReducerClass(ReduceDeal.TestReducer.class); job.setSortComparatorClass(MapDeal.SortKeyComparator.class); job.setPartitionerClass(MapDeal.CellIDPartitioner.class); job.setGroupingComparatorClass(MapDeal.SortKeyGroupComparator.class); job.setMapOutputKeyClass(CellTimeKeyPare.class); job.setMapOutputValueClass(Text.class); MultipleInputs.addInputPath(job, new Path(inpath1), KeyValueTextInputFormat.class, MapDeal.MroMapper.class); MultipleInputs.addInputPath(job, new Path(inpath2), TextInputFormat.class, MapDeal.XdrMapper.class); job.setOutputFormatClass(MultiTableOutputFormat.class); //job.setOutputFormatClass(NullOutputFormat.class); //LOG.info(job.getPartitionerClass().getName()); //TableMapReduceUtil.addDependencyJars(job); //TableMapReduceUtil.addDependencyJars(job.getConfiguration()); //TableMapReduceUtil.initTableReducerJob("tab1", ReduceDeal.MroFormatReducer.class, job); System.exit(job.waitForCompletion(true) ? 0 : 1); } ``` 在本机的win7环境下,代码能跑过,但打包放到服务器就报错,找不着类。去掉了“conf = HBaseConfiguration.create(conf);”这段代码后,下面的 处理类就可以找到。请大牛们帮忙看看,非常感谢

2019 Python开发者日-培训

2019 Python开发者日-培训

150讲轻松搞定Python网络爬虫

150讲轻松搞定Python网络爬虫

设计模式(JAVA语言实现)--20种设计模式附带源码

设计模式(JAVA语言实现)--20种设计模式附带源码

YOLOv3目标检测实战:训练自己的数据集

YOLOv3目标检测实战:训练自己的数据集

java后台+微信小程序 实现完整的点餐系统

java后台+微信小程序 实现完整的点餐系统

三个项目玩转深度学习(附1G源码)

三个项目玩转深度学习(附1G源码)

初级玩转Linux+Ubuntu(嵌入式开发基础课程)

初级玩转Linux+Ubuntu(嵌入式开发基础课程)

2019 AI开发者大会

2019 AI开发者大会

玩转Linux:常用命令实例指南

玩转Linux:常用命令实例指南

一学即懂的计算机视觉(第一季)

一学即懂的计算机视觉(第一季)

4小时玩转微信小程序——基础入门与微信支付实战

4小时玩转微信小程序——基础入门与微信支付实战

Git 实用技巧

Git 实用技巧

Python数据清洗实战入门

Python数据清洗实战入门

使用TensorFlow+keras快速构建图像分类模型

使用TensorFlow+keras快速构建图像分类模型

实用主义学Python(小白也容易上手的Python实用案例)

实用主义学Python(小白也容易上手的Python实用案例)

程序员的算法通关课:知己知彼(第一季)

程序员的算法通关课:知己知彼(第一季)

MySQL数据库从入门到实战应用

MySQL数据库从入门到实战应用

机器学习初学者必会的案例精讲

机器学习初学者必会的案例精讲

手把手实现Java图书管理系统(附源码)

手把手实现Java图书管理系统(附源码)

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

极简JAVA学习营第四期(报名以后加助教微信:eduxy-1)

.net core快速开发框架

.net core快速开发框架

玩转Python-Python3基础入门

玩转Python-Python3基础入门

Python数据挖掘简易入门

Python数据挖掘简易入门

微信公众平台开发入门

微信公众平台开发入门

程序员的兼职技能课

程序员的兼职技能课

Windows版YOLOv4目标检测实战:训练自己的数据集

Windows版YOLOv4目标检测实战:训练自己的数据集

HoloLens2开发入门教程

HoloLens2开发入门教程

微信小程序开发实战

微信小程序开发实战

Java8零基础入门视频教程

Java8零基础入门视频教程

相关热词 c# 开发接口 c# 中方法上面的限制 c# java 时间戳 c#单元测试入门 c# 数组转化成文本 c#实体类主外键关系设置 c# 子函数 局部 c#窗口位置设置 c# list 查询 c# 事件 执行顺序
立即提问
相关内容推荐