logstash 处理数组的一点问题 2C

我在使用logstash处理json字符串时,在解析得到的字段数组中存在我不想让其存在的成员,试问我应该如何删除该成员,走过路过的各位大神帮个忙解决下,在此先谢过了。
处理后得到的字段如下:

 {
      "@version" => "1",
    "@timestamp" => "2017-03-07T10:42:00.140Z",
          "host" => "192.168.43.43",
          "port" => 45765,
            "id" => "00150cc4",
          "mmac" => "a2:20:a6:15:0c:c4",
          "rate" => "3",
         "wssid" => "OPPOR7s",
          "wmac" => "2e:5b:b8:be:07:4b",
          "time" => "Tue Mar 07 18:42:14 2017",
          "data" => [
        [ 0] {
              "mac" => "5e:cf:7f:93:3d:0b",
             "rssi" => "-55",
            "range" => "4.2"
        },
        [ 1] {
              "mac" => "5e:cf:7f:93:3d:0e",
             "rssi" => "-57",
            "range" => "5.0"
        },
        [ 2] {
              "mac" => "5e:cf:7f:93:3d:0f",
             "rssi" => "-55",
            "range" => "4.2"
        },
        [ 3] {
              "mac" => "5e:cf:7f:93:3d:10",
             "rssi" => "-56",
            "range" => "4.6"
        },
        [ 4] {
              "mac" => "5e:cf:7f:93:3d:0c",
             "rssi" => "-50",
            "range" => "2.7"
        },
        [ 5] {
              "mac" => "5e:cf:7f:93:3d:0d",
             "rssi" => "-50",
            "range" => "2.7"
        },
        [ 6] {
              "mac" => "9c:21:6a:fe:e9:ea",
             "rssi" => "-73",
            "range" => "19.7"
        }
    ]
}

假如我不想让data数组中mac字段为5e开头的数组元素输出,也就是让其输出如下格式,我应该怎么过滤

  {
      "@version" => "1",
    "@timestamp" => "2017-03-07T10:42:00.140Z",
          "host" => "192.168.43.43",
          "port" => 45765,
            "id" => "00150cc4",
          "mmac" => "a2:20:a6:15:0c:c4",
          "rate" => "3",
         "wssid" => "OPPOR7s",
          "wmac" => "2e:5b:b8:be:07:4b",
          "time" => "Tue Mar 07 18:42:14 2017",
          "data" => [
        [ 0] {
              "mac" => "9c:21:6a:fe:e9:ea",
             "rssi" => "-73",
            "range" => "19.7"
        }
    ]
}

顺便问下,logstash能获取数组长度么,能的话应该怎么操作呢?表示一直对logstash数组操作有点生疏。

1个回答

m0_37367424
IT代码民工 不懂-.-
接近 3 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
logstash处理nginx日志
![图片说明](https://img-ask.csdn.net/upload/201709/19/1505801241_461459.png) 这是一条nginx日志 这样的日志还有很多条 我想用logstash把每条日志的url存到文件 配置该怎么写
logstash+kafka的日志服务问题。求解,急急急
之前搭建过一个ElasticSearch+logstash+kafka的日志处理系统, 刚开始运行是没有问题的、后面准备在生产环境使用时,发现logstash处理消息有问题 要么就是在kafka收集到消息很久之后才消费日志消息,要么就是启动时消费消息,之后就不再读取kafka的日志消息了,不知道是怎么回事。最开始我认为是logstash的正则 解析需要大量时间匹配过滤,造成消息堵塞,最后我直接把日志存为json直接不用正则匹配,还是有同样的问题。以下是我的logstast配置 input { kafka { zk_connect => "192.168.0.153:12200" topic_id => "cias-uop" group_id => "logstash" rebalance_backoff_ms => 5000 rebalance_max_retries => 10 queue_size => 80000 consumer_threads => 4 fetch_message_max_bytes => 104857600 } } filter { multiline{ pattern => "^\s" what => "previous" } grok { match => { } } } output { elasticsearch { hosts => ["192.168.0.153:9200"] index => "cias-uop-kafka" document_type => "cias-uop-%{+YYYY.MM.dd}" } }
logstash中文乱码问题
用logstash解析带有中文的文档,解析出的数据有乱码?请问各位大神怎么解决啊??![图片说明](https://img-ask.csdn.net/upload/201506/11/1434012990_386264.png)
[ELK]Logstash接收到的日志时间顺序与Filebeat发出的顺序不一样
用filebeat收集/tmp/testlog/no7.log的内容后,传送给Logstash服务器,Logstash把收到的内容输出为 /tmp/logstash/no7.log 传送没有出现日志缺失,但是发现时间顺序是混乱的,具体情况如下: filebeat.yml ``` filebeat.inputs: - type: log enabled: true paths: - /tmp/testlog/no7.log output.logstash: hosts: ["xxx.xx.x.xxx:5044"] ``` logstash.conf ``` input { beats { port => 5044 } } output { file { path => "/tmp/logstash/no7.log" codec => line { format => "%{message}"} } } ``` 时间乱序情况如下: /tmp/testlog/no7.log(Filebeat服务器) ``` no7 0 2020年 1月 14日 火曜日 17:48:36 JST no7 1 2020年 1月 14日 火曜日 17:48:37 JST no7 2 2020年 1月 14日 火曜日 17:48:38 JST no7 3 2020年 1月 14日 火曜日 17:48:39 JST no7 4 2020年 1月 14日 火曜日 17:48:40 JST no7 5 2020年 1月 14日 火曜日 17:48:41 JST no7 6 2020年 1月 14日 火曜日 17:48:42 JST no7 7 2020年 1月 14日 火曜日 17:48:43 JST no7 8 2020年 1月 14日 火曜日 17:48:44 JST no7 9 2020年 1月 14日 火曜日 17:48:45 JST ``` /tmp/logstash/no7.log(Logstash服务器) ``` no7 2 2020年 1月 14日 火曜日 17:48:38 JST no7 6 2020年 1月 14日 火曜日 17:48:42 JST no7 3 2020年 1月 14日 火曜日 17:48:39 JST no7 7 2020年 1月 14日 火曜日 17:48:43 JST no7 0 2020年 1月 14日 火曜日 17:48:36 JST no7 4 2020年 1月 14日 火曜日 17:48:40 JST no7 8 2020年 1月 14日 火曜日 17:48:44 JST no7 1 2020年 1月 14日 火曜日 17:48:37 JST no7 5 2020年 1月 14日 火曜日 17:48:41 JST no7 9 2020年 1月 14日 火曜日 17:48:45 JST ``` 可以看见,Logstash接受到的所有内容都是乱序排列,请问怎么才能让它按照Filebeat服务器里的顺序输出呢 请大家帮帮忙,麻烦了 —————— 有在网上搜过解决方法,都说是用filter的date来处理,但是按照目前能找到的所有回答都试了一遍,乱序问题依旧没有解决
logstash使用mutate处理数据
最近使用logstash分析日志,需要提取日志中某一串字符,比如abcd=1,看了很多文档 有人说在filter中使用mutate可以实现,但是没有找到mutate相关的介绍。 求大神讲解,或者提供一些学习的地址或书籍
关于logstash 的timestamp格式化问题
logstash ,我想把timestamp 这个时间戳格式化, ![图片说明](https://img-ask.csdn.net/upload/201706/09/1496992529_122535.png) ![图片说明](https://img-ask.csdn.net/upload/201706/09/1496992855_865745.png)
logstash统计event的count数的时候报错
如下是logstash的filter的部分配置文件 if "metric" in [tags] { ruby { code => "event.cancel if event'[events_[MainThread]][count]' < 500" } } 这里统计到最后会提示报错Ruby exception occurred: comparison of String with 500 failed 新手,请各位大神帮忙看看怎么解决。。
slf4j+logback+logstash把自定的字段与原始的日志信息一起写入到ES
slf4j+logback+logstash把生成的日志用logstash插入到ES,插入到ES默认的字段不满足需求,我现在需要再增加五个自定义字段以及默认的字段,用logstash一起存到ES,这自定的五个字段的值需要从Java代码中获取,是动态变化的,有谁会,请教一下,非常感谢,我研究了一天多,没有找到合适的方法解决。
logstash同步数据mysql一对多数据结构的情况?
学生表student和课程表class一对多关系, 学生表student和兴趣interest表一对多关系, 想要将三个表同步到一个索引里面,通过ES一次性查询到学生信息、学生的课程数组、学生的兴趣数组; [ { "id": 1, "name": "小王", "class": [ { "id": 1, "name": "数学" }, { "id": 2, "name": " 语文" } ], "interest": [ { "id": 1, "name": "学习" }, { "id": 1, "name": "足球" } ] }] 我是想搜索出来这样的数据 同时包含学生的 课程和兴趣,而这条数据是真实同步到logstash中的 不是通过ES的联合查询出来的
logstash解析xml文件问题
用logstash解析xml文件,文件内容如下: ``` <a> <a1>aaaaa</a1> <a2>bbbbb</a2> <a3> <a31>ccccc1</a31> <a32>ccccc2</a32> </a3> <a4> <a41>ddddd1</a41> <a42>ddddd2</a42> </a4> <a5> <a51>eeeee1</a51> <a52>eeeee2</a52> </a5> </a> ``` 解析成: ``` {a1=aaaaa,a2=bbbbb,a31=ccccc1,a32=ccccc2} {a1=aaaaa,a2=bbbbb,a41=ddddd1,a42=ddddd2} {a1=aaaaa,a2=bbbbb,a51=ddddd1,a52=ddddd2} ```
logstash 启动后又关闭然后重启。
logstash 启动后又关闭然后重启。 [2019-11-14T15:18:02,022][INFO ][logstash.javapipeline ][main] Pipeline started {"pipeline.id"=>"main"} [2019-11-14T15:18:02,110][INFO ][logstash.agent ] Pipelines running {:count=>1, :running_pipelines=>[:main], :non_running_pipelines=>[]} [2019-11-14T15:18:02,604][INFO ][logstash.agent ] Successfully started Logstash API endpoint {:port=>9600} [2019-11-14T15:18:03,820][INFO ][logstash.runner ] Logstash shut down. [2019-11-14T15:18:30,160][INFO ][logstash.runner ] Starting Logstash {"logstash.version"=>"7.4.2"} [2019-11-14T15:18:32,675][INFO ][org.reflections.Reflections] Reflections took 53 ms to scan 1 urls, producing 20 keys and 40 values [2019-11-14T15:18:34,175][WARN ][org.logstash.instrument.metrics.gauge.LazyDelegatingGauge][main] A gauge metric of an unknown type (org.jruby.RubyArray) has been create for key: cluster_uuids. This may result in invalid serialization. It is recommended to log an issue to the responsible developer/development team. [2019-11-14T15:18:34,180][INFO ][logstash.javapipeline ][main] Starting pipeline {:pipeline_id=>"main", "pipeline.workers"=>8, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>50, "pipeline.max_inflight"=>1000, :thread=>"#<Thread:0x7bdc7d1e run>"} [2019-11-14T15:18:34,215][INFO ][logstash.javapipeline ][main] Pipeline started {"pipeline.id"=>"main"} [2019-11-14T15:18:34,326][INFO ][logstash.agent ] Pipelines running {:count=>1, :running_pipelines=>[:main], :non_running_pipelines=>[]} [2019-11-14T15:18:34,853][INFO ][logstash.agent ] Successfully started Logstash API endpoint {:port=>9600} [2019-11-14T15:18:36,516][INFO ][logstash.runner ] Logstash shut down.
怎么解决logstash output里设置的路径取的时间 时区差8小时
input { stdin{} } output { webhdfs { host => "namenode02" port => 50070 path => "/test/logstash/%**{+YYYYMMdd}/%{+HH}**/logstash-%{+HH}.log" user => "hadoop" codec => plain { format => "%{[message]}" } } } hdfs文件路径上 标红部分取得时间 是utc时间和我们时区的时间差8小时 怎么解决
使用Kibana 进行日志分析,Kibnan的 discover 中只能检索到最后更新一条日志
1.使用Kibana 进行日志分析,之前的日志能检索到,但是新日志又将其代替了,Kibnan的 discover 中只能检索到最后更新一条日志。 2,不知道是Kibana 哪里设置错误?index还是哪里设置问题,还是logstash上面的conf配置问题
logstash全量同步mysql百万级别数据问题?
mysql单表数据大概300万左右。全量同步的时候每次同步到20000的时候就会报错。 ``` [WARN ][logstash.inputs.jdbc ] Exception when executing JDBC query {:exception=>#<Sequel::DatabaseError: Java::JavaLang::IllegalArgumentException: HOUR_OF_DAY: 2 -> 3>} ``` 在连接数据的URL后面加上时区UTC或者CST又会报错MONTH 不知道有没有大神碰到过这个问题 logstash,es版本均为6.4.1 ``` input { jdbc { jdbc_driver_library => "/opt/middleware/logstash-6.4.1/lib/mysql-connector-java-6.0.4.jar" jdbc_driver_class => "com.mysql.jdbc.Driver" jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/ad?characterEncoding=UTF-8&useSSL=false&serverTimezone=UTC" jdbc_user => "root" jdbc_password => "123456" statement_filepath => "/opt/middleware/logstash-6.4.1/config/alarm.sql" jdbc_paging_enabled => "true" jdbc_page_size => "5000" schedule => "* * * * *" } } ``` ``` [WARN ][logstash.inputs.jdbc ] Exception when executing JDBC query {:exception=>#<Sequel::DatabaseError: Java::JavaLang::IllegalArgumentException: MONTH>} ```
使用logstash采集数据的时候时间映射已经设置好数据库也是符合的格式但是就是解析时间错误?
我的映射关系如下 "start_time": { "format": "yyyy‐MM‐dd HH:mm:ss", "type": "date" } pub_time": { "format": "yyyy‐MM‐dd HH:mm:ss", "type": "date" 都是这种映射 数据库里的格式 是这种 : **2019-12-28 19:24:41** 但是在采集数据的时候报解析异常 Could not index event to Elasticsearch. {:status=>400, :action=>["index", {:_id=>"4028e58161bd3b380161bd3bcd2f0000", :_index=>"xc_course", :_type=>"doc", :_routing=>nil}, #<LogStash::Event:0x62e0a8f9>], :response=>{"index"=>{"_index"=>"xc_course", "_type"=>"doc", "_id"=>"4028e58161bd3b380161bd3bcd2f0000", "status"=>400, "error"=>{"type"=>"mapper_parsing_exception", "reason"=>"failed to parse [start_time]", "caused_by"=>{"type"=>"illegal_argument_exception", "reason"=>"Invalid format: \"2019-12-20T15:18:13.000Z\" is malformed at \"-12-20T15:18:13.000Z\""}}}}} 主要是这一句 **failed to parse [start_time]", "caused_by"=>{"type"=>"illegal_argument_exception"** ** "Invalid format: \"2019-12-20T15:18:13.000Z\" is malformed at \"-12-20T15:18:13.000Z\""** 然后就导致无法采集到索引库 但是吧时间都设置为null值之后却又可以采集到索引库 这是怎么回事 又怎么解决呢?
如何使logstash远程监控另一台windows上的日志文件变化
因为业务上的原因,现在想使用logstash来远程监控一台windows上面的日志变化(windows是台UAT部署机,不想装别的软件),logstash的shipper.conf怎么写?主要是选用哪个input的插件及配置大概怎么写,用file的话,好像得把logstash在那台UAT上装一次才能监控文件夹的变化...求大神指教..感激不尽
logstash接收redis数据
我有一个设备使用tcp向redis服务器发送数据,我应该如何查看这些数据,我在logstash应该如何接受redis数据,希望大神帮忙解决一下,如果问题描述不清楚的话可以问我,谢谢啦
logstash中grok表达式
我的日志格式:[2017-05-19 09:38:10,690] [INFO] [http-nio-8050-exec-6] [com.yixiang.ticket.hub.service.impl.FlightServiceImpl.search(FlightServiceImpl.java:73)]| shopping request:{"cabinRank":"Y","flightRange":[{"fromCity":"CKG","fromDate":"2017-05-20","toCity":"TSN"}],"flightRangeType":"OW","redisKey":"PSSSHOPPING$OW$CKG#2017-05-20#TSN"} grok : grok{ match =>{ "message" => "[(?<datetime>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2},\d{3})]\s\[(?<level>\w*)]\s\[(?<thread>\S*)\][(?<class>\S*)((?<file>[^:]*)[:]{1}(?<line>\d*)\)]\s\|\s\(?<msg>.*)" } } 在secureCRT上面启动 我自定义的logstash.conf文件的时候 报出以下异常: Pipeline aborted due to error {:exception=>#<RegexpError: char-class value at end of range: /[(?<datetime>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2},\d{3})]\s\[(?<level>\w*)]\s\[(?<thread>\S*)\][(?<class>\S*)((?<file>[^:]*)[:]{1}(?<line>\d*)\)]\s\|\s\(?<msg>.*)/m>, :backtrace=>["org/jruby/RubyRegexp.java:1434:in `initialize'", "/home/elk/logstash-5.2.1/vendor/bundle/jruby/1.9/gems/jls-grok-0.11.4/lib/grok-pure.rb:127:in `compile'", "/home/elk/logstash-5.2.1/vendor/bundle/jruby/1.9/gems/logstash-filter-grok-3.3.1/lib/logstash/filters/grok.rb:274:in `register'", "org/jruby/RubyArray.java:1613:in `each'", "/home/elk/logstash-5.2.1/vendor/bundle/jruby/1.9/gems/logstash-filter-grok-3.3.1/lib/logstash/filters/grok.rb:269:in `register'", "org/jruby/RubyHash.java:1342:in `each'", "/home/elk/logstash-5.2.1/vendor/bundle/jruby/1.9/gems/logstash-filter-grok-3.3.1/lib/logstash/filters/grok.rb:264:in `register'", "/home/elk/logstash-5.2.1/logstash-core/lib/logstash/pipeline.rb:235:in `start_workers'", "org/jruby/RubyArray.java:1613:in `eachqiu'", "/home/elk/logstash-5.2.1/logstash-core/lib/logstash/pipeline.rb:235:in `start_workers'", "/home/elk/logstash-5.2.1/logstash-core/lib/logstash/pipeline.rb:188:in `run'", "/home/elk/logstash-5.2.1/logstash-core/lib/logstash/agent.rb:302:in `start_pipeline'"]}
logstash 解析csv格式的txt文件如何跳过第一行的字段行
logstash 解析csv格式的txt文件如何跳过第一行的字段行 ![图片说明](https://img-ask.csdn.net/upload/201907/25/1564039983_80317.png) 如图 怎么样跳过第一行的字段行啊,不让它导入es
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是一个本地线程副本变量工具类,各个线程都拥有一份线程私...
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
Linux(服务器编程):15---两种高效的事件处理模式(reactor模式、proactor模式)
前言 同步I/O模型通常用于实现Reactor模式 异步I/O模型则用于实现Proactor模式 最后我们会使用同步I/O方式模拟出Proactor模式 一、Reactor模式 Reactor模式特点 它要求主线程(I/O处理单元)只负责监听文件描述符上是否有事件发生,有的话就立即将时间通知工作线程(逻辑单元)。除此之外,主线程不做任何其他实质性的工作 读写数据,接受新的连接,以及处...
阿里面试官问我:如何设计秒杀系统?我的回答让他比起大拇指
你知道的越多,你不知道的越多 点赞再看,养成习惯 GitHub上已经开源 https://github.com/JavaFamily 有一线大厂面试点脑图和个人联系方式,欢迎Star和指教 前言 Redis在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在Redis的使用和原理方面对小伙伴们进行360°的刁难。 作为一个在互联网公司面一次拿一次Offer的面霸,打败了...
五年程序员记流水账式的自白。
不知觉已中码龄已突破五年,一路走来从起初铁憨憨到现在的十九线程序员,一路成长,虽然不能成为高工,但是也能挡下一面,从15年很火的android开始入坑,走过java、.Net、QT,目前仍处于android和.net交替开发中。 毕业到现在一共就职过两家公司,目前是第二家,公司算是半个创业公司,所以基本上都会身兼多职。比如不光要写代码,还要写软著、软著评测、线上线下客户对接需求收集...
C语言魔塔游戏
很早就很想写这个,今天终于写完了。 游戏截图: 编译环境: VS2017 游戏需要一些图片,如果有想要的或者对游戏有什么看法的可以加我的QQ 2985486630 讨论,如果暂时没有回应,可以在博客下方留言,到时候我会看到。 下面我来介绍一下游戏的主要功能和实现方式 首先是玩家的定义,使用结构体,这个名字是可以自己改变的 struct gamerole { char n...
一文详尽系列之模型评估指标
点击上方“Datawhale”,选择“星标”公众号第一时间获取价值内容在机器学习领域通常会根据实际的业务场景拟定相应的不同的业务指标,针对不同机器学习问题如回归、分类、排...
究竟你适不适合买Mac?
我清晰的记得,刚买的macbook pro回到家,开机后第一件事情,就是上了淘宝网,花了500元钱,找了一个上门维修电脑的师傅,上门给我装了一个windows系统。。。。。。 表砍我。。。 当时买mac的初衷,只是想要个固态硬盘的笔记本,用来运行一些复杂的扑克软件。而看了当时所有的SSD笔记本后,最终决定,还是买个好(xiong)看(da)的。 已经有好几个朋友问我mba怎么样了,所以今天尽量客观...
程序员一般通过什么途径接私活?
二哥,你好,我想知道一般程序猿都如何接私活,我也想接,能告诉我一些方法吗? 上面是一个读者“烦不烦”问我的一个问题。其实不止是“烦不烦”,还有很多读者问过我类似这样的问题。 我接的私活不算多,挣到的钱也没有多少,加起来不到 20W。说实话,这个数目说出来我是有点心虚的,毕竟太少了,大家轻喷。但我想,恰好配得上“一般程序员”这个称号啊。毕竟苍蝇再小也是肉,我也算是有经验的人了。 唾弃接私活、做外...
压测学习总结(1)——高并发性能指标:QPS、TPS、RT、吞吐量详解
一、QPS,每秒查询 QPS:Queries Per Second意思是“每秒查询率”,是一台服务器每秒能够相应的查询次数,是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准。互联网中,作为域名系统服务器的机器的性能经常用每秒查询率来衡量。 二、TPS,每秒事务 TPS:是TransactionsPerSecond的缩写,也就是事务数/秒。它是软件测试结果的测量单位。一个事务是指一...
Python爬虫爬取淘宝,京东商品信息
小编是一个理科生,不善长说一些废话。简单介绍下原理然后直接上代码。 使用的工具(Python+pycharm2019.3+selenium+xpath+chromedriver)其中要使用pycharm也可以私聊我selenium是一个框架可以通过pip下载 pip installselenium -ihttps://pypi.tuna.tsinghua.edu.cn/simple/ ...
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
Java工作4年来应聘要16K最后没要,细节如下。。。
前奏: 今天2B哥和大家分享一位前几天面试的一位应聘者,工作4年26岁,统招本科。 以下就是他的简历和面试情况。 基本情况: 专业技能: 1、&nbsp;熟悉Sping了解SpringMVC、SpringBoot、Mybatis等框架、了解SpringCloud微服务 2、&nbsp;熟悉常用项目管理工具:SVN、GIT、MAVEN、Jenkins 3、&nbsp;熟悉Nginx、tomca...
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆每天早上8:30推送 作者|Mr.K 编辑| Emma 来源|技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯...
程序员该看的几部电影
1、骇客帝国(1999) 概念:在线/离线,递归,循环,矩阵等 剧情简介: 不久的将来,网络黑客尼奥对这个看似正常的现实世界产生了怀疑。 他结识了黑客崔妮蒂,并见到了黑客组织的首领墨菲斯。 墨菲斯告诉他,现实世界其实是由一个名叫“母体”的计算机人工智能系统控制,人们就像他们饲养的动物,没有自由和思想,而尼奥就是能够拯救人类的救世主。 可是,救赎之路从来都不会一帆风顺,到底哪里才是真实的世界?如何...
Python绘图,圣诞树,花,爱心 | Turtle篇
每周每日,分享Python实战代码,入门资料,进阶资料,基础语法,爬虫,数据分析,web网站,机器学习,深度学习等等。 公众号回复【进群】沟通交流吧,QQ扫码进群学习吧 微信群 QQ群 1.画圣诞树 import turtle screen = turtle.Screen() screen.setup(800,600) circle = turtle.Turtle()...
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东...
还记得那个提速8倍的IDEA插件吗?VS Code版本也发布啦!!
去年,阿里云发布了本地 IDE 插件 Cloud Toolkit,仅 IntelliJ IDEA 一个平台,就有 15 万以上的开发者进行了下载,体验了一键部署带来的开发便利。时隔一年的今天,阿里云正式发布了 Visual Studio Code 版本,全面覆盖前端开发者,帮助前端实现一键打包部署,让开发提速 8 倍。 VSCode 版本的插件,目前能做到什么? 安装插件之后,开发者可以立即体验...
破14亿,Python分析我国存在哪些人口危机!
一、背景 二、爬取数据 三、数据分析 1、总人口 2、男女人口比例 3、人口城镇化 4、人口增长率 5、人口老化(抚养比) 6、各省人口 7、世界人口 四、遇到的问题 遇到的问题 1、数据分页,需要获取从1949-2018年数据,观察到有近20年参数:LAST20,由此推测获取近70年的参数可设置为:LAST70 2、2019年数据没有放上去,可以手动添加上去 3、将数据进行 行列转换 4、列名...
2019年除夕夜的有感而发
天气:小雨(加小雪) 温度:3摄氏度 空气:严重污染(399) 风向:北风 风力:微风 现在是除夕夜晚上十点钟,再有两个小时就要新的一年了; 首先要说的是我没患病,至少现在是没有患病;但是心情确像患了病一样沉重; 现在这个时刻应该大部分家庭都在看春晚吧,或许一家人团团圆圆的坐在一起,或许因为某些特殊原因而不能团圆;但不管是身在何处,身处什么境地,我都想对每一个人说一句:新年快乐! 不知道csdn这...
听说想当黑客的都玩过这个Monyer游戏(1~14攻略)
第零关 进入传送门开始第0关(游戏链接) 请点击链接进入第1关: 连接在左边→ ←连接在右边 看不到啊。。。。(只能看到一堆大佬做完的留名,也能看到菜鸡的我,在后面~~) 直接fn+f12吧 &lt;span&gt;连接在左边→&lt;/span&gt; &lt;a href="first.php"&gt;&lt;/a&gt; &lt;span&gt;←连接在右边&lt;/span&gt; o...
在家远程办公效率低?那你一定要收好这个「在家办公」神器!
相信大家都已经收到国务院延长春节假期的消息,接下来,在家远程办公可能将会持续一段时间。 但是问题来了。远程办公不是人在电脑前就当坐班了,相反,对于沟通效率,文件协作,以及信息安全都有着极高的要求。有着非常多的挑战,比如: 1在异地互相不见面的会议上,如何提高沟通效率? 2文件之间的来往反馈如何做到及时性?如何保证信息安全? 3如何规划安排每天工作,以及如何进行成果验收? ...... ...
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!...
2020年的1月,我辞掉了我的第一份工作
其实,这篇文章,我应该早点写的,毕竟现在已经2月份了。不过一些其它原因,或者是我的惰性、还有一些迷茫的念头,让自己迟迟没有试着写一点东西,记录下,或者说是总结下自己前3年的工作上的经历、学习的过程。 我自己知道的,在写自己的博客方面,我的文笔很一般,非技术类的文章不想去写;另外我又是一个还比较热衷于技术的人,而平常复杂一点的东西,如果想写文章写的清楚点,是需要足够...
别低估自己的直觉,也别高估自己的智商
所有群全部吵翻天,朋友圈全部沦陷,公众号疯狂转发。这两周没怎么发原创,只发新闻,可能有人注意到了。我不是懒,是文章写了却没发,因为大家的关注力始终在这次的疫情上面,发了也没人看。当然,我...
这个世界上人真的分三六九等,你信吗?
偶然间,在知乎上看到一个问题 一时间,勾起了我深深的回忆。 以前在厂里打过两次工,做过家教,干过辅导班,做过中介。零下几度的晚上,贴过广告,满脸、满手地长冻疮。 再回首那段岁月,虽然苦,但让我学会了坚持和忍耐。让我明白了,在这个世界上,无论环境多么的恶劣,只要心存希望,星星之火,亦可燎原。 下文是原回答,希望能对你能有所启发。 如果我说,这个世界上人真的分三六九等,...
节后首个工作日,企业们集体开晨会让钉钉挂了
By 超神经场景描述:昨天 2 月 3 日,是大部分城市号召远程工作的第一天,全国有接近 2 亿人在家开始远程办公,钉钉上也有超过 1000 万家企业活跃起来。关键词:十一出行 人脸...
Java基础知识点梳理
虽然已经在实际工作中经常与java打交道,但是一直没系统地对java这门语言进行梳理和总结,掌握的知识也比较零散。恰好利用这段时间重新认识下java,并对一些常见的语法和知识点做个总结与回顾,一方面为了加深印象,方便后面查阅,一方面为了掌握好Android打下基础。
2020年全新Java学习路线图,含配套视频,学完即为中级Java程序员!!
新的一年来临,突如其来的疫情打破了平静的生活! 在家的你是否很无聊,如果无聊就来学习吧! 世上只有一种投资只赚不赔,那就是学习!!! 传智播客于2020年升级了Java学习线路图,硬核升级,免费放送! 学完你就是中级程序员,能更快一步找到工作! 一、Java基础 JavaSE基础是Java中级程序员的起点,是帮助你从小白到懂得编程的必经之路。 在Java基础板块中有6个子模块的学...
B 站上有哪些很好的学习资源?
哇说起B站,在小九眼里就是宝藏般的存在,放年假宅在家时一天刷6、7个小时不在话下,更别提今年的跨年晚会,我简直是跪着看完的!! 最早大家聚在在B站是为了追番,再后来我在上面刷欧美新歌和漂亮小姐姐的舞蹈视频,最近两年我和周围的朋友们已经把B站当作学习教室了,而且学习成本还免费,真是个励志的好平台ヽ(.◕ฺˇд ˇ◕ฺ;)ノ 下面我们就来盘点一下B站上优质的学习资源: 综合类 Oeasy: 综合...
相关热词 c# 数组类型 泛型约束 c#的赛狗日程序 c# 传递数组 可变参数 c# 生成存储过程 c# list 补集 c#获得所有窗体 c# 当前秒数转成年月日 c#中的枚举 c# 计算校验和 连续随机数不重复c#
立即提问