mysql count 优化问题 5C

使用jdbcTemplate,做统一的分页查询的时候,
count(*)在数据量大的时候,总数查询非常慢,
有什么好的解决方案,
count(1)和count(*)就不要说了
也建了适当的索引,
使用结果集的游标直接指向最后能有效果么?

5个回答

count(索引),你分页查询要count干嘛?

 count(id)

分页了,还要cont是为了显示总条数?

大概的一个解决方案:

在某个空闲时间。比如每天0点,统计你要分页的这个表的总数,保存到另外一个表的字段里面去,
在当天之后的时间里,每次新增、删除数据到这个表的时候,同步更新另外一个表里面的总数。

这样每次获取的时候可以直接获取。

首先count(主键)肯定比count(*)|count(1)快,count(*)|count(1)的效率没有太大差别,count(主键)效率明显高
其次:你的场景是数据量非常大,呢么,用户很少会翻到最后一页,所以,可以将总数缓存起来,比如缓存到redis,当用户翻到最后一页的时候,再执行count更新redis缓存总数.另外可以设置一个定时任务,比如每隔2个小时,进行一次自动更新缓存,当然,这个有呢个万一的可能性就是用户在读最后一页,这时候执行更新,而定时任务恰好也执行!但是因为数据量非常大,这个总数本就可以做为一个近似数,没有必要保证一定是多少,所以这个误差完全空可以忽略不计,在这样的前提下,呢么等于你每次分页只需要拿你某一页的数据去数据库查,而永远不需要进行count计算,效率肯定快,而你的count计算要么是定时任务更新,要么是用户触发最后一页.所以这样的情况下,效率会高很多

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
mysql 多表join count数据很慢

问题如题 ``` SELECT COUNT(1) FROM wf_workitem a -- 总数量159521 JOIN wf_activityinst b ON b.id = a.activityinst_id -- 总数量209453 JOIN wf_processinst c ON c.id = b.processinst_id -- 总数量26307 WHERE a.operate_user = '7424' AND a.current_state = 'AGREE' AND c.comp_id = '4715C67AD2B0457A81D32CC0B1148840' AND c.proj_id = '' ``` 解析计划 ![图片说明](https://img-ask.csdn.net/upload/201901/23/1548231268_879455.png) sql执行需要10s左右, 求给点优化建议

mysql 百万数据库 count 1秒内出结果

sql1: ``` SELECT count(*) FROM t_order T FORCE INDEX(cc) where T.del_status = '0' and T.is_project_order = '0' and T.firstperson = '' AND T.serverUserId = 'cdbcd902dbe411e89c777cd30ae00302 ``` 执行计划: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557237102_762705.png) --------------------------------------------------------------------------------------------------- sql2: ``` select count(T.id) from t_order T where T.is_project_order = '0' and T.del_status = '0' and T.`status` not in ( 'ORDERCOMPLETE') ``` 执行计划: ![图片说明](https://img-ask.csdn.net/upload/201905/07/1557237221_471823.png) t_order表 索引 ![图片说明](https://img-ask.csdn.net/upload/201905/08/1557279517_739021.png) 请教如何优化到1s内 目前百万数据库中执行下来是2s多

mysql left join效率优化

通过下面sql查询商品库存数量,因为库存表里面的库存是很多仓库的库存数据,在left join的时候又要做一个表连接,这样查询的时候效率非常低,如果left join一个表就很快,但是无法满足需求,请大神门帮忙优化下sql,谢谢 select g.*,gsd.number from goods g left join (select gs.goods_id,sum(gs.number) number from goods_stock gs,warehouses w where gs.warehouse_id=w.id group by gs.goods_id and w.id='123456789') gsw on(g.id=gsd.goods_id)

mysql 百万级数据 sql优化

百万级数据,要求3s内出结果,索引都加上了 贴上sql ``` SELECT T.lockbalance_status AS lockbalanceStatus, T.order_merinstalltype AS orderMerinstalltype, T.order_id AS orderId, T.serverUserId, date_format( T.order_time, '%Y-%m-%d %H:%i:%s' ) AS orderTime, T.order_no AS orderNo, T.is_project_order AS isProjectOrder, T.STATUS, T.user_id AS userId, T.insert_user AS userName, T.serverUserId AS serverUserName, T.organ_name AS organName, T.leadingoffice_name AS leadingofficeName, T.order_type AS orderType, T.is_self_paying AS isSelfPaying, T.account_name AS accountName, T.account_mobile AS accountMobile, T.account_address AS accountAddress, T.province_id AS provinceId, T.city_id AS cityId, T.area_id AS areaId, T.install_userid AS installUserName, date_format( T.install_time, '%Y-%m-%d %H:%i:%s' ) AS installTime, date_format( T.order_completetime, '%Y-%m-%d %H:%i:%s' ) AS completetime, T.is_ergent AS isErgent, date_format( T.allocationtime, '%Y-%m-%d %H:%i:%s' ) AS allocationtime, date_format( T.install_time_again, '%Y-%m-%d %H:%i:%s' ) AS installTimeAgain, date_format( T.assign_again_time, '%Y-%m-%d %H:%i:%s' ) AS assignAgainTime, T.dealOver AS dealOver, date_format( T.alarm_time_again, '%Y-%m-%d %H:%i:%s' ) AS alarmTimeAgain, date_format( T.order_takingtime, '%Y-%m-%d %H:%i:%s' ) AS orderTakingtime, date_format( T.logistics_time, '%Y-%m-%d %H:%i:%s' ) AS logisticsTime, T.is_logistics_time AS isLogisticsTime, T.firstperson AS firstPersonId, T.firstperson AS firstPersonName, T.program_id AS programId, T.program_name AS programName, T.program_manager AS programManager, date_format( T.insert_time, '%Y-%m-%d %H:%i:%s' ) AS programTime, date_format( T.p_setProject_time, '%Y-%m-%d' ) AS setProjectTime, date_format( T.noSettlementTime, '%Y-%m-%d %H:%i:%s' ) AS noSettlementTime, T.installremark AS installRemark, T.lockSmithRemark AS lockSmithRemark, T.order_remark AS orderRemark, T.audit_status AS auditStatus, CASE WHEN T.firstperson = 'cdbcd902dbe411e89c777cd30ae00302' THEN 0 WHEN T.serverUserId = 'cdbcd902dbe411e89c777cd30ae00302' THEN 1 ELSE 2 END AS flag FROM t_order T WHERE T.is_project_order = '0' AND T.del_status = '0' ORDER BY flag, T.order_time DESC LIMIT 10 ``` 截图为原来执行计划 ![图片说明](https://img-ask.csdn.net/upload/201905/06/1557121468_320238.png) 根据各位大神提供的方案,优化了一波,贴上优化后的执行计划 ![图片说明](https://img-ask.csdn.net/upload/201905/06/1557125323_506958.png) 但是依旧达不到速度要求 flag 是业务需要,客户希望与自己有关的数据优先展示 目前执行下来sql需要10s多 求各位大神支招,在线等。

请问有条件的COUNT查询该怎么优化

这段sql除了加索引 还可以怎么优化 1000W条需要10几s ``` SELECT count(1) from 表名 where create_datetime>='2015-10-28' and create_datetime<='2018-11-29' ```

mysql 大数据量查询优化

请教大神,关于mysql优化的,目前有三个字段, host(varchar2), sip(varchar2),request(text),这三个字段是用 or 来模糊查询的,这表也经常更新,目前数据500多万, 查询有点慢,怎么优化呀

关联查询,mysql子查询优化问题

求大神帮优化下这个sql,这个sql用到导出数据中,这个sql是先查查1600条课程,然后子查询查出该门课程的分数返回,1600条数据全部导出需要快5分钟。主要应该是评价统计主表有evaluation_statistical9万条数据原因,有时导出甚至直接请求超时了,求大神帮优化。 SELECT DISTINCT j2.KCDM, j2.KCMC, j2.JSZGH, j2.JSXM,( SELECT ( SELECT sum(e5.level_score) FROM `evaluation_statistical` e4 JOIN evaluation_level e5 ON e4.level_id = e5.level_id WHERE e4.bpjr_id=j2.JSZGH and e4.semester_id = '44a4424321114e7499715d0b1f46ed96' AND e4.course_id = j2.KCDM ) / ( SELECT count(1) FROM `evaluation_statistical` e3 WHERE e3.bpjr_id=j2.JSZGH and e3.semester_id ='44a4424321114e7499715d0b1f46ed96' AND e3.course_id = j2.KCDM ) ) as score FROM jw_jskcb j2 WHERE CONCAT(j2.JSZGH,j2.KCDM) IN (SELECT DISTINCT CONCAT(e.bpjr_id,e.course_id) FROM evaluation_statistical e WHERE e.isinvalid = '1' AND e.evaluation_state = '1')

MYSQL查询优化的问题 多条件 in查询

``` SELECT `userid` FROM `esys_sysusersets` WHERE ( `groupid` = '102' AND `userrole` < '3' ) OR ( `groupid` = '103' AND `userrole` < '3' ) ) ``` 返回的是一个数组 如果直接把语句放到另一个查询里 in的地方用语句 ``` SELECT `id`,`createat`,`createby`,`clientid`,`contactid`,`contactway`,`contactlog` FROM esys_dbcontactlogs esys WHERE ( ( `createby` = '100' or `createby` in (SELECT `userid` FROM `esys_sysusersets` WHERE ( `groupid` = '102' AND `userrole` < '3' ) OR ( `groupid` = '103' AND `userrole` < '3' ) ) ) ) AND ( `dstatus` = 1 ) ORDER BY `id` desc LIMIT 0,10 ``` [ RunTime:0.0112s ] ``` SELECT COUNT(id) AS tp_count FROM esys_dbcontactlogs esys WHERE ( ( `createby` = '100' or `createby` in (SELECT `userid` FROM `esys_sysusersets` WHERE ( `groupid` = '102' AND `userrole` < '3' ) OR ( `groupid` = '103' AND `userrole` < '3' ) ) ) ) AND ( `dstatus` = 1 ) LIMIT 1 ``` [ RunTime:24.0147s ] in的地方先把语句执行了 返回列表 再进行查询 ``` SELECT `id`,`createat`,`createby`,`clientid`,`contactid`,`contactway`,`contactlog` FROM esys_dbcontactlogs esys WHERE ( ( `createby` = '100' or `createby` in (659,708,720,725,728,744,757,795,803,833,835,837,847,849,851,856,858,883,884,885,886,887,888,927,932,937,945,947,953,958,963,964,965,966,967,968,1006,1013,1014,1016) ) ) AND ( `dstatus` = 1 ) ORDER BY `id` desc LIMIT 0,10 ``` [ RunTime:0.0007s ] ``` SELECT COUNT(id) AS tp_count FROM esys_dbcontactlogs esys WHERE ( ( `createby` = '100' or `createby` in (659,708,720,725,728,744,757,795,803,833,835,837,847,849,851,856,858,883,884,885,886,887,888,927,932,937,945,947,953,958,963,964,965,966,967,968,1006,1013,1014,1016) ) ) AND ( `dstatus` = 1 ) LIMIT 1 ``` [ RunTime:0.5297s ] 两者效率为什么差这么多呢 esys_dbcontactlogs的数据量在60W左右

mysql not in 如何进行性能优化

如何优化mysql not in : 语句: select A.* from A where A.id not in ( select B.aid from B where B.id !=1 )

mysql百万数据查重优化

在mysql数据库中有一张人员信息表,数据量 100万以上,根据姓名、性别、身份证号等基本信息查询出重复的数据。如何能快速查出数据。 ![图片说明](https://img-ask.csdn.net/upload/201902/20/1550644793_798915.png) 求教如何优化。

数据库mysql查询优化问题

最近做项目遇到一些mysql数据库查询优化的问题,单表查询一百万左右的数据,select count(*) 查询比较慢,如果再有分页查询,按条件查询又比较慢,各位有没有好的优化建议?

关于mysql 查询记录总数的优化问题

SELECT count(*) FROM `partner`.`vas_cpmt_log` where adate between '2010-07-27' and '2010-07-28' and serviceid = 'CPKayIVR0100T ' and cptelco = 'dtac'; adate,serviceid, cptelco已经都有索引了 这个条件查询出来有39w...但是差不多要10s 不知道有没有更好的优化方案 表sql为: [code="java"] CREATE TABLE `vas_cpmt_log` ( `mtid` varchar(30) NOT NULL, `adate` datetime DEFAULT NULL, `linkid` varchar(50) DEFAULT NULL, `telco` char(4) DEFAULT NULL, `cptelco` varchar(10) DEFAULT NULL, `channeltype` varchar(10) DEFAULT NULL, `serviceid` varchar(20) DEFAULT NULL, `srcnumber` varchar(30) DEFAULT NULL, `destnumber` varchar(30) DEFAULT NULL, `chargenumber` varchar(30) DEFAULT NULL, `extendcode` varchar(20) DEFAULT NULL, `msgtype` varchar(10) DEFAULT NULL, `content` varchar(8000) DEFAULT NULL, `rpt_status` int(11) DEFAULT NULL, `rpt_remark` varchar(200) DEFAULT NULL, PRIMARY KEY (`mtid`), KEY `serviceid` (`serviceid`), KEY `adate` (`adate`), KEY `cptelco` (`cptelco`) ) ENGINE=InnoDB [/code]

mysql 分组合计sql求优化

有两表T1,T2。<br> T1约9000条数据,有以下列:<br> id,eid,name<br> T2约50000条数据,有以下列:<br> id,eid,num<br> <br> 现要查出T1表中eid在T2表中同一个eid的num合计,其中求合计后的数据总数sql如下,耗时5秒,求优化: ``` SELECT COUNT(*) FROM( SELECT T1.id,T1.eid,T1.name, t.num FROM T1 LEFT JOIN (SELECT eid, COUNT(*) AS num FROM T2 GROUP BY eid) t ON t.eid = T1.eid WHERE t.num > 0 ) t ```

【MySQL】百万级的数据统计SQL求优化!!!

### 业务描述 因为要进行一次图表统计,统计内容为某部门或者全部门某日期段的任务数和完成数。 ### 表单和使用字段 sys_office(部门表:id-索引,name,code-索引) 统计数量:select count(0) from sys_office ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550163_133218.png) plan_detail(计划表:office_id-索引,createtime-索引) 统计数量:select count(0) from plan_detail ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550326_141721.png) ### 统计SQL ```sql SELECT COUNT(0) FROM ( SELECT t1.office_id FROM plan_detail t1 WHERE t1.createtime >= '2019-11-01' AND t1.createtime <= '2019-11-12' GROUP BY t1.office_id,t1.createtime ) t1 GROUP BY t1.office_id ``` 结果: ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550955_602104.png) ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550968_254775.png) 求优化

mysql执行计划优化,如何为如下sql创建索引

涉及到的表如下 DD07T 40多万 JEST 5千多万 ANEK 4百多万 ANEP 1千8百多万 PRPS 8百多万 PROJ 40多万 ANLA 7百多万 sql语句如下 ``` select count(*) from (select DISTINCT a.PSPID, a.post1, a.PSPNR from PROJ a LEFT join JEST b on a.OBJNR = b.OBJNR ) a inner join PRPS c on a.PSPNR = c.PSPHI inner join DD07T d on d.DOMNAME = 'ZDFMIS' and d.DOMVALUE_L = c.ZZFMIS inner join ANLA e on c.PSPNR = e.POSNR inner join ANEP f on f.ANLN1 = e.ANLN1 and f.BUKRS = e.BUKRS inner join ANEK g on f.BUKRS = g.BUKRS and f.ANLN1 = g.ANLN1; ``` 如何在以上各表创建索引 ,可以优化查询

mysql查询性能优化(数据量非常小,但查询很慢,初步确认是因为使用了左外连接)

首先,是这么一段sql: <br/> <font color="red">**SQL 1:**</font> <br/> ``` sql SELECT d.id, d.project_code, d.push_type, d.push_name, d.push_to, d.push_from, d.push_way, tr.isread, d.push_content, d.push_attachment, d.add_time, d.push_status, d.push_reviewer, push_time, d.reviewer_time, d.push_class, d.rel_object, p.short_name AS project_name, u1. NAME AS push_to_name, u2. NAME AS push_from_name, u3. NAME AS push_reviewer_name FROM tb_push_data d LEFT JOIN tb_project p ON p.short_code = d.project_code LEFT JOIN tb_user u1 ON u1. CODE = d.push_to LEFT JOIN tb_user u2 ON u2. CODE = d.push_from LEFT JOIN tb_user u3 ON u3. CODE = d.push_reviewer LEFT JOIN tb_push_log tr ON tr.pushdata_id = d.id WHERE 1 = 1 AND d.add_time BETWEEN '2017-01-01' and '2018-01-11' GROUP BY d.id LIMIT 0,100 受影响的行: 0 时间: 24.933s ``` <br/> 可以看到,仅仅是100条数据,查询时间竟然高达24秒,于是我尝试将左外连接改为交叉连接: <br/> <font color="red">**SQL 2:**</font> ``` sql SELECT d.id, d.project_code, d.push_type, d.push_name, d.push_to, d.push_from, d.push_way, tr.isread, d.push_content, d.push_attachment, d.add_time, d.push_status, d.push_reviewer, push_time, d.reviewer_time, d.push_class, d.rel_object, p.short_name AS project_name, u1. NAME AS push_to_name, u2. NAME AS push_from_name, u3. NAME AS push_reviewer_name FROM tb_push_data d, tb_project p, tb_user u1, tb_user u2, tb_user u3, tb_push_log tr WHERE 1 = 1 and p.short_code = d.project_code and u1. CODE = d.push_to and u2. CODE = d.push_from and u3. CODE = d.push_reviewer and tr.pushdata_id = d.id AND d.add_time BETWEEN '2017-01-01' and '2018-01-11' GROUP BY d.id LIMIT 0,100 受影响的行: 0 时间: 0.189s ``` <br/> 这一下查询时间终于算是正常了,看来很多人说的数据库查询不用外键不用join还是有道理的。 但是这又出现了一个问题,<font color="red">**因为SQL 2没有使用外连接,比如我某条数据是没有推送人的,那这条记录都显示不出来了。**</font> <br/> 那么,针对目前的这种情况,该如何优化?

MySql 数据统计Update Select优化

请教下各位大神,mysq update数据优化 遇到的问题是这样的。 表a有2个字段,ready_count,download_count 表b是统计表,有type,id 两个表的储存引擎都是MYISAM 需要把表b的数据count(1) group by(type)之后update到表a的那两个字段中。 我现在的SQL是这样的: update a _t1 set _t1.ready_count = ( SELECT count(1) FROM b _t2 WHERE _t2.tid = _t1.id and _t2.type = 1 ), _t1.download_count = ( SELECT count(1) FROM b _t2 WHERE _t2.tid = _t1.id and _t2.type = 2 ),

使用GROUP BY优化MySQL查询时遇到问题... HAVING

<div class="post-text" itemprop="text"> <p>I'm trying to optimize <em>quickly</em> optimize the search functionality of some outdated forum software written in PHP. I've got my work down to a query that looks like this:</p> <pre><code>SELECT thread.threadid FROM thread AS thread INNER JOIN word AS word ON (word.title LIKE 'word1' OR word.title LIKE 'word2') INNER JOIN postindex AS postindex ON (postindex.wordid = word.wordid) INNER JOIN post AS postquery ON (postquery.postid = postindex.postid) WHERE thread.threadid = postquery.threadid GROUP BY thread.threadid HAVING COUNT(DISTINCT word.wordid) = 2 LIMIT 25; </code></pre> <p><code>word1</code> and <code>word2</code> are examples; there could be any number of words. The number at the very end of the query is the total number of words. The idea is that a thread most contain all words in the search query, spread out over any number of posts.</p> <p>This query often exceeds 60 seconds with only two words, and times out. I'm stumped; I can't figure out how to further optimize this horrid search engine.</p> <p>As far as I can tell, everything is indexed properly, and I've run <code>ANALYZE</code> recently. Most of the database is running on InnoDB. Here's the output of <code>EXPLAIN</code>:</p> <pre><code>+----+-------------+-----------+--------+----------------------------------------------------------------------------------------+---------+---------+------------------------------+------+-----------------------------------------------------------+ | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra | +----+-------------+-----------+--------+----------------------------------------------------------------------------------------+---------+---------+------------------------------+------+-----------------------------------------------------------+ | 1 | SIMPLE | word | range | PRIMARY,title | title | 150 | NULL | 2 | Using where; Using index; Using temporary; Using filesort | | 1 | SIMPLE | postindex | ref | wordid,temp_ix | temp_ix | 4 | database1.word.wordid | 3 | Using index condition | | 1 | SIMPLE | postquery | eq_ref | PRIMARY,threadid,showthread | PRIMARY | 4 | database1.postindex.postid | 1 | NULL | | 1 | SIMPLE | thread | eq_ref | PRIMARY,forumid,postuserid,pollid,title,lastpost,dateline,prefixid,tweeted,firstpostid | PRIMARY | 4 | database1.postquery.threadid | 1 | Using index | +----+-------------+-----------+--------+----------------------------------------------------------------------------------------+---------+---------+------------------------------+------+-----------------------------------------------------------+ </code></pre> <h2>Update</h2> <p><code>LIMIT 25</code> doesn't seem to be helping much. It shaves off maybe second from a query that normally returns hundreds of results.</p> <h2>Clarification</h2> <p>The part that's slowing down MySQL is the <code>GROUP BY ... HAVING ...</code> bit. With <code>GROUP BY</code>, the <code>LIMIT</code> is pretty much useless for improving performance. Without <code>GROUP BY</code>, and as long as the <code>LIMIT</code> remains, the queries are quite speedy.</p> <h2>SQL Info</h2> <p>Output of <code>SHOW CREATE TABLE postindex;</code>:</p> <pre><code>CREATE TABLE `postindex` ( `wordid` int(10) unsigned NOT NULL DEFAULT '0', `postid` int(10) unsigned NOT NULL DEFAULT '0', `intitle` smallint(5) unsigned NOT NULL DEFAULT '0', `score` smallint(5) unsigned NOT NULL DEFAULT '0', UNIQUE KEY `wordid` (`wordid`,`postid`), KEY `temp_ix` (`wordid`), KEY `postid` (`postid`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8 </code></pre> <p>I didn't make the table, so I have no idea why there's a duplicate index on wordid; however, I'm not willing to delete it, since this is ancient, fickle software.</p> </div>

从没有主键的MySQL表中获取随机行 - 已优化

<div class="post-text" itemprop="text"> <p>So here's my mission: return a random row from a MySQL table with no primary key. A quick search returned <a href="http://www.petefreitag.com/item/466.cfm" rel="nofollow">this page</a> and this solution:</p> <pre><code>SELECT column FROM table ORDER BY RAND() LIMIT 1; </code></pre> <p>Unfortunately, the solution is not optimized, as <a href="http://akinas.com/pages/en/blog/mysql_random_row/" rel="nofollow">this site</a> makes clear. They propose the following fix, which is in PHP:</p> <pre><code>$offset_result = mysql_query( " SELECT FLOOR(RAND() * COUNT(*)) AS `offset` FROM `table` "); $offset_row = mysql_fetch_object( $offset_result ); $offset = $offset_row-&gt;offset; $result = mysql_query( " SELECT * FROM `table` LIMIT $offset, 1 " ); </code></pre> <p>Good enough as I'll be publishing this on a page, but in the meantime I need to try it in raw MySQL. So I punched in:</p> <pre><code>SELECT * FROM `table` LIMIT (SELECT FLOOR(RAND() * COUNT(*)) FROM `table`), 1; </code></pre> <p>... and got the following error:</p> <pre><code>#1064 - You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near '(SELECT FLOOR(RAND() * COUNT(*)) FROM `table`), 1' at line 3 </code></pre> <p>But I don't understand, because the individual components work perfectly. If I enter:</p> <pre><code>SELECT FLOOR(RAND() * COUNT(*)) FROM `table` </code></pre> <p>... I get a random number from 0 up to the number of rows minus 1. Likewise, if I enter:</p> <pre><code>SELECT * FROM `table` LIMIT 2, 1 </code></pre> <p>... I get the third row in the table (or the fourth row if I substitute 3 for 2, etc.)</p> <p>What am I doing wrong?? Thanks in advance!</p> </div>

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

外包程序员的幸福生活

今天给你们讲述一个外包程序员的幸福生活。男主是Z哥,不是在外包公司上班的那种,是一名自由职业者,接外包项目自己干。接下来讲的都是真人真事。 先给大家介绍一下男主,Z哥,老程序员,是我十多年前的老同事,技术大牛,当过CTO,也创过业。因为我俩都爱好喝酒、踢球,再加上住的距离不算远,所以一直也断断续续的联系着,我对Z哥的状况也有大概了解。 Z哥几年前创业失败,后来他开始干起了外包,利用自己的技术能...

C++11:一些微小的变化(新的数据类型、template表达式内的空格、nullptr、std::nullptr_t)

本文介绍一些C++的两个新特性,它们虽然微小,但对你的编程十分重要 一、Template表达式内的空格 C++11标准之前建议在“在两个template表达式的闭符之间放一个空格”的要求已经过时了 例如: vector&lt;list&lt;int&gt; &gt;; //C++11之前 vector&lt;list&lt;int&gt;&gt;; //C++11 二、nullptr ...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

深入剖析Springboot启动原理的底层源码,再也不怕面试官问了!

大家现在应该都对Springboot很熟悉,但是你对他的启动原理了解吗?

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

【阿里P6面经】二本,curd两年,疯狂复习,拿下阿里offer

二本的读者,在老东家不断学习,最后逆袭

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!...

作者 | 伍杏玲出品 | CSDN(ID:CSDNnews)格子衬衫、常掉发、双肩包、修电脑、加班多……这些似乎成了大众给程序员的固定标签。近几年流行的“跨界风”开始刷新人们对程序员的...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

我说我懂多线程,面试官立马给我发了offer

不小心拿了几个offer,有点烦

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

立即提问
相关内容推荐