mysql百万数据查重优化

在mysql数据库中有一张人员信息表,数据量 100万以上,根据姓名、性别、身份证号等基本信息查询出重复的数据。如何能快速查出数据。
图片说明
求教如何优化。

2个回答

可以考虑加个字段mdv,字段是‘所有要验证重复字段加起来’的MD5值之类的
然后给这个字段建立索引
然后select * from t_case_info a where exists(select 1 from t_case_info b where a.mdv=b.mdv and a.id<>b.id)

方案1:
select t.id, t.name, t.ssid from t_case_info t join (
  select id, name, ssid from t_case_info where is_del='0' and reportdate >= '2003-01-01' and reportdate <= '2003-01-31' group by name,ssid having count(1) > 1
) r on t.name = r.name and t.ssid = r.ssid 
where t.is_del='0' and t.reportdate >= '2003-01-01' and t.reportdate <= '2003-01-01';

方案2:
1、创建临时表,把重复的name和ssid存入临时表
CREATE TEMPORARY TABLE r_info
(
  id varchar(32) NOT NULL,
  name varchar(255),
  ssid varchar(25)
  KEY idx(ssid, name)
)ENGINE=MEMORY DEFAULT CHARSET=utf8 ;
2、关联查询
insert into r_info(id, name, ssid) select id, name, ssid from t_case_info where is_del='0' and reportdate >= '2003-01-01' and reportdate <= '2003-01-31' group by name,ssid having count(1) > 1;
select t.id, t.name, t.ssid from t_case_info t join r_info r on t.name = r.name and t.ssid = r.ssid 
where t.is_del='0' and t.reportdate >= '2003-01-01' and t.reportdate <= '2003-01-01';
u014394665
巨蟹糖朵 这种方式也试过,速度很慢,请问您还有别的方式吗?
一年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
mysql 百万级数据 sql优化

百万级数据,要求3s内出结果,索引都加上了 贴上sql ``` SELECT T.lockbalance_status AS lockbalanceStatus, T.order_merinstalltype AS orderMerinstalltype, T.order_id AS orderId, T.serverUserId, date_format( T.order_time, '%Y-%m-%d %H:%i:%s' ) AS orderTime, T.order_no AS orderNo, T.is_project_order AS isProjectOrder, T.STATUS, T.user_id AS userId, T.insert_user AS userName, T.serverUserId AS serverUserName, T.organ_name AS organName, T.leadingoffice_name AS leadingofficeName, T.order_type AS orderType, T.is_self_paying AS isSelfPaying, T.account_name AS accountName, T.account_mobile AS accountMobile, T.account_address AS accountAddress, T.province_id AS provinceId, T.city_id AS cityId, T.area_id AS areaId, T.install_userid AS installUserName, date_format( T.install_time, '%Y-%m-%d %H:%i:%s' ) AS installTime, date_format( T.order_completetime, '%Y-%m-%d %H:%i:%s' ) AS completetime, T.is_ergent AS isErgent, date_format( T.allocationtime, '%Y-%m-%d %H:%i:%s' ) AS allocationtime, date_format( T.install_time_again, '%Y-%m-%d %H:%i:%s' ) AS installTimeAgain, date_format( T.assign_again_time, '%Y-%m-%d %H:%i:%s' ) AS assignAgainTime, T.dealOver AS dealOver, date_format( T.alarm_time_again, '%Y-%m-%d %H:%i:%s' ) AS alarmTimeAgain, date_format( T.order_takingtime, '%Y-%m-%d %H:%i:%s' ) AS orderTakingtime, date_format( T.logistics_time, '%Y-%m-%d %H:%i:%s' ) AS logisticsTime, T.is_logistics_time AS isLogisticsTime, T.firstperson AS firstPersonId, T.firstperson AS firstPersonName, T.program_id AS programId, T.program_name AS programName, T.program_manager AS programManager, date_format( T.insert_time, '%Y-%m-%d %H:%i:%s' ) AS programTime, date_format( T.p_setProject_time, '%Y-%m-%d' ) AS setProjectTime, date_format( T.noSettlementTime, '%Y-%m-%d %H:%i:%s' ) AS noSettlementTime, T.installremark AS installRemark, T.lockSmithRemark AS lockSmithRemark, T.order_remark AS orderRemark, T.audit_status AS auditStatus, CASE WHEN T.firstperson = 'cdbcd902dbe411e89c777cd30ae00302' THEN 0 WHEN T.serverUserId = 'cdbcd902dbe411e89c777cd30ae00302' THEN 1 ELSE 2 END AS flag FROM t_order T WHERE T.is_project_order = '0' AND T.del_status = '0' ORDER BY flag, T.order_time DESC LIMIT 10 ``` 截图为原来执行计划 ![图片说明](https://img-ask.csdn.net/upload/201905/06/1557121468_320238.png) 根据各位大神提供的方案,优化了一波,贴上优化后的执行计划 ![图片说明](https://img-ask.csdn.net/upload/201905/06/1557125323_506958.png) 但是依旧达不到速度要求 flag 是业务需要,客户希望与自己有关的数据优先展示 目前执行下来sql需要10s多 求各位大神支招,在线等。

Mysql批量查重后存储的实现求助

求助大神,一个PHP+Mysql的项目,现从其他站点获取到了json,处理以后需要存到mysql,json里边最多可能会同时存100条数据。 本人思路: insert into info_table (name,tel,info,time,url) values ('张三 ','15888888888','计算机系','1525765835','http://a.com,'),('李四 ','15888888881','计算机系','1525765835','http://b.com,'); 但是我发现这样存储下来的结果是,如果数据库里边已经有号码tel相同的记录了,他还会再把它存下来, tel在系统里边是唯一的,一个tel只有一条记录,所以批量存之前需要先查tel在数据库里边有没有存在,如果存在,就跳过(更新该记录的时间也行),如果不存在,就存储这条记录 表结构: id, name, tel, time, url, info 请求大神给一条sql解决这个问题

【MySQL】百万级的数据统计SQL求优化!!!

### 业务描述 因为要进行一次图表统计,统计内容为某部门或者全部门某日期段的任务数和完成数。 ### 表单和使用字段 sys_office(部门表:id-索引,name,code-索引) 统计数量:select count(0) from sys_office ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550163_133218.png) plan_detail(计划表:office_id-索引,createtime-索引) 统计数量:select count(0) from plan_detail ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550326_141721.png) ### 统计SQL ```sql SELECT COUNT(0) FROM ( SELECT t1.office_id FROM plan_detail t1 WHERE t1.createtime >= '2019-11-01' AND t1.createtime <= '2019-11-12' GROUP BY t1.office_id,t1.createtime ) t1 GROUP BY t1.office_id ``` 结果: ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550955_602104.png) ![图片说明](https://img-ask.csdn.net/upload/201911/12/1573550968_254775.png) 求优化

mysql 大数据量查询优化

请教大神,关于mysql优化的,目前有三个字段, host(varchar2), sip(varchar2),request(text),这三个字段是用 or 来模糊查询的,这表也经常更新,目前数据500多万, 查询有点慢,怎么优化呀

sql百万级数据sum求和优化

数据库数据百万条,直接用sum对一个字段求和很慢,需要6秒,该怎么优化

用sql对百万条数据求和怎么优化提高速度

数据库有百万条数据,直接用sql的sum求和很慢,需要6秒,该怎么优化提高速度

MySQL百万级别数据处理

我想在一张存有190万条数据的表中操作,如此SQL语句:update leavevisa as a left join harborcode as b on a.code = b.code set a.harbor_name = b.harbor_name; 写的SQL语句是没有错的,在一个数据量小的数据库中可以执行,但在含有190万条数据的表中却卡住不动了,求教于各路大神。

如何高效更新(update)MySQL百万级数据表更新某个字段

一个面试题,一张表里面一个性别字段错误录入成1,有百万级别数据量, 如何更高效的update性别字段为2。 要求:只有十分钟时间给你update。

mysql 数据量太大,怎么优化一下

SELECT dir1.url from dir1 LEFT JOIN dir2 on dir2.url=dir1.url where dir2.id is null or dir1.md5<>dir2.md5 如题,此语句当数据量大的时候会宕机 求助大神帮我想想怎么优化一下 因为我不是做这个的,我只是在c语言一个程序中用到了 然后用我的程序的人说会很慢,而且cpu占用率高 求助帮我优化

logstash全量同步mysql百万级别数据问题?

mysql单表数据大概300万左右。全量同步的时候每次同步到20000的时候就会报错。 ``` [WARN ][logstash.inputs.jdbc ] Exception when executing JDBC query {:exception=>#<Sequel::DatabaseError: Java::JavaLang::IllegalArgumentException: HOUR_OF_DAY: 2 -> 3>} ``` 在连接数据的URL后面加上时区UTC或者CST又会报错MONTH 不知道有没有大神碰到过这个问题 logstash,es版本均为6.4.1 ``` input { jdbc { jdbc_driver_library => "/opt/middleware/logstash-6.4.1/lib/mysql-connector-java-6.0.4.jar" jdbc_driver_class => "com.mysql.jdbc.Driver" jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/ad?characterEncoding=UTF-8&useSSL=false&serverTimezone=UTC" jdbc_user => "root" jdbc_password => "123456" statement_filepath => "/opt/middleware/logstash-6.4.1/config/alarm.sql" jdbc_paging_enabled => "true" jdbc_page_size => "5000" schedule => "* * * * *" } } ``` ``` [WARN ][logstash.inputs.jdbc ] Exception when executing JDBC query {:exception=>#<Sequel::DatabaseError: Java::JavaLang::IllegalArgumentException: MONTH>} ```

亿级数据,mysql插入数据非常缓慢,谁给优化一下,代码如下。

``` package databasebit import ( "database/sql" "fmt" _ "github.com/go-sql-driver/mysql" ) //此函数要被调用上亿次,进行数据的插入以及查询 重复数据大概占比50 func Databaseinbit(db *sql.DB, newaddress string, newrece, newsend float32) { // 查询数据表的address字段内有没有重复数据 rows, err := db.Query("SELECT * FROM bitcoin WHERE address REGEXP '"+newaddress+"'") checkErr(err) //如果address数据重复 将rece与send进行更新 for rows.Next() { //在不报错的情况下 uid可以不提取数据 var uid int var address string var rece float32 var send float32 err = rows.Scan(&uid, &address, &rece, &send) checkErr(err) //如果地址相同 选择rece或者send进行更新 if address == newaddress { if newrece != 0 { rece += newrece stmt, err := db.Prepare("update bitcoin set rece=? WHERE address='"+newaddress+"'") checkErr(err) res, err := stmt.Exec(rece) checkErr(err) affect, err := res.RowsAffected() checkErr(err) fmt.Println("address:",address," :" , affect) rows.Close() return } if newsend != 0 { send += newsend stmt, err := db.Prepare("update bitcoin set send=? WHERE address='"+newaddress+"'") checkErr(err) res, err := stmt.Exec(send) checkErr(err) affect, err := res.RowsAffected() checkErr(err) fmt.Println("address:",address," : ", affect) rows.Close() return } } } // 如果没有重复数据 将数据插入 stmt, err := db.Prepare("INSERT bitcoin SET address=?,rece=?,send=?") checkErr(err) stmt.Exec(newaddress, newrece, newsend) return } func checkErr(err error) { if err != nil { panic(err) } } ``` 这是表的数据结构![图片说明](https://img-ask.csdn.net/upload/201811/22/1542867477_464546.png) 当全部数据插入完成后 对数据表中address字段进行查询 查询时间不能超过0.5s 数据规模亿级

mysql 百万数据查询缓慢怎么解决 已经分区,并且主键索引. 求解决

mysql数据库, 引擎是innoDB,但是查询时间还是很慢, 有的已经达到30s, 找不到问题所在,求大神指点,这是查询代码,并无连表什么的, 分区是按月分的,只6月份的数据文件大小就22G,请问这个是问题出在哪里了? ![图片说明](https://img-ask.csdn.net/upload/201706/29/1498705632_244021.png) ``` SELECT `PQData`->'$."BB1#V_RMS#Phase_AB#0#VOLTS"."avg"' AS `BB1#V_RMS#Phase_AB#0#VOLTS_avg`, `PQData`->'$."BB1#V_RMS#Phase_AB#0#VOLTS"."max"' AS `BB1#V_RMS#Phase_AB#0#VOLTS_max`, `PQData`->'$."BB1#V_RMS#Phase_AB#0#VOLTS"."min"' AS `BB1#V_RMS#Phase_AB#0#VOLTS_min` FROM `pd_1_1_pqfreeintervaldata` WHERE `DeviceID` = 9 AND `RecordTimeStampLocal` BETWEEN 1494239850 AND 1498732650 ``` 附图: ![这是explain的查询,显示在分区查询](https://img-ask.csdn.net/upload/201706/29/1498705137_79988.jpg) ![虽然是九十万条但是是mysql的5.7.17json字段存储,json数据](https://img-ask.csdn.net/upload/201706/29/1498704866_570114.png) 换成>= <= ``` SELECT `PQData`->'$."BB1#V_RMS#Phase_AB#0#VOLTS"."avg"' AS `BB1#V_RMS#Phase_AB#0#VOLTS_avg`, `PQData`->'$."BB1#V_RMS#Phase_AB#0#VOLTS"."max"' AS `BB1#V_RMS#Phase_AB#0#VOLTS_max`, `PQData`->'$."BB1#V_RMS#Phase_AB#0#VOLTS"."min"' AS `BB1#V_RMS#Phase_AB#0#VOLTS_min` FROM `pd_1_1_pqfreeintervaldata` WHERE `DeviceID` = 9 AND `RecordTimeStampLocal` >= 1494239850 AND `RecordTimeStampLocal`<=1498732650 ``` ![图片说明](https://img-ask.csdn.net/upload/201706/29/1498705924_748671.png)

mysql单表分页查询数据量大的情况下怎么优化

mysql单表分页查询数据量大的情况下怎么优化,另外mysql优化有哪些注意的地方

mysql 插入10万条数据 优化效率

public int addTypes(List<taobaoBean> babyList) { String sql = "insert into type (typeid,url) values (?,?) "; Connection conn = dbhelper.getConnection(driver,url,username,upwd); int result = 0; PreparedStatement stmt =null; try { stmt = conn.prepareStatement(sql); for(int i=0;i<babyList.size();i++){ stmt.setInt(1, babyList.get(i).getTypeId()); stmt.setString(2, babyList.get(i).getUrl()); stmt.addBatch(); } stmt.executeBatch(); } catch (Exception e) { e.printStackTrace(); }finally{ if (stmt != null) { try { stmt.close(); } catch (SQLException e) { e.printStackTrace(); } } dbhelper.closeCon(conn); } return result; } 1分钟才插入3000条数据,如何变快。

Left Join在大批量数据查询中如何优化

Left Join在大批量数据查询中如何优化?具体表现为删除left join 时间大概为3秒,加上以后的时间为13秒。

mysql数据库Sql查询优化

MySql 查询优化,将varchar 类型字段修改为 int类型 引起大量慢查询。求大牛指导下。

mysql left join效率优化

通过下面sql查询商品库存数量,因为库存表里面的库存是很多仓库的库存数据,在left join的时候又要做一个表连接,这样查询的时候效率非常低,如果left join一个表就很快,但是无法满足需求,请大神门帮忙优化下sql,谢谢 select g.*,gsd.number from goods g left join (select gs.goods_id,sum(gs.number) number from goods_stock gs,warehouses w where gs.warehouse_id=w.id group by gs.goods_id and w.id='123456789') gsw on(g.id=gsd.goods_id)

MySql 千万级数据量 查询很慢

![图片说明](https://img-ask.csdn.net/upload/201907/09/1562638890_925956.png) ![图片说明](https://img-ask.csdn.net/upload/201907/09/1562638089_178461.png) 如图:numberrecord 表 3600W数据量。 需求是去重掉 time 与 number一致的数据。 我用的去重插入复制表的方法。 目前已经执行12个小时了,一夜没睡。 试过用java去处理,多线程分页查询去重,jvm直接崩溃。 ![图片说明](https://img-ask.csdn.net/upload/201907/09/1562638251_87062.jpg) VM options : -Xms5000m -Xmx8000m 电脑内存16G的 问题2就是3600W数据 SELECT number FROM numberrecord where time <'2019-07-08' group by number 需要查询出 2019-07-08之前的所有number数据. 这个sql 如何优化。 time,number都有索引 求大牛给个高效率解决方案。

mysql大单表数据查询优化

mysql数据库,单表数据量很大时,该如何优化,提高查询效率。请帮忙提供并列举所有可行的方法。

大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了

大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

点沙成金:英特尔芯片制造全过程揭密

“亚马逊丛林里的蝴蝶扇动几下翅膀就可能引起两周后美国德州的一次飓风……” 这句人人皆知的话最初用来描述非线性系统中微小参数的变化所引起的系统极大变化。 而在更长的时间尺度内,我们所生活的这个世界就是这样一个异常复杂的非线性系统…… 水泥、穹顶、透视——关于时间与技艺的蝴蝶效应 公元前3000年,古埃及人将尼罗河中挖出的泥浆与纳特龙盐湖中的矿物盐混合,再掺入煅烧石灰石制成的石灰,由此得来了人...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

为什么你不想学习?只想玩?人是如何一步一步废掉的

不知道是不是只有我这样子,还是你们也有过类似的经历。 上学的时候总有很多光辉历史,学年名列前茅,或者单科目大佬,但是虽然慢慢地长大了,你开始懈怠了,开始废掉了。。。 什么?你说不知道具体的情况是怎么样的? 我来告诉你: 你常常潜意识里或者心理觉得,自己真正的生活或者奋斗还没有开始。总是幻想着自己还拥有大把时间,还有无限的可能,自己还能逆风翻盘,只不是自己还没开始罢了,自己以后肯定会变得特别厉害...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

你打算用Java 8一辈子都不打算升级到Java 14,真香

我们程序员应该抱着尝鲜、猎奇的心态,否则就容易固步自封,技术停滞不前。

无代码时代来临,程序员如何保住饭碗?

编程语言层出不穷,从最初的机器语言到如今2500种以上的高级语言,程序员们大呼“学到头秃”。程序员一边面临编程语言不断推陈出新,一边面临由于许多代码已存在,程序员编写新应用程序时存在重复“搬砖”的现象。 无代码/低代码编程应运而生。无代码/低代码是一种创建应用的方法,它可以让开发者使用最少的编码知识来快速开发应用程序。开发者通过图形界面中,可视化建模来组装和配置应用程序。这样一来,开发者直...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《经典算法案例》01-08:如何使用质数设计扫雷(Minesweeper)游戏

我们都玩过Windows操作系统中的经典游戏扫雷(Minesweeper),如果把质数当作一颗雷,那么,表格中红色的数字哪些是雷(质数)?您能找出多少个呢?文中用列表的方式罗列了10000以内的自然数、质数(素数),6的倍数等,方便大家观察质数的分布规律及特性,以便对算法求解有指导意义。另外,判断质数是初学算法,理解算法重要性的一个非常好的案例。

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

一文带你入门Java Stream流,太强了

两个星期以前,就有读者强烈要求我写一篇 Java Stream 流的文章,我说市面上不是已经有很多了吗,结果你猜他怎么说:“就想看你写的啊!”你看你看,多么苍白的喜欢啊。那就“勉为其难”写一篇吧,嘻嘻。 单从“Stream”这个单词上来看,它似乎和 java.io 包下的 InputStream 和 OutputStream 有些关系。实际上呢,没毛关系。Java 8 新增的 Stream 是为...

立即提问
相关内容推荐