用mysql导出数据,在查询时日期是yyyymmdd hh:mm:ss,但是导成xls格式,其中日期变成了mmddyyyy hh:mm:ss。这是什么原因?求解。
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
Tsui丶 2017-08-18 06:56最佳回答 专家已采纳1.可以试试excel设置格式里选择时间格式,如果不行的话:
2.可以在查询时,将时间字段通过 date_format(日期字段,’%Y-%m-%d’) as ‘日期’ 的方式格式化一下, 然后,在EXCEL输出时, 干脆直接用字符串形式输出,好了.如果还不行, 那你就讲windows的系统时间格式设置成 yyyy-MM-dd HH:mm:ss 吧.
采纳该答案 已采纳该答案 专家已采纳评论解决 无用打赏举报微信扫一扫
分享评论登录 后可回复...
查看更多回答(1条)
报告相同问题?
提交
相关推荐 更多相似问题
- 2017-08-18 06:54回答 2 已采纳 1.可以试试excel设置格式里选择时间格式,如果不行的话: 2.可以在查询时,将时间字段通过 date_format(日期字段,’%Y-%m-%d’) as ‘日期’ 的方式格式化一下, 然后
- 2018-11-27 02:53回答 2 已采纳 导出的时候就把id当做一个普通字段导出来,导出来的id肯定也是断裂的,和数据库一样的,导进去的时候也把id导入,值固定,应该就是和你导出来的一样了
- 2018-05-14 14:01回答 19 已采纳 如是普通PC级服务器(或是更好一点的消费级服务器),你每条数据平均占用时间为40MS,考虑到你的每条数据有900多列。这样的话,已经不慢了。 如想更快的话: 1、查看是否有索引,索引是以降低插
- 2020-12-15 03:32一开始迁移 Discuz 7 论坛的 mysql 数据库时,采用 mysqldump 命令的时候一切顺利,但导入的时候却遇到了 ERROR 1062 (xxxxx) at line 1262: Duplicate entry ‘XXX’ for key ‘XXX‘ 错误,并停在原地。 对于遇到...
- 2021-12-15 17:07weixin_43972854的博客 @MySQL大数据导入导出指南 MySQL大数据导入导出指南 通过MySQL官方提供的工具将老表的数据转到新表,由于数据量较大3000多万:SELECT INTO OUTFILE,LOAD DATA INFILE 前提准备 `. // 导出到txt语法 SELECT * INTO ...
- 2021-04-08 11:06Lruien的博客 公司遇到一个奖金2个G的数据导出导入,用最原始的导出和source 或者mysql <...导出数据时,不要使用单条数据 具体实时 1、筛选数据库中大表 这个就不详细说了,我是筛选出来大表后,其余小表导出sql进行单独导
- 2018-09-26 08:42回答 7 已采纳 1、StartTime>=10.01 AND EndTime=10.01 AND EndTime=10.01 AND StartTime=10.31 4、StartTime=10.31
- 2017-05-27 00:47回答 5 已采纳 很遗憾,以上答案没有讲怎么导出 **表的部分数据** ,而这恰恰是题目的关键。 一 导出表结构,顺序如图所示: ,使用java语言在做数仓项目,那么你可以参考一下这张图 查询数据一般从数据库里面查
- 2019-12-28 10:42回答 1 已采纳 你修改过问题?500亿以上数据,根本不适合使用mysql这样的关系型数据库,应该用neo4j这种图数据库 https://baike.baidu.com/item/Neo4j/9952114?fr=
- 2018-09-12 02:47回答 3 已采纳 ``` select replace(播放量,'万','')as 播放量,'万' as 单位 from yourtable where 播放量 like'%万' ```
- 2020-11-30 10:49weixin_39717825的博客 使用python3实现mysql导出数据到文件的脚本如下:import pymysqlimport timehost = ''port =3306user =''passwd =''db =''sql = 'select ACCEPT_NO,BSS_ACT_CODE,USER_NO,ACC_NBR,PROD_CODE,PROD_NAME,COMBO_FEE,...
- 2021-01-13 15:15一本正经写BUG的博客 mysqldump -u root -p -q -e -t webgps4 dn_location2 > dn_location2.sql ...以上是导入导出数据的语句,该方法15分钟导出1.6亿条记录,导出的文件中平均7070条记录拼成一个insert语句,通过sourc
- 2022-01-12 10:52Freshboya的博客 本次的Mysql导出让我感受到了,知识就是力量!!…… 大量的数据通过Navicat导出在进行导入会花费巨量的时间,本次我导出的sql文件有1G多,我用命令:source XX.sql 运行了一天一夜都没有导完,被迫中止。。。。 ...
- 2021-10-17 23:23回答 5 已采纳 1、下载DBeaver2、用DBeaver 连接数据库3、用sql查询4、如上图所示将查询结果复制出来。
- 2021-02-02 05:35诺洁口腔的博客 批量导出百万数据,涉及到limit分页查询,要考虑优化limit性能。MYSQL的优化是非常重要的。其他最常用也最需要优化的就是limit。mysql的limit给分页带来了极大的方便,但数据量一大的时候,limit的性能就急剧下降。...
- 没有解决我的问题, 去提问