每天定时从FTP上下载一份上百万数据量的压缩文件到服务器,然后解压,再然后读取这批文件,一个文件可能就1KB,可能一个文件夹里有上百万个文件,怎样快速的读取这批文件的信息,然后插入数据库呢,读完一个文件要同时把这个文件备份到另一个目录下,同时原目录下这个文件也要删除,请问各位大神,有什方法可以快速的写入数据,有没有demo参考一下,本人是菜鸟中菜鸟来的!
1条回答 默认 最新
- oyljerry 2015-02-04 03:20关注
这个基本上选取一个你熟悉的脚本语言来做,就比较简单
比如python
你用urllib库下载文件,ZipFile解压,open打开文件,读取内容,通过mysql存储数据库,mysqldb类库存入数据库,shutil类库删除文件本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥50 uniapp小程序页面录制可回溯
- ¥15 求Houdini使用行家,付费。价格面议。
- ¥15 AttributeError: 'EasyDict' object has no attribute 'BACKUP_DB_INFO'
- ¥15 前端高拍仪调用问题报错
- ¥15 想用octave解决这个数学问题
- ¥15 Centos新建的临时ip无法上网,如何解决?
- ¥15 海康威视如何实现客户端软件对设备语音请求的处理。
- ¥15 支付宝h5参数如何实现跳转
- ¥15 MATLAB代码补全插值
- ¥15 Typegoose 中如何使用 arrayFilters 筛选并更新深度嵌套的子文档数组信息