如何使用phpEcel读取大型文件,最少10M以上??? 50C

场景是这样,采集了一部分数据,大概十几二十兆的样子,现在要把它用程序读取处理一下并且入库,想请问一下各位同仁有没有什么好一点的意见,麻烦指教一下。注:已知的是phpExcel的load和toArray最耗费时间,设置超时时间,还有调大php内存限制,还有就是在处理的时候直接组合成sql来直接执行,我这边就这么多了。请多多指教。

0

3个回答

如果是.xlsx文件的话,使用spreadsheet-reader是最好的选择https://github.com/nuovo/spreadsheet-reader
因为phpExcel会把整个文件都装载进内存,对于大文件来说是致命的,而spreadsheet-reader是用的流式解析,速度很快。.csv和.ods也可以读取的
另外,https://github.com/akeneo/spreadsheet-parser也可以流式读取。

如果是.xls文件的话,建议先转换一下,因为这个展示没有流式读取的方法。

0

保存成csv文件,能加快读取和写入

0

同意楼上的说法,一般查过1M的excel文件已经对服务器压力挺大了,建议先转为csv格式,这样速度提高很多!

0
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
java读取大文本文件
小文件当然可以直接读取所有,然后放到内存中,但是当文件很大的时候,这个方法就行不通了,内存不是这么玩的~~rn那么,下面是解决方法:rn1.java底层:调用java的java.util.Scanner类扫描文件内容,一行一行,连续读取rnFileInputStream inputStream = null;nScanner sc = null;ntry {n inputStream = n
可压缩10M大图不失真
android大图压缩不失真,可压缩10M图片,压缩后图片大小几十k,文字清晰不失真!亲测可用
删除D盘空目录 、检索大于10M的文件
删除D盘空目录rnrn@echo offnfor %%i in (d:\xx) do (n if exist %%i:\ (n for /f "delims=" %%a in ('dir /ad /b /s "%%i:\"^|sort /r') do (n rd "%%a"n )n )n)npausenrnrnrn检索大于10M的文件rn@Echo Of
查找目录下大小超过10M的文件
find . -type f -size +10M -exec ls -lh {} \; | awk '{print $5,$9}
微信小程序神坑:本地存储图片不能超过10M!!!navigateTo跳转不能超过9次!!!
微信小程序神坑:本地存储图片不能超过10M!!!navigateTo跳转不能超过9次!!!n刚入小程序的坑,选择图片,然后显示在页面上面,发现显示到20张左右图片就不能再显示了.查了下发现是本地存储图片不能超过10M,于是想到可以每次存储图片到本地可以删除上一张图片,nif (res.fileList.length > 1) {nwx.removeSavedFile({nfilePath: ...
大文件上传, ajax 实现, 支持10G以上的上传
我一直在寻找一个大文件的上传组件, 可是都没有的到一个好用的, 后来翻阅了很多的资料写了一个, 使用ajax做到了, 我试过上传了10G, 很好用, 拿来跟大家分享一下,
laravel框架利用phpExcel实现Excel数据的导入导出
所需要的phpexcel的类在vendor中nnnn导入excelnn前端:nnn<form id="xml_config_search" action="upload" method="post" enctype="multipart/form-data">n {{ csrf_field() }}n 选择文件:<input type="file" name="fi...
如何读取大于10M以上的XML文件(Java)?
采用以下语句,会出现Out of Mem:rn DocumentBuilderFactory factory = DocumentBuilderFactory.newInstance();rn factory.setIgnoringElementContentWhitespace(true);rn factory.setNamespaceAware(true);rn Document xmlDoc = factory.newDocumentBuilder().parse(xmlFile); rnrn把大文件裁分成小文件时间来不及,哪位大侠有办法么? bow!
movielens数据集读取、转换
【1】从https://grouplens.org/datasets/movielens/上下载数据集,包含6000用户,4000多电影的100万条数据【读数据】import pandas as pdnimport numpy as npnusers_Name=['user_id','gender','age','work','zip']nratings_Name=['user_id','movi...
大文件(10G以上吧)的处理
笔者遇到一个场景:对一些大小10G以上的文件,进行数据统计。按照以前(处理比较小的文件,大概是千行级别的文件)的个人习惯,会将文件内容想办法存到数据库当中,然后写SQL语句进行统计。但是这次需要处理的文件实在有点大(千亿行级别)了。所以将整个解决过程记录下来:nn难题一:单个文件大小超过了我的计算机内存的大小,肯定是不能直接加载到数据库里边来操作了。想到的解决办法就是把大文件切割成小文件处理(过滤...
如何用MATLAB读取大文本文件
MATLAB如何读取大文本文件分析nnnnnnnn–读大文本关键函数–:textread, textscannnnnnn1 textread函数nnnn语法:nnnn[A, B, C, …] = textread(filename, format) n[A, B, C, …] = textread(filename, format, N) n[…] = textread(…, param, val...
使用python来读取超大型文件数据
    在实际应用中,几乎所有的数据分析工作都是从数据读取开始的,如果数据量太大导致数据文件读取失败了,这样后续的工作就没有办法进行了,在机器自身硬件内存限制的情况下,当文件量过大的时候直接使用read等函数来进行操作的时候就会报错,这里就需要采取一定的策略来尽可能地避免这样的问题产生,今天的工作中就遇上了这样的问题,需要处理的数据文件一共是6.86GB,电脑内存是8GB的,读取的时候就报错了,用...
python使用struct进行二进制文件的读写
1.struct pack/unpack的使用rnpython中提供了struct包,使用struct.pack/unpack函数可以进行二进制文件的操作。rn在学习wireshark pcap文件格式过程中,由于其为二进制文件,不方便读取。于是使用python将其转换成16进制字符型文件输出,实现代码如下:rnimport structnnclass FileConvert(object):n
飞鸽传书 局域网快速传文件
局域网快速传文件 不需路由器 到10M以上 飞鸽传书
pandas 读取大文件
from matplotlib import pyplot nimport scipy as sp nimport numpy as np nfrom matplotlib import pylab nfrom pandas import Series, DataFramenimport pandas as pdnfilename = 'data.txt'ndata = pd.read_cs
Python3读取大文件的方法
Python3读取大文件的方法1. 方法一:利用yield生成器2. 方法二:利用open()自带方法生成迭代对象,这个是一行一行的读取3. 二者的比较n1. 方法一:利用yield生成器ndef readPart(filePath, size=1024, encoding="utf-8"):n with open(filePath,"r",encoding=encoding) as f:n...
打开大型txt文件的方法
发现一个比较好用的软件:Notepad++。打开txt文件很迅速~
Gitlab修改文件上传10M大小限制(非命令行方式)
管理员在Admin area点击settings:找到Account and Limit Settings按需要设置Maximum attachment size,此处设置了1024MB。最后拉到最下面点save保存修改补充:此操作方式是在以下环境下测试的GitLab 8.17.2GitLab Shell 4.1.1GitLab Workhorse v1.3.0GitLab API v4Git 2.
超大文件编辑工具,实测28G文件打开4分钟。比vim、logView都好使。超大日志神器。
超大文件编辑工具,实测28G文件打开4分钟。比vim、logView都好使。超大日志神器。
xls导入oracle
这个工具很好,直接全傻瓜式的excel导入oracle,字段自动选择导入
matlab 如何读入超大文本文件
通常,简单的 “importdata” 被大家广泛使用,因其调用简单,使用方便。其格式如下:nnnny=importdata('path\ file name.txt');nn可以看出,这个封装好的函数,只要给定文件的路径及文件名就可以顺利成为我们所需的数据。但是,当文件大小超过百M时,这个方法就显得吃力,耗时过久。于是返璞归真,引入“textscan” n其格式如下:nnmFID = fopen
小程序性能优化——文件的本地存储10M优化算法
小程序文件的本地存储优化nn优化原因!nn众所周知,微信将小程序的本地文件存储空间限制为10M,导致我们在调用wx.saveFile()接口存储临时文件时,存着存着,就超过10M了。那该怎么办呢?nn肯定是要写一套算法,避免超过10M啦!nnnn算法来源 ~nn之前博主在做Android的时候,了解过LruCache类。它是Android提供的一个缓存类,当缓存空间被占满时,会去移除最不经常访问的...
大数据项目求助
最近在搞一个大数据项目的比赛n求助学习资料n 比赛内容如下nn任务一:平台运维(15分)n当前,平台组已完成了数据分析集群环境的初步部署,集群采用完全分布式部署,包括1台master、2台slave,已完成HDFS、Hive、Yarn、Zookeeper四个基础组件的部署工作,数据分析集群可正常运行,要求你们小组完成数据采集组件Flume的部署及配置,确保安装后的组件...
MovieLens推荐系统数据集官方文档+解释
参见和下载地址:https://grouplens.org/datasets/movielens/nnMovieLensnnn       GroupLens Research已从MovieLens网站(http://movielens.org)收集并提供评级数据集。根据集合的大小,在不同的时间段收集数据集。在使用这些数据集之前,请查看其README文件以获取使用许可证和其他详细信息。nn帮助我们...
打开大型txt文件的工具
打开大型txt文件的工具,还是挺管用的,经常使用大TXT文件的同学可以下来试试,很方便,很强大
使用socket传输10M大小的图片
刚开始学习socket是为了两台电脑之间能传输10M大小的图片。rn但是网上一些socket的例程都是传输一个字符串,C++的基础也比较差。摸索了好久才写好这个程序,期间也遇见了很多问题:rn1.如何分包发送:rn我选用的发送buf是8k字节的,但是如何将10M大小的数据通过这个8K字节发送出去,困扰了好久,后来通过这个解决了 infile.seekg(0,ios::end);n length =
双赢互刷源码
双赢互刷源码,非常好的互刷源码,本款源码需要空间 PHP 4.0以上 磁盘空间 最少10M 支持伪静态、FSO等
网宿面试——有10T的IP地址数据,内存只有10M,怎么找出出现频率最大的那个IP
这种大数据的的题肯定是要分堆来做,再从堆中选出每个堆中最大的数,然后进行比较。1,首先就是如何进行分堆的问题,这边我们使用hash来分成n个10M的小文件,10T除以10M约等于1000000,所以使用hash(IP)%1000000,来分堆。2,从每个堆中选取出现次数最多的IP;3,从这100000个IP中选择出现最多的IP即可。...
Git突破文件限制上传大文件
文章目录一、工作环境二、大文件上传参考文献n一、工作环境n操作系统:Windows10 64bitsnGit版本: Git-2.19.1n二、大文件上传n如果发现文件过大不能上传到github可以安装LFS(Large File Storage)[1,2]。具体执行步骤如下所示:n# 步骤一:在Head-First-HTML5-programming-exercise文件夹下打开进入git命令行模...
如何打开大型文本文件
用SQLyog导出某个数据库,sql文件约有七百多兆。导入到另一台电脑时错误重重。于是想要打开文件,部分执行。只是这样的大的文件一般的编辑器难以胜任,一番寻找之后在StackOverflow上找到答案。n Text editor to open big (giant, huge, large) text files [closed]n打开大(很大,巨大,非常大)文本文件的编辑器,问题的赞同数比回答
飞鸽传书IPMSG-new
传输文件更轻松快捷(局域网内10M以上速度传输文件)
VB 源码
你需要下载四个文件解压文件,文件45M不支持大于10M以上的所以只有分解压了
使用python快速打开超大txt文件,8个g的,应该还可以更大
txt几百MB之后,基本就无法使用现有工具打开了,只能变成来读了,python很好用,代码如下,建议使用64位的版本本例打开7.5G的txt文件,并做了适当的归纳处理,也很快如果只是print那就更快了共统计49278874行时间花费231.32秒# -*- coding: UTF-8 -*-nimport timenfile = r"d:\分析数据.txt".decode('utf-8').en...
PHP-post大文件上传失败原因
post大文件上传失败原因n今天在使用使用post上传文件的时候发现报错了,原因竟然是因为文件过大。这就很奇怪了,post上传文件不是没有大小限制嘛?这里报错其实并不是代码的问题,错误在于web服务器对于文件上传大小有限制,当你上传的文件大小超过他的限制就会出现这种情况。n解决办法n//如果想修改上传文件的限制可以修改php.ini文件nfile_uploads = On; ...
Python读取大型文本
出来公司实习,第一次接触到比内存还大的数据,读取过程中经常遇到memoryError错误,所以研究了一下Python的大文件读取方式。nn我们谈到“文本处理”时,我们通常是指处理的内容。Python 将文本文件的内容读入可以操作的字符串变量非常容易。文件对象提供了三个“读”方法: .read()、.readline() 和 .readlines()。可以通过设置参数来控制读取的长度(字节)。nn....
java读取大文件 超大文件的几种方法
njava 读取一个巨大的文本文件既能保证内存不溢出又能保证性能  rn rn2010-09-25 11:18:50|  分类: 默认分类 |字号 订阅rnimport java.io.BufferedReader;rnimport java.io.File;rnimport java.io.FileReader;rnimport java.io.RandomAccessFile;rnimport...
csv大文件打开器
csv大文件打开器,可快速查看大型csv文件
flume 1.7 TailDir source重复获取数据集不释放资源解决办法
背景:银行日志生产方式一般有两种rn1)按大小切分:xxx.logxxx.log1 xxx.log2,及最新日志写入.log,原来的.logrn mv为.log1,.log1 mv为.log2,依次类推,每个日志固定大小(10M、50M之类)。rn2)按天切分:xxx.log  xxx.log-20171224(xxx.log-日期),最新日志写入.log,后面的按照日期备份,基本为每天一个日志。
Python读取大容量的csv文件
python按行遍历一个大文件:rnrnwith open('filename') as file:rn    for line in file:rn        do_things(line)rnrn结合下文的block,读几行是没压力了,但存成csv的时候各种奇葩问题,什么str和byte的编码问题啦,什么csv一打开是各种奇葩的整数啦……rnrnrn如何用python处理非常大的csv和x
解决git上传单个大文件的限制,亲测有效!
今日使用百度的BAE服务,代码管理使用的是git方式,在我准备更新代码的时候发现报了一个这种错误,于是开始漫长的bug解决,终于找到了一个不错的解决方案*如果你之前commit了 需要你使用 git reset --hard <commit_id>命令回退到没有报错的那个版本,然后再执行下面的操作【第一步】需要用到一个叫lfs的工具专门用来上传大文件的!!! 下载链接:https://...
文章热词 机器学习教程 Objective-C培训 交互设计视频教程 颜色模型 设计制作学习
相关热词 mysql关联查询两次本表 native底部 react extjs glyph 图标 大型数据库管理课程 大型数据库课程设计