这篇博客讨论了在处理大型Excel文件时,使用pandas和openpyxl模块的效率问题。通过实例展示,开启openpyxl的只读模式可以显著减少打开大文件的时间,但全量读取数据仍耗时较长。pandas的read_excel函数虽然不支持只读模式,但读取同样数据也需要较长时间。因此,对于超大文件,建议只读取所需数据以提高效率。 摘要生成于 ,由 DeepSeek-R1 满血版支持,

知乎上有同学求助说,当他试图打开一个20M左右的excel文件时,无论是使用pandas的read_excel,还是直接使用xlrd或者openpyxl模块,速度都慢到无法忍受的程度,耗时大约1分钟左右。

真的会这样吗?第一感觉是,这位同学在使用openpyxl模块时没有设置只读模式。为便于测试,先用下面的代码生成一个一百万行数据的excel文件。

>>> from openpyxl import Workbook
>>> wb = Workbook()
>>> sh = wb.active
>>> sh.append(['id', '语文', '数学', '英语', '物理'])
>>> for i in range(1000000): # 写入100万行数据
	sh.append([i+1, 90, 100, 95, 99])
>>> wb.save(r'd:\bigxlsx.xlsx')
>>> import os
>>> os.path.getsize(r'd:\bigxlsx.xlsx') # 文件大小:20M字节
20230528

接下来定义了一个使用openpyxl模块打开文件的函数,分别考察关闭和开启只读模式的时间消耗。

>>> from openpyxl import load_workbook
>>> import time
>>> def read_xlsx(read_only):
	t0 = time.time()
	wb = load_workbook(r'd:\bigxlsx.xlsx', read_only=read_only)
	t1 = time.time()
	print(wb.sheetnames)
	print(sh.cell(row=1, column=1).value)
	print(sh.cell(row=100, column=3).value)
	print('耗时%0.3f秒钟'%(t1-t0))
>>> read_xlsx(True)
['Sheet']
耗时0.404秒钟
>>> read_xlsx(False)
['Sheet']
耗时67.817秒钟

运行测试,果然,不开启只读的话,真的需要1分多钟,而使用只读模式的话,则仅需0.4秒钟。

不过,也别高兴得太早,openpyxl模块并没有提供像pandas.read_excel()那样把全部数据读入一个数据结构的功能,只能定位到行、列或格子以后再读取数据。要想使用openpyxl模块把全部数据读入到数组或DataFrame中,需要遍历所有的行和列,这仍然是一个非常耗时的操作。

那么,pandas.read_excel()是否也支持只读模式呢?遗憾的是,read_excel()并没有类似read_only这样的参数。尽管read_excel()可以接受文件路径、文件对象、类文件对象,甚至是二进制数据,但即使将文件内容传入,read_excel()解析这100万行数据仍然需要大约80秒钟。下面的代码验证了这一点。

>>> import pandas as pd
>>> def read_excel_by_pandas():	
	with open(r'd:\bigxlsx.xlsx', 'rb') as fp:
		content = fp.read()
		t0 = time.time()
		df = pd.read_excel(content, engine='openpyxl')
		t1 = time.time()
	print(df.head())
	print(df.tail())
	print('耗时%0.3f秒钟'%(t1-t0))
>>> read_excel_by_pandas()
   id  语文   数学  英语  物理
0   1  90  100  95  99
1   2  90  100  95  99
2   3  90  100  95  99
3   4  90  100  95  99
4   5  90  100  95  99
             id  语文   数学  英语  物理
999995   999996  90  100  95  99
999996   999997  90  100  95  99
999997   999998  90  100  95  99
999998   999999  90  100  95  99
999999  1000000  90  100  95  99
耗时81.369秒钟

结论:处理超大的Excel文件时,使用openpyxl模块的只读模式,可以快速打开并取得指定格子的数据,但不要尝试将全部数据读入到自己定义的数据结构中,这将花费漫长的时间。对此,pandas也无能为力。

代码很短,为了节省时间就不说思路了,直接看下边的代码就可以。 import pandas as pd # pandas版本0.25.1 import numpy as np # numpy版本1.16.3 import time t0 = time.time() data = pd.read_excel( 'data.xlsx', encoding='gb2312' # 添加encoding='gb2312'使得能够读取中文 t1 = time.time() cost1 = t1
openpyxl是读写Excelpython库,是一个比较综合的工具,能够同时读取和修改Excel文档 Student是一个excel工作表 Sheet是Student工作表的一个表单 当把excel工作表黏贴到pycharm中时要贴到和执.py文件一个目录下才能使用该工作表 一、安装openpyxl模块 在cmd命令下输入命令:pip install openpyxl 也可在pycharm...
使用Python完整的获取所有文件文件夹并读取相应的文件 使用Python合并数据 总共1000多万条数据,如果我们用Excel的话估计要很多时间将这么多表格合并,而且会很卡,最后总结,python NP! 不足之处还请大家多多指正!
Python导数据的时候,需要在一个大表上读取很大的结果集。 如果用传统的方法,Python的内存会爆掉,传统的读取方式默认在内存里缓存下所有然后再处理,内存容易溢出 解决的方法: 1)使用SSCursor(流式游标),避免客户端占用大量内存。(这个cursor实际上没有缓存下来任何数据,它不会读取所有所有到内存中,它的做法是从储存块中读取记录,并且一条一条返回给你。) 2)使用迭代器而不用fetchall,即省内存又能很快拿到数据。 import MySQLdb.cursors conn = MySQLdb.connect(host='ip\u5730\u5740', user='\u7528\u6237\u540d', passwd=
  python是一门开发语言,可以用来写大型项目,也可以用来写脚本,比如自动化脚本,也可以用来写工具。   我们平时做测试,不一定做自动化测试才用去python,做功能测试,也就是点点点,也可以把它用起来。   比如,我现在页面有一个功能,导入的功能,我想测它最大支持多少数据量导入,或者说多大的文件导入,那么我们得在excel中写入很多条数据(导入模板是xls,xl...