再见PDF提取收费!我用100行Python代码搞定!

本文介绍了如何使用Python的PySimpleGUI、pdfminer、pdfplumber和fitz库来提取PDF文件中的文字、图片和表格数据。通过视频展示了程序效果,并详细解释了代码实现过程,包括PDF文字提取、图片提取、表格提取以及交互界面的制作。最后,提供了软件打包后的exe文件供读者使用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

点上方“菜鸟学Python”,选择“星标”
第471篇原创干货,第一时间送达

大家在日常的工作和学习过程中,都少不了与PDF文件打交道,很多的小伙伴都面临着将PDF文件中的文字、图片和表格数据提取出来的问题。能够对PDF文件中的文字、表格等数据进行编辑,网上现存的PDF提取的软件都需要付费操作

小编今天就利用百行的python程序,来提取PDF文件中的文字、图片和表格数据。一起来看看吧。

01.程序执行效果

首先,还是通过视频展示的方式,来为大家展示一下PDF的提取效果:

python库版本介绍

本次程序涉及到多个python第三方库与python3的内置库,而且不同的python库版本对于程序的兼容性不一致,因此我们首先来介绍一下使用到的python第三方库版本。

  • PySimpleGUI    4.38.0

  • pdfminer3k     1.3.4

  • pdfplumber     0.5.27

  • fitz           0.0.1.dev2

  • pandas         1.1.3


02.程序讲解

看过视频之后,接下来就进行程序的展示,程序的展示主要分为以下的四个方面,分别是:

  • PDF提取文字

  • PDF提取图片

  • PDF提取表格

  • 交互界面的制作

03.PDF提取文字

PDF中文字是只允许我们进行只读,但是无法进行更改,所以我们要做的就是提取PDF中的文字信息,然后将提取到的文字写入到word文件当中,让我们能够进行后续的改写。

对于文字的提取,我们利用的是pdfminer函数库,其程序如下图所示:

程序首先创建了PDFParser对象来进行PDF文档的分析,PDFDocument对象来将资源对象处理成我们需要的格式,PDFResourceManager对象用来保存共享数据内容;

而PDFPageInterpreter则是用来处理页面的内容。程序中通过for循环来针对PDF文件中的每一页内容进行处理,对于每一页的内容,通过layout来存储页面解析出来的各种对象;

包括文本,图片等信息。但是小编发现,对于图片的提取,pdfminer的效果很不好,所以后面针对于图片的提取;

小编采用的fitz库进行单独的处理,取得很好的图片提取效果。这里,我们先来看一下对于文本的处理结果。

我们的pdf是一个两页的pdf文档,我们只让程序去提取第一页的文本,从上图可以看出,程序完整的提取出第一页的文本,没有任何的错误。

04.PDF提取图片

对于文字的提取处理完毕后,接下来我们就来看一下如何提取pdf中的图片,并将其保存到本地。对于图片的提取,程序如下图所示:

上述的程序中,利用fitz库来提取PDF文档中的对象,然后通过字符串匹配来判断对象是不是图片类型,如果不是的话,我们直接进行跳过即可。如果判断对象是图片类型的话,我们边可以通过创建PixMap对象来提取图片,并保存到我们指定的路径下即可。结果如下图所示:

上图可以看出,程序正确的将图片进行了提取,从而达到了我们的图片提取的目的,可以在短短的几秒内完成pdf文档的所有图片的提取。

05.PDF提取表格

对于PDF中表格的提取,利用的是pdfplumber库,程序如下图所示:

程序中,通过pdfplumber库读取PDF文件,针对于文件中的每一页,提取表格数据,然后通过pandas将表格数据保存到根目录下的tables文件夹中,结果如下图所示。

通过结果的展示,可以看出,对于PDF中的表格数据,程序能够做到较为准确的提取。

06.交互界面的制作

交互界面的制作,程序利用的是PySimpleGUI库进行处理,其部分程序如下图所示。

PySimpleGUI库集合了tkinter,wxpython、PyQt等GUI库的优势,其最重要的特点是用简单少量的代码就可以制作出精美的界面。程序执行的可视化界面如下图所示。

07.软件打包

为了方便大家的使用,小编将程序打包为exe文件,需要注意的是,为了减少大家对于exe文件执行时的报错,需要在win10(64bit)的环境下进行运行。大家可以下载exe文件,直接进行pdf文件内容的提取。

在下面的公众号后台输入关键字:pdf提取,即可获取。

推荐阅读:入门: 最全的零基础学Python的问题  | 零基础学了8个月的Python  | 实战项目 |学Python就是这条捷径干货:爬取豆瓣短评,电影《后来的我们》 | 38年NBA最佳球员分析 |   从万众期待到口碑扑街!唐探3令人失望  | 笑看新倚天屠龙记 | 灯谜答题王 |用Python做个海量小姐姐素描图 |趣味:弹球游戏  | 九宫格  | 漂亮的花 | 两百行Python《天天酷跑》游戏!AI: 会做诗的机器人 | 给图片上色 | 预测收入 | 碟中谍这么火,我用机器学习做个迷你推荐系统电影年度爆款文案1).卧槽!Pdf转Word用Python轻松搞定!2).学Python真香!我用100行代码做了个网站,帮人PS旅行图片,赚个鸡腿吃3).首播过亿,火爆全网,我分析了《乘风破浪的姐姐》,发现了这些秘密 4).80行代码!用Python做一个哆来A梦分身 5).你必须掌握的20个python代码,短小精悍,用处无穷 6).30个Python奇淫技巧集 7).我总结的80页《菜鸟学Python精选干货.pdf》,都是干货 8).再见Python!我要学Go了!2500字深度分析!9).发现一个舔狗福利!这个Python爬虫神器太爽了,自动下载妹子图片点阅读原文,领廖雪峰视频资料!
数据库的名字叫WawaDB,是用python实现的。由此可见python是灰常强大啊! 简介 记录日志的需求一般是这样的: 只追加,不修改,写入按时间顺序写入; 大量写,少量读,查询一般查询一个时间段的数据; MongoDB的固定集合很好的满足了这个需求,但是MongoDB占内存比较大,有点儿火穿蚊子,小题大做的感觉。 WawaDB的思路是每写入1000条日志,在一个索引文件里记录下当前的时间和日志文件的偏移量。 然后按时间询日志时,先把索引加载到内存中,用二分法查出时间点的偏移量,再打开日志文件seek到指定位置,这样就能很快定位用户需要的数据并读取,而不需要遍历整个日志文件。 性能 Core 2 P8400,2.26GHZ,2G内存,32 bit win7 写入测试: 模拟1分钟写入10000条数据,共写入5个小时的数据, 插入300万条数据,每条数据54个字符,用时2分51秒 读取测试:读取指定时间段内包含某个子串的日志 数据范围 遍历数据量 结果数 用时(秒) 5小时 300万 604 6.6 2小时 120225 2.7 1小时 60万 96 1.3 30分钟 30万 44 0.6 索引 只对日志记录的时间做索引, 简介里大概说了下索引的实现,二分查找肯定没B Tree效率高,但一般情况下也差不了一个数量级,而且实现特别简单。 因为是稀疏索引,并不是每条日志都有索引记录它的偏移量,所以读取数据时要往前多读一些数据,防止漏读,等读到真正所需的数据时再真正给用户返回数据。 如下图,比如用户要读取25到43的日志,用二分法找25,找到的是30所在的点, 索 引:0 10 20 30 40 50 日志:|.........|.........|.........|.........|.........|>>>a = [0, 10, 20, 30, 40, 50]>>>bisect.bisect_left(a, 35)>>>3>>>a[3]>>>30>>>bisect.bisect_left(a, 43)>>>5>>>a[5]>>>50 所以我们要往前倒一些,从20(30的前一个刻度)开始读取日志,212223,24读取后因为比25小,所以扔掉, 读到25,26,27,...后返回给用户 读取到40(50的前一个刻度)后就要判断当前数据是否大于43了,如果大于43(返回全开区间的数据),就要停止读了。 整体下来我们只操作了大文件的很少一部分就得到了用户想要的数据。 缓冲区 为了减少写入日志时大量的磁盘写,索引在append日志时,把buffer设置成了10k,系统默认应该是4k。 同理,为了提高读取日志的效率,读取的buffer也设置了10k,也需要根据你日志的大小做适当调整。 索引的读写设置成了buffer,每满一都要flush到磁盘上,防止读到不完整的索引(其实实践证明,设置了buffer,还是能读到半拉的)。 查询 啥?要支持SQL,别闹了,100代码怎么支持SQL呀。 现在查询是直接传入一个lambada表达式,系统遍历指定时间范围内的数据时,满足用户的lambada条件才会返回给用户。 当然这样会多读取很多用户不需要的数据,而且每都要进lambda表达式的运算,不过没办法,简单就是美呀。 以前我是把一个需要查询的条件和日志时间,日志文件偏移量都记录在索引里,这样从索引里查找出符合条件的偏移量,然后每条数据都如日志文件里seek一次,read一次。这样好处只有一个,就是读取的数据量少了,但缺点有两个: 索引文件特别大,不方便加载到内存中 每次读取都要先seek,貌似缓冲区用不上,特别慢,比连续读一个段的数据,并用lambda过滤慢四五倍 写入 前面说过了,只append,不修改数据,而且每日志最前面是时间戳。 多线程 查询数据,可以多线程同时查询,每次查询都会打开一个新的日志文件的描述符,所以并的多个读取不会打架。 写入的话,虽然只是append操作,但不确认多线程对文件进append操作是否安全,所以建议用一个队列,一个专用线程进写入。 锁 没有任何锁。 排序 默认查询出来的数据是按时间正序排列,如需其它排序,可取到内存后用python的sorted函数排序,想怎么排就怎么排。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值