前提:和系统有关系。有的不少内容,有的少。我是在测试环境下一点问题都没有,结果跑到生产环境就不行了。由于生产环境不能重装系统等因素,所有采用了本文的解决方案。
系统环境:win7 x64
项目介绍:使用pyautogui对pc端应用程序做自动化操作。
项目一开始使用的pyautogui.locateOnScreen("xxx.png")来定位,使用pyautogui.click()来实现点击,使用typewrite("xxx")来实现文本的输入。
本身项目难度不大,但是问题就出在生产环境下locateOnScreen()定位不到弹窗内容,一开始以为是cpu等硬件问题,导致截图延迟造成的(毕竟locateOnScreen的效率还是挺低的,一般全屏识别需要3-6s的时间)。所以就想着先把图片截取下来,然后再用locate本地对比识别。
随后就采用pyautogui.screenshot()来截屏,但是发现还是不行,当时认为是截取的太快了,因为screenshot的还是挺快的,1920*1080的截屏也只需要100ms,担心是tooltip(悬浮提示)还没有出来就截屏了,所以就加了time.sleep(1)来延迟截屏。但是结果还是没有东西,就想到是不是这个函数是异步处理的,不会等待sleep的执行完成,在这里走了一些弯路。
翻看了pyautogui的源码,发现screenshot在win下采用的是PIL的ImageGrab.grab()来实现的截屏。就用PIL模拟了一下screenshot的过程,结果还是截取不到tooltip。随后用了win32api的截图方法,结果还是截取不到。显然用win32api的效率已经是非常高了,当时