Python爬取Google图片(2021.11.21编写)

使用Python Selenium爬取Google图片
该博客提供了一段傻瓜式的Python代码,利用Selenium库和XPath解析从Google图片搜索中抓取并下载指定数量的图片。代码中包含了设置延迟、模拟点击下一页、保存图片等步骤,适用于初学者进行网页爬虫实践。

傻瓜版代码,先修改储存目录和webdriver路径,再输入网址和图片数量就能用了。

from selenium import webdriver
import time
from lxml import etree
import random
from urllib import request
import os

def pic_url_get(num):
    for i in range(num):
        time.sleep(random.uniform(0,2))
        content = driver.page_source
        html = etree.HTML(content)
        pic_url = html.xpath('//*[@id="Sva75c"]/div/div/div[3]/div[2]/c-wiz/div/div[1]/div[1]/div[2]/div/a/img/@src')[0]
        pic_urls.append(pic_url)
        print('第{}张图片获取成功'.format(i+1))
        next_page_button = driver.find_element_by_xpath('//div[@id="Sva75c"]/div/div/div[3]/div[2]//div/div[1]/div[1]/div[1]/a[3]')
        next_page_button.click()

def pics_download():
    a = 1
    for pic_url in pic_urls:
        opener = request.build_opener()
        opener.addheaders = [('User-agent',
                              'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36'),
                             ('accept',
                              'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9')]
        request.install_opener(opener)
        name = os.path.split(pic_url)[-1]
        if '.' not in name:
            name = name + '.jpg'
        try:
            request.urlretrieve(pic_url, r'C:\Users\msi\Desktop\google\{0}'.format(name))
            print(name + '下载完成!!!')
        except:
            request.urlretrieve(pic_url, r'C:\Users\msi\Desktop\google\{0}.jpg'.format(a))
            print(str(a) + '下载完成!!!')
            a+=1
if __name__ =='__main__':
    if os.path.isdir(r'C:\Users\msi\Desktop\Google'): #修改成你想要存储到的地方
        pass
    else:
        os.mkdir(r'C:\Users\msi\Desktop\Google') #修改成你想要存储到的地方
    num = int(input('请输入你想要下载的图片数量(整数):'))
    pic_urls = []
    url = input('请输入你想要下载的谷歌图片网址:')
    driver_path = r'G:\Python\chromedriver' #修改成你的chromedriver的路径
    driver = webdriver.Chrome(executable_path=driver_path)
    driver.get(url)
    first_pic_button = driver.find_element_by_xpath('//div[@id="islrg"]/div[1]/div[1]/a[1]')
    first_pic_button.click()
    pic_url_get(num)
    print(pic_urls)
    pics_download()
    print('-----------------------------------爬取完成------------------------------------------')

使用Python爬取文件通常会用到`requests`库,以下是爬取RobotStudio 2025版.bin文件的基本步骤及示例代码。 首先,要确认文件的下载链接。在给定的引用中,链接指向百度网盘,百度网盘有较为复杂的反爬机制和鉴权流程,不能直接用常规的爬取方法获取文件。如果有直接的.bin文件下载链接,可以使用如下示例代码: ```python import requests # 假设这是RobotStudio 2025版.bin文件的直接下载链接 download_url = 'your_direct_download_url.bin' # 本地保存的文件名 local_filename = 'RobotStudio2025.bin' # 发送请求 response = requests.get(download_url, stream=True) # 检查请求是否成功 if response.status_code == 200: with open(local_filename, 'wb') as file: for chunk in response.iter_content(chunk_size=8192): if chunk: # 过滤掉保持活动的新块 file.write(chunk) print('文件下载成功') else: print(f'请求失败,状态码: {response.status_code}') ``` 如果是从百度网盘下载,需要更复杂的处理,要先解决登录、提取真实下载链接等问题。可以使用`selenium`库模拟浏览器操作来绕过百度网盘的鉴权。以下是一个简单示例: ```python from selenium import webdriver from selenium.webdriver.common.by import By import time import requests # 设置Chrome浏览器驱动路径 driver_path = 'path_to_chromedriver' driver = webdriver.Chrome(executable_path=driver_path) # 打开百度网盘链接 url = 'https://pan.baidu.com/s/1qNE6PYp8631I2CSPCgu0Fw?pwd=1234' driver.get(url) # 等待用户手动登录或完成验证码等操作 time.sleep(20) # 定位下载按钮并点击 try: download_button = driver.find_element(By.CSS_SELECTOR, 'your_download_button_selector') download_button.click() time.sleep(5) # 获取真实下载链接(这里需要根据实际情况解析) real_download_url = 'parsed_real_download_url' # 下载文件 response = requests.get(real_download_url, stream=True) if response.status_code == 200: with open('RobotStudio2025.bin', 'wb') as file: for chunk in response.iter_content(chunk_size=8192): if chunk: file.write(chunk) print('文件下载成功') else: print(f'请求失败,状态码: {response.status_code}') except Exception as e: print(f'发生错误: {e}') driver.quit() ``` 需要注意的是,爬取文件要确保下载行为符合法律法规和网站的使用条款。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

WageningenUR

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值