python爬虫: 指定 关键字 爬取图片

本文介绍了一种使用Python实现的百度图片爬虫程序,能够针对指定的关键字批量下载图片资源。通过解析百度图片搜索结果页面获取图片链接,并将图片保存到本地指定文件夹中。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Introduction

设定关键字,从百度图片上爬取海量图片。

这里写图片描述

Code

# coding:utf-8
import os
import re
import urllib
import shutil
import requests
import itertools


# ------------------------ Hyperparameter ------------------------
main_folder = '/Users/xxx/xxx/'		# 存放图片的主目录
main_dir = 'today/'					# 在主目录下设置子目录
"""
1. 如有多个关键字,需用空格进行分隔。
2. 每个关键字会单独存一个文件夹。
"""
keyword_lst = ['小姐姐', '美女 照片', '美女 海报']

# 设定保存后的图片格式
save_type = '.jpg'
# 每个关键字需要爬取的图片数量
max_num = 200

# ------------------------ URL decoding ------------------------
str_table = {
    '_z2C$q': ':',
    '_z&e3B': '.',
    'AzdH3F': '/'
}

char_table = {
    'w': 'a',
    'k': 'b',
    'v': 'c',
    '1': 'd',
    'j': 'e',
    'u': 'f',
    '2': 'g',
    'i': 'h',
    't': 'i',
    '3': 'j',
    'h': 'k',
    's': 'l',
    '4': 'm',
    'g': 'n',
    '5': 'o',
    'r': 'p',
    'q': 'q',
    '6': 'r',
    'f': 's',
    'p': 't',
    '7': 'u',
    'e': 'v',
    'o': 'w',
    '8': '1',
    'd': '2',
    'n': '3',
    '9': '4',
    'c': '5',
    'm': '6',
    '0': '7',
    'b': '8',
    'l': '9',
    'a': '0'
}
char_table = {ord(key): ord(value) for key, value in char_table.items()}

# ------------------------ Encoding ------------------------
def decode(url):
    for key, value in str_table.items():
        url = url.replace(key, value)
    return url.translate(char_table)

# ------------------------ Page scroll down ------------------------
def buildUrls(keyword):
    word = urllib.parse.quote(keyword)
    url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&istype=2nc=1&pn={pn}&rn=60"
    urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))
    return urls

re_url = re.compile(r'"objURL":"(.*?)"')

# ------------------------ Get imgURL ------------------------
def resolveImgUrl(html):
    imgUrls = [decode(x) for x in re_url.findall(html)]
    return imgUrls

# ------------------------ Download imgs ------------------------
def downImgs(imgUrl, dirpath, imgName):
    filename = os.path.join(dirpath, imgName)
    try:
        res = requests.get(imgUrl, timeout=15)
        if str(res.status_code)[0] == '4':
            print(str(res.status_code), ":", imgUrl)
            return False
    except Exception as e:
        print(e)
        return False
    with open(filename + save_type, 'wb') as f:
        f.write(res.content)

# ------------------------ Check save dir ------------------------
def mkDir(dst_dir):
    try:
        shutil.rmtree(dst_dir)
    except:
        pass
    os.makedirs(dst_dir)


# ------------------------ Pull Img ------------------------
def pull_img(cur_keyword, save_dir):

    print('\n\n', '= = ' * 10, ' keyword Spider 「{}」'.format(cur_keyword), ' = =' * 10, '\n\n')
    mkDir(save_dir)
    urls = buildUrls(cur_keyword)
    idx = 0
    for url in urls:
        html = requests.get(url, timeout=10).content.decode('utf-8')
        imgUrls = resolveImgUrl(html)
        # Ending if no img
        if len(imgUrls) == 0:
            break
        for url in imgUrls:
            downImgs(url, save_dir, '{:>05d}'.format(idx + 1))
            print('  {:>05d}'.format(idx + 1))
            idx += 1
            if idx >= max_num:
                break
        if idx >= max_num:
            break
    print('\n\n', '= = ' * 10, ' Download ', idx, ' pic ', ' = =' * 10, '\n\n')



if __name__ == '__main__':
    
    for cur_keyword in keyword_lst:
        save_dir = main_folder + main_dir + cur_keyword
        pull_img(cur_keyword, save_dir)
Python爬取网站并通过关键字搜索通常涉及以下几个步骤: 1. **选择库**:首先,你需要选择一个网络爬虫库,比如`requests`用于发送HTTP请求获取网页内容,`BeautifulSoup`或`lxml`解析HTML,以及`Scrapy`作为更强大的框架。 2. **发送请求**:使用`requests.get()`获取特定URL的内容。如果需要登录或处理动态加载的内容,可以考虑`Selenium`配合使用。 3. **解析HTML**:利用如`BeautifulSoup`这样的库,创建一个解析树,找到包含关键字的元素。你可以根据CSS选择器、标签名或XPath表达式定位到相应位置。 4. **提取数据**:从找到的元素中提取你需要的信息。这可能是文本、链接、图片地址等,具体取决于HTML结构。 5. **过滤和筛选**:使用条件判断,检查是否满足关键词搜索的要求,只保留匹配的部分。 6. **存储数据**:将抓取的数据保存到文件、数据库或CSV中。 例如,这里是一个简单的示例,仅作演示,实际操作会更复杂并需要处理异常: ```python import requests from bs4 import BeautifulSoup def search_keyword(keyword, url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') for item in soup.find_all('div', class_='search-result'): # 这里假设class='search-result' 包含了关键字 if keyword in str(item): print(item.text) # 调用函数,传入关键字和网站URL search_keyword('你的关键字', 'http://example.com')
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值