爬虫爬取百度图片--python3

本文介绍了一种使用Python实现的百度图片爬虫脚本,详细解释了如何自定义爬取图片的类型和数量,包括解析图片链接、下载图片到本地等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、百度图库

https://image.baidu.com/

2、自定义爬取类型和张数

#encoding=utf8
import json
import itertools
import urllib
import requests
import os
import re
import sys
Type = sys.getfilesystemencoding()
str_table = {
    '_z2C$q': ':',
    '_z&e3B': '.',
    'AzdH3F': '/'
}
char_table = {
    'w': 'a',
    'k': 'b',
    'v': 'c',
    '1': 'd',
    'j': 'e',
    'u': 'f',
    '2': 'g',
    'i': 'h',
    't': 'i',
    '3': 'j',
    'h': 'k',
    's': 'l',
    '4': 'm',
    'g': 'n',
    '5': 'o',
    'r': 'p',
    'q': 'q',
    '6': 'r',
    'f': 's',
    'p': 't',
    '7': 'u',
    'e': 'v',
    'o': 'w',
    '8': '1',
    'd': '2',
    'n': '3',
    '9': '4',
    'c': '5',
    'm': '6',
    '0': '7',
    'b': '8',
    'l': '9',
    'a': '0'
}
char_table = {ord(key): ord(value) for key, value in char_table.items()}
def decode(url):
    for key, value in str_table.items():
        url = url.replace(key, value)
    return url.translate(char_table)
def buildUrls(word):
    url = r"http://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&fp=result&queryWord={word}&cl=2&lm=-1&ie=utf-8&oe=utf-8&st=-1&ic=0&word={word}&face=0&isType=2nc=1&pn={pn}&rn=60"
    urls = (url.format(word=word, pn=x) for x in itertools.count(start=0, step=60))
    return urls
re_url = re.compile(r'"objURL":"(.*?)"')
def resolveImgUrl(html):
    imgUrls = [decode(x) for x in re_url.findall(html)]
    return imgUrls
def downImg(imgUrl, dirpath, imgName):
    filename = os.path.join(dirpath, imgName)
    try:
        res = requests.get(imgUrl, timeout=15)
        if str(res.status_code)[0] == "4":
            print(str(res.status_code), ":" , imgUrl)
            return False
    except Exception as e:
        print("抛出异常:", imgUrl)
        print(e)
        return False
    with open(filename, "wb") as f:
        f.write(res.content)
    return True
def mkDir(dirName):
	dirpath = os.path.join(sys.path[0], dirName)
	if not os.path.exists(dirpath):
		os.mkdir(dirpath)
	return dirpath
if __name__ == '__main__':
    print("欢迎使用百度图片下载脚本!\n目前仅支持单个关键词。")
    print("下载结果保存在脚本目录下的results文件夹中。")
    print("=" * 50)
    words = input("请输入你要下载的图片关键词:\n")
    number = input("请输入你要下载的图片的个数:\n")
    word=[]
    word.append(words)
    '''
    若出现乱码,可以在代码里修改关键字,如下所示
    '''
    #word = ["苹果","香蕉","橘子"]
    for each in range(0,len(word)):
        dirpath = mkDir(word[each])
        urls = buildUrls(word[each])
        index = 0
        flag = False
        for url in urls:
            print("正在请求:%s" % url)
            html = requests.get(url, timeout=10).content.decode('utf-8',"ignore")
            imgUrls = resolveImgUrl(html)
            if len(imgUrls) == 0:  
                break
            for url in imgUrls:
                if downImg(url, dirpath, str(index) + ".jpg"):
                    index += 1
                    print("已下载 %s 张" % index)
                if index == int(number):
                    flag = True
                    break
            if flag == True:
                break

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值