喝汤 beautifulsoup 批量爬取图片

未成功 

from urllib.request import urlopen
import re
import random

base_url = "http://www.meizitu.com/a/fuli.html"
html = urlopen(base_url).read()
#print(html)
sub_urls = soup.find_all('a', {'href':re.compile('http://www.meizitu.com/a/[0-9]*'),"target": "_blank"})

for link in sub_urls:
    sec_urls = link['href']
    print(sec_urls)
    html = urlopen(sec_urls).read()
    thr_urls = soup.find_all('img', {'src':re.compile('.*?\.jpg')})
    for sec_link in thr_urls:
        #print(sec_link)
        img_url = sec_link['src']
        print(img_url)
        i=1
        urlretrieve(img_url,'%s,jpg'%(i))
        i+=1
        if i >100:
            break

 

暂时还未能模块化 连类都没有定义 就想先成功来着

urlretrieve(img_url,'%s,jpg'%(i)) 这句一直报错

明天继续

转载于:https://www.cnblogs.com/mamang/p/8667209.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值