头歌:Scrapy爬虫之网站图片爬取

头歌:Scrapy爬虫之网站图片爬取

第1关:爬取网站实训图片的链接

  1. 编程要求
    • 通过审查元素,观察图片链接的代码规律。
    • 点击代码文件旁边的三角符号,选择文件 eduSpider.py
    • Begin-End 区间补充代码,使函数 parse 能够爬取图片链接,并保存到本地文件 images.txt 中。
  2. 测试说明
    • 平台会对编写的代码进行测试(本次测试无输入)。
    • 预期输出:爬取成功。
  3. 代码示例
# -*- coding: utf-8 -*-
# -*- coding: utf-8 -*-
import scrapy


class EduspiderSpider(scrapy.Spider):
   name = 'eduSpider'
   allowed_domains = ['127.0.0.1']
   start_urls = ['http://127.0.0.1:8080/imgs/']

   def parse(self, response):
       #********** Begin **********#
        with open('images.txt','w') as f:
           img = response.xpath("//div[@class='box']/div/a/img/@src")
           f.write("{}\n".format(img))
       #********** End **********#

第2关:爬取网站实训图片并下载

  1. 编程要求
    • 通过审查元素,观察图片链接的代码规律。
    • 点击代码文件旁边的三角符号,分别选择 items.pypipelines.py 和主爬虫 imgspier.py 三个文件,补充 Begin-End 区间的代码,最终能成功将网站的图片下载到 images 文件夹,并且将图片命名为对应的数字。
  2. 测试说明
    • 代码完成后点击测评,当评测出现 Django 启动失败时,重新评测即可。
    • 爬虫运行完成后,会在根目录下生成 images 文件夹,在本平台进入命令行,找到相应目录:cd /images,通过命令 ls,可以查看 images 文件夹的内容。
    • 预期输出:爬取成功。
  3. 代码示例
    • step2/ImgProject/ImgProject/items.py
#items.py
import scrapy

class ImgprojectItem(scrapy.Item):
   #********** Begin **********#
   img_urls=scrapy.Field() #保存图片链接   
   images=scrapy.Field()  #保存图片名字      
   #********** End **********#
- `step2/ImgProject/ImgProject/pipelines.py`
#pipelines.py
import os,requests
from ImgProject import settings

class ImgprojectPipeline(object):
   def process_item(self, item, spider):
       #********** Begin **********#
       dir_path='{}'.format(settings.IMAGES_STORE)  #文件夹路径:从配置文件settings中导入定义好的路径
       if not os.path.exists(dir_path):
           os.makedirs(dir_path)
       name=item['images']
       img_url=item['img_urls']
       img_path=dir_path+'/'+name+'.jpg'  #图片的最终存储路径
       img=requests.get(img_url,headers=settings.DEFAULT_REQUEST_HEADERS)  #对图片的url发出请求,准备下载
       with open(img_path,'wb') as f:  #使用wb方式保存图片
           f.write(img.content)
       #********** End **********#
- `step2/ImgProject/ImgProject/spiders/imgspier.py`
#imgspider.py
#-*- coding: utf-8 -*-
import scrapy
from ImgProject.items import ImgprojectItem

class ImgspierSpider(scrapy.Spider):
   name = 'imgspier'
   allowed_domains = ['127.0.0.1']
   start_urls = ['http://127.0.0.1:8080/imgs/']

   def parse(self, response):
       #********** Begin **********#
       img_srcs = response.xpath('//div/a/img/@src').extract()
       for img_src in img_srcs:  #for循环遍历列表
           name=img_src.split('/')[-1].split('.')[0]    #提取图片名字
           item=ImgprojectItem()  #实例化类
           item['img_urls']="http://127.0.0.1:8080"+img_src  #把图片链接拼贴完整放到img_urls中
           #127.0.0.1后加:8080
           item['images']=name  #把图片名字放到images中
           yield item  #把得到的item返回到pipelines.py中
       #********** End **********#
Scrapy是一个强大的Python爬虫框架,用于高效地抓取网站数据,包括图片。如果你想通过Scrapy爬取网站图片,可以按照以下步骤操作: 1. **安装Scrapy**: 首先确保已经安装了Python和pip,然后使用命令行安装Scrapy: ``` pip install scrapy ``` 2. **创建项目**: 创建一个新的Scrapy项目: ``` scrapy startproject image_scraper cd image_scraper ``` 3. **定义爬虫**: 在`spiders`文件夹下创建一个Python文件(如`image_spider.py`),并定义Spider类。这里需要指定起始URL和解析规则,比如解析HTML找到img标签的src属性获取图片链接。 4. **解析规则**: ```python import scrapy class ImageSpider(scrapy.Spider): name = 'imagespider' start_urls = ['http://example.com'] # 替换为你想爬取的网页地址 def parse(self, response): for img in response.css('img'): # CSS选择器匹配img元素 yield { 'url': img.attrib['src'], # 获取图片链接 } next_page = response.css('a.next::attr(href)').get() # 如果有分页,提取下一页链接 if next_page is not None: yield response.follow(next_page, self.parse) ``` 5. **下载图片**: Scrapy默认不会直接下载图片,需要配置一个下载中间件(例如`ImagesPipeline`)。将此管道添加到`settings.py`文件中,并配置保存路径: ```python IMAGES_STORE = 'path/to/save/images' ``` 6. **运行爬虫**: 在项目根目录运行爬虫: ``` scrapy crawl imagespider -o output.json # 输出结果到json文件 ``` 或者 ``` scrapy crawl imagespider -t images # 直接下载图片到指定路径 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值