Scrapy爬取亚马逊商品信息

本文介绍如何使用Scrapy爬虫框架从亚马逊网站抓取手机的价格、描述和URL信息。首先,通过`scrapy Items`定义要爬取的数据结构,接着编写Spider获取初始URL,利用`scrapy shell`和XPath提取商品链接。在处理过程中,遇到相对URL需转化为完整URL,并在Spider中处理每个商品的响应。此外,还提到了`pipeline.py`在设置`ITEM_PIPELINES`后处理item的重要性,以及在编码过程中遇到的一个意想不到的问题,即从每个商品site中意外地获取到了整个页面的信息,最终通过转换解决该问题,成功爬取的数据存储在Yamaxun.json文件中。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关键词:Scrapy spider pipeline xpath
参考文档

目标:将亚马逊的上的手机信息爬取下来,包括价格、描述信息、URL 。
新建一个项目:

scrapy startproject YamaxunPhone

新建完项目后,该项目的目录结构如下:

YamaxunPhone
| scrapy.cfg
| YamaxunPhone
   |_init_.py
   |items.py
   |piplines.py
   |settings.py
   |spiders
     |_init_.py
     |Phone.py

项目新建完成后,先定义要爬取的内容(通过scrapy Items实现)
定义的Item:

Item.py

# -*- coding: utf-8 -*-
# Define here the models for your scraped items
#
# See documentation in:
# 我们只爬三项内容:手机商品的链接、价格、商品描述
import scrapy
class YamaxunItem(scrapy.Item):
    price = scrapy.Field()
    descript = scrapy.Field()
    URL = scrapy.Field()

编写spider:
初始URL 的获取:
亚马逊有一个热门手机品牌的页面,上面有品牌的链接,我们就把这些链接当作初始的URL 好了:
这里写图片描述
获取这些链接实际上已经相当于实现了一次爬虫,但我们就不用新建一个工程了,在终端输入以下命令:

scrapy shell 'http://www.amazon.cn/gp/search/other/ref=amb_link_30552132_17?ie=UTF8&n=665002051&pickerToList=brandtextbin&pf_rd_m=A1AJ19PSB66TGU&pf_rd_s=merchandised-search-left-4&pf_rd_r=1RR3NYZGNKTT02HCXYJT&pf_rd_t=101&pf_rd_p=249713272&pf_rd_i=664978051'

scrapy shell + 要处理的URL =》得到一个response对象。我们直接用response.xpath()来获取这些链接。
xpath可以通过浏览器插件获得,我在这里用的是firePath,最后获得这些链接的命令是:

response.xpath("//div[@class='c3_ref refList']/ul/li/a/@href").extract() 

这里写图片描述

获取的链接是相对地址,前面加”http://www.amazon.cn“就好了。
将其复制下来存到s里面,然后在python命令行中用几行代码得到各个完整的链接:

URL_list=[]
for i in s:
    i = 'http://www.amazon.cn'+i
    URL_list.append(i)
print URL_list

将上面代码的输出复制下来备用。

编写Spider:
在spider目录下新建一个Phone.py

# -*- coding: utf-8 -*-
from scrapy.selector import Selector
try:
    from scrapy.spider import Spider
except:
    from scrapy.spider import BaseSpider as Spider
Python爬取亚马逊商品信息通常涉及到网络爬虫技术,可以利用requests库获取网页内容,然后解析HTML或XML结构数据,常用的是BeautifulSoup、Scrapy等工具。以下是基本步骤: 1. **安装必要的库**: 首先需要安装`requests`, `beautifulsoup4`, 和`lxml`(如果BeautifulSoup选择的是基于lxml的解析器),可以用pip命令行工具安装: ``` pip install requests beautifulsoup4 lxml ``` 2. **发送请求**: 使用requests.get()函数向亚马逊网站发送GET请求,获取商品详情页面的HTML源码。 3. **解析网页**: BeautifulSoup库帮助我们分析HTML结构,找到包含商品信息的元素,如标题、价格、描述等。通过定位标签(如`<title>`,`<span class="a-price">`等)提取所需的数据。 4. **处理数据**: 将提取到的信息存储在字典或列表中,以便后续处理或保存到文件或数据库中。 5. **考虑反爬机制**: 确保遵守亚马逊的robots.txt规则,并可能需要设置User-Agent和延迟请求(time.sleep())以避免过于频繁的访问导致IP被封禁。 6. **错误处理**: 考虑异常处理,比如网络连接失败、解析错误等。 ```python import requests from bs4 import BeautifulSoup def scrape_amazon_item(url): headers = {'User-Agent': 'Mozilla/5.0'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'lxml') title = soup.find('h1', {'class': 'a-size-mini'}).text price = soup.find('span', {'class': 'a-price-whole'}).text # 更具体的元素定位和数据处理... # ... return title, price # 示例 url = "https://www.amazon.com/YourProductPage" title, price = scrape_amazon_item(url) print(f"Title: {title}, Price: {price}")
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值