爬取淘宝商品信息

   

目录

一、 网络爬虫概念

二、 网络爬虫流程

三、 爬取商品代码


爬虫作为一项实用性很高的学科,它有着自己的概念与流程,理解它的模式有助于对本设计的探究。

一、 网络爬虫概念

    网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站,可以自动采集所有其能够访问到的页面内容,以获取或更新这些网站的内容和检索方式。从功能上来讲,爬虫一般分为数据采集,处理,储存三个部分。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。

二、 网络爬虫流程

    发起请求:通过url向服务器发起request请求,请求可以包含额外的header信息。

    获取响应内容:如果服务器正常响应,那我们将会收到一个response,response即为我们所请求的网页内容,或许包含HTML,Json字符串或者二进制的数据等。

    解析内容:如果是HTML代码,则可以使用网页解析器进行解析。

    保存数据:可以保存到本地文件

三、 爬取商品代码

#!/usr/bin/env python
# coding: utf-8

# In[1]:


from selenium import webdriver
import time
import re
driver = webdriver.Chrome()
from selenium import webdriver
import time
import csv


# 搜索商品,获取商品页码
def search_product(key_word):
    # 定位输入框
    browser.find_element_by_id("q").send_keys(key_word)
    # 定义点击按钮,并点击
    browser.find_element_by_class_name('btn-search').click()
    # 最大化窗口:为了方便我们扫码
    browser.maximize_window()
    # 等待15秒,给足时间我们扫码
    time.sleep(15)
    # 定位这个“页码”,获取“共100页这个文本”
    page_info = browser.find_element_by_xpath('//div[@class="total"]').text
    # findall()返回的是一个列表,虽然此时只有一个元素它也是一个列表。
    page = re.findall("(\d+)",page_info)[0]
    return page

# 获取数据
def get_data():
    # 通过页面分析发现:所有的信息都在items节点下
    items = browser.find_elements_by_xpath('//div[@class="items"]/div[@class="item J_MouserOnverReq  "]')
    for item in items:
        # 参数信息
        pro_desc = item.find_element_by_xpath('.//div[@class="row row-2 title"]/a').text
        # 价格
        pro_price = item.find_element_by_xpath('.//strong').text
        # 付款人数
        buy_num = item.find_element_by_xpath('.//div[@class="deal-cnt"]').text
        # 旗舰店
        shop = item.find_element_by_xpath('.//div[@class="shop"]/a').text
        # 发货地
        address = item.find_element_by_xpath('.//div[@class="location"]').text
        #print(pro_desc, pro_price, buy_num, shop, address)
        with open('{}.csv'.format(key_word), mode='a', newline='', encoding='utf-8-sig') as f:
            csv_writer = csv.writer(f, delimiter=',')
            csv_writer.writerow([pro_desc, pro_price, buy_num, shop, address])

def main():
    browser.get('https://www.taobao.com/')
    page = search_product(key_word)
    print(page)
    get_data()
    page_num = 1
    while int(page) != page_num:
        print("*" * 20)
        print("正在爬取第{}页".format(page_num + 1))
        browser.get('https://s.taobao.com/search?q={}&s={}'.format(key_word, page_num*44))
        browser.implicitly_wait(15)
        get_data()
        page_num += 1
    print("数据爬取完毕!")

if __name__ == '__main__':
    key_word = input("请输入你要搜索的商品:")
    browser = webdriver.Chrome()
    main()


在搜索框中输入信息,比如口红

则会形成一个口红的csv文件。

Python爬取淘宝商品信息通常涉及到网络爬虫技术,主要步骤包括: 1. **选择库**:使用 Python 的库如 `requests` 发送 HTTP 请求获取网页内容,`BeautifulSoup` 或 `lxml` 解析 HTML 结构,以及 `pandas` 存储数据。 2. **分析网页结构**:查看淘宝商品页面的 HTML 源码,找出包含商品信息的部分,比如商品标题、价格、图片链接等元素的 CSS 或 XPath 选择器。 3. **编写爬虫代码**: - 使用 `requests.get(url)` 获取商品详情页 URL,然后解析返回的 HTML。 - 使用 BeautifulSoup 或 lxml 库提取出需要的数据项。 - 利用循环遍历可能有多个商品的列表页,处理分页问题。 4. **模拟登录和设置代理**:如果需要,可以使用如 Selenium 进行浏览器自动化,或设置代理来避免 IP 被封禁。 5. **数据清洗**:有时从网页抓取的数据可能含有不必要的标签或格式问题,需要进行清理和转换。 6. **保存数据**:将爬取到的信息存储到文件(CSV、JSON 或数据库)中。 ```python import requests from bs4 import BeautifulSoup def crawl_taobao_item(url): headers = {'User-Agent': 'Mozilla/5.0'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'lxml') title = soup.find('div', class_='product-name').text price = soup.select_one('.price').get_text() img_url = soup.select_one('.img-box img')['src'] # 数据清洗和处理... data = { 'title': title, 'price': price, 'image_url': img_url } return data # 示例 base_url = "https://item.taobao.com/item.htm?id=1234567890" items = [] for i in range(1, 11): # 模拟翻页 url = f"{base_url}?page={i}" item_data = crawl_taobao_item(url) items.append(item_data) # 将数据保存到 CSV 文件 import pandas as pd df = pd.DataFrame(items) df.to_csv('taobao_items.csv', index=False) ```
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

进步小白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值