Python爬虫(5)——获取京东手机图片

本文介绍了一个使用Python实现的简单爬虫程序,用于从京东网站抓取特定分类下的商品图片。程序首先获取网页源代码,然后利用正则表达式过滤无关信息并提取图片链接,最后将图片下载保存至本地。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

代码如下所示:

# -*- coding: utf-8 -*-
"""
Created on Thu Jun  8 15:24:27 2017

@author: zch
"""

import re
import urllib.request

def craw(url,page):
    #获取网页源代码
    html1 = urllib.request.urlopen(url).read()
    html1 = str(html1)
    #对网页源码进行过滤,只保留和产品列表相关的信息
    pat1 = '<div id="plist".+? <div class="page clearfix">'
    result1 = re.compile(pat1).findall(html1)
    result1 = result1[0]
    #print(result1)
    #再次过滤,提取网页中图片的链接,并将链接地址存储在列表中
    pat2 = '<img width="220" height="220" data-img="1" data-lazy-img="//(.+?\.jpg)">'
    imagelist = re.compile(pat2).findall(result1)
    x = 1
    #遍历列表,将链接存储到本地
    for imageurl in imagelist:
        imagename = "E:/Python/data/jd/img1/" + str(page) + str(x) + ".jpg"
        imageurl = "http://" + imageurl
        try:
            urllib.request.urlretrieve(imageurl,filename=imagename)
        except urllib.error.URLError as e:
            if hasattr(e,"code"):
                x+=1
            if hasattr(e,"reason"):
                x+=1
        x+=1
#通过for循环,将该分类下的所有网页都爬取一遍
for i in range(1,88):
    url = "https://list.jd.com/list.html?cat=9987,653,655&page="+str(i)
    craw(url,i)

爬取结果如下图所示:

这里写图片描述

Python京东手机参数通常涉及到网络爬虫技术,其中Pandas库常用于数据处理,BeautifulSoup或Scrapy框架则用于解析HTML网页。以下是一个简单的示例,说明如何分页京东商城的手机商品信息: 首先,安装必要的库: ```bash pip install requests beautifulsoup4 pandas ``` 然后,编写一个基本的爬虫脚本,这里以requests和BeautifulSoup为基础: ```python import requests from bs4 import BeautifulSoup import pandas as pd def get_page_content(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) if response.status_code == 200: return response.text else: print(f"请求失败,状态码:{response.status_code}") return None def parse_page(html): soup = BeautifulSoup(html, 'html.parser') # 提取商品信息,假设手机参数在`div`标签内,如品牌、型号、价格等 phones_info = soup.find_all('div', class_='product-info') data = [] for info in phones_info: brand = info.find('span', class_='p-name').text.strip() model = info.find('span', class_='p-name-detail').text.strip() price = info.find('em', class_='p-price').text.strip() # 添加其他参数,例如内存、分辨率等 # memory = info.find('span', class_='some-class-for-memory').text.strip() if exists else '' # resolution = info.find('span', class_='some-class-for-resolution').text.strip() if exists else '' data.append({ 'Brand': brand, 'Model': model, 'Price': price, # ...其他参数 }) return data def fetch_jd_phone_params(start_url, num_pages=1): phone_data = [] for i in range(num_pages): url = f"{start_url}?page={i + 1}" html = get_page_content(url) if html is not None: parsed_data = parse_page(html) phone_data.extend(parsed_data) df = pd.DataFrame(phone_data) return df # 示例开始URL start_url = "https://search.jd.com/Search?keyword=%E7%A7%BB%E5%8A%A8&enc=utf-8&wq=%E7%A7%BB%E5%8A%A8" # 取并保存结果 df = fetch_jd_phone_params(start_url) df.to_csv('jd_phones.csv', index=False) print("取完成,数据已保存到jd_phones.csv")
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值