python爬虫爬取车辆信息

该文章描述了一位博主利用Python爬虫从懂车帝网站抓取车辆的名称、价格和图片,因某些信息难以获取,选择了随机生成。爬虫程序包括数据请求、图片下载和数据库插入,同时对价格进行了区间划分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

博主在完成一个项目时接触到车辆信息的获取,将一个个车辆信息添加进入数据库费时费力,因此便考虑使用python爬虫来实现数据爬取功能,爬取的网站是懂车帝,流程很简单:
爬取数据,下载图片,插入数据库。
下面介绍实现流程:
博主爬取信息时发现能用的只有车辆名称,价格,图片,其余的像车辆品牌,详情并没有获取到,当然这并不是无法获取到,只是那个链接找起来太费眼睛了,哈哈哈哈。

因此其余的所需信息博主便随机生成了。

import requests
import simplejson
def __get_car_list_data(page,cityName):
    web_url = 'https://www.dongchedi.com/motor/brand/m/v6/select/series/?city_name='+cityName

    headers = {
        'User-Agent': "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.0.10) Gecko/2009042316 Firefox/3.0.10",
        'Content-type': "application/json;charset=UTF-8"
    }
    data={
        "offset": page,
        "limit": 30,
        "is_refresh": 0,
        "city_name": "北京"
    }
    r = requests.post(headers = headers,url=web_url,data=data)
    _body = r.text
    json_list = simplejson.loads(_body)
    cars=json_list['data']['series']
    car_list=[]
    i=0
    info=['info1','info2','info3']#详情信息
    typeid=['1','3','4','6','2','5','8','7']#品牌编号
    score = ['8.5', '7.8', '9.0', '6.8']#评分
    region = ['中国', '日本', '德国', '美国', '俄罗斯', '英国', '意大利', '法国']#产地/车系
    for car in cars:
        downloadImg(car['outter_name'], car['cover_url'])#将获取的图片url进行下载

        d=(car['outter_name'],'img/'+car['outter_name']+'.png',car['dealer_max_price'],info[i%3],typeid[i%7],region[i%7],score[i%3],price(car['dealer_max_price']))
        car_list.append(d)
        i=i+1
    insert_data(car_list)#执行插入数据库操作
    return car_list

将获取的字段处理好后插入数据库:

def insert_data(car_list):
    # 导入pymysql包
    import pymysql
    # 创建数据库连接
    conn = pymysql.connect(host="localhost", port=3306, user="", passwd="", db="auto_mall")
    # 获取一个游标对象
    cursor = conn.cursor()
    # 设置参数i,for语句循环
    for car in car_list:
        sql = "insert into auto (name,image,price,info,typeid,region,score,p_type) values(%s,%s,%s,%s,%s,%s,%s,%s)"
        cursor.execute(sql, car)
        conn.commit()
    # 关闭连接
    conn.close()
    cursor.close()

此外图片下载方法定义:

def downloadImg(fileName,url):
    r = requests.get(url)
    with open('D:/images/'+fileName+'.png', 'wb') as f:
        f.write(r.content)

这里博主为方便按照价格区间进行检索,给设置了价格区间字段的判断:

def price(x):
    x=int(float(x))
    if x < 10:
        return '0-10万'
    elif x > 10 and x<15:
        return '0-10万'
    elif x > 15 and x < 20:
        return '15-20万'
    elif x > 20 and x < 30:
        return '20-30万'
    elif x > 30 and x < 50:
        return '30-50万'
    elif x > 50 and x < 100:
        return '50-100万'
    elif x > 100 and x < 200:
        return '100-200万'
    else:
        return '200万以上'
    print('finish')

最终效果:
在这里插入图片描述
在这里插入图片描述

Python中编写一个爬取二手信息的简单爬虫,通常会涉及使用requests库获取网页内容,然后使用BeautifulSoup或lxml解析HTML数据。这里是一个基本的步骤: ```python # 导入需要的库 import requests from bs4 import BeautifulSoup # 定义目标URL url = "https://www.dongchedi.com二手" def get_used_car_data(url): # 发送GET请求 response = requests.get(url) # 检查请求状态码,如果成功则继续 if response.status_code == 200: # 使用BeautifulSoup解析HTML soup = BeautifulSoup(response.text, 'html.parser') # 找到包含车辆信息的部分,这将取决于网站的具体结构 cars = soup.find_all('div', class_='car-item') # 这里假设车辆信息在class为'car-item'的div元素中 for car in cars: # 提取并打印出必要的信息,例如标题、价格等 title = car.find('h2', class_='title').text price = car.find('span', class_='price').text print(f"标题: {title}\n价格: {price}\n...\n") # 根据实际需求提取更多信息 # 爬虫可能需要处理分页,你可以添加类似点击下一页的功能 else: print("无法连接到页面") get_used_car_data(url) ``` 注意: 1. 实际编码过程中,你需要查看二手页面的HTML结构,因为上述代码中的选择器(如`find_all`和`find`)依赖于特定的类名或ID,这些可能会随着网站设计的变化而变化。 2. 网络爬虫使用需遵守网站的Robots协议,并尊重版权法,切勿用于非法用途。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

彭祥.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值