【Python爬虫】爬取京东手机名字和价格(搜索的第一页),存入Excel表

本文介绍使用Python爬虫抓取京东手机搜索结果第一页的商品名称和价格,并将数据保存到Excel表格中。目前仅实现第一页的爬取,后续将学习如何抓取更多页面及实现首页搜索功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在爬取了网易云歌单之后,在网上找各种爬虫实战,然后就觉得这个简单一点,然后就开始了我的懵逼之路。这个代码只是爬取搜索出来的信息的第一页,后续会学习爬取下一页,还有添加京东首页搜索能力,现在就先写着第一页,大佬看一下:

import requests
import re
from bs4 import BeautifulSoup
from selenium import webdriver
from openpyxl import workbook
import time

#创建wb对象,用于将信息存入Excel表
wb = workbook.Workbook()
ws = wb.active

#先存入第一行
ws.append(['商品名称','商品价格'])

#使用selenium模块,模拟浏览器访问网页,获取所有的源代码
url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BA&enc=utf-8&wq=%E6%89%8B%E6%9C%BA&pvid=d6c4c2602be049be8b4fe6129f72f6ef'
chromedriver = "/home/l1/PycharmProjects/untitled/spider练习/chromedriver"
driver = webdriver.Chrome(chromedriver)
driver.implicitly_wait(3)
driver.get(url)

#模拟鼠标下拉到底部
for i in range(1,5):
    driver.execute_script("window.scrollTo(0, document.body.scrollHeight)")
    time.sleep(1)

#接受获取到的内容
soup = BeautifulSoup(driver.page_source,'lxml')
goods_list = soup.select('.gl-item')

#对内容进行筛选
for goods in goods_list:
    title = goo
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值