Python通过BeautifulSoup爬取豆瓣读书网页内容

本文介绍如何使用Python结合urllib2和BeautifulSoup库,实现对豆瓣读书页面的爬取,获取最新及最受欢迎图书的数据。通过DOM解析技术,精准定位网页元素,提取所需内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

代码使用urllib2与BeautifulSoup来爬取豆瓣网上面的最新图书与最受欢迎图书。通过BeautifulSoup使用DOM技术,对标签索引,从而找出所需内容

#coding:utf-8
import urllib2
import csv
from bs4 import BeautifulSoup
from  selenium import webdriver
import  re
import requests

url="https://book.douban.com/"
response=urllib2.urlopen(url)
html_cont=response.read()
soup=BeautifulSoup(html_cont,'html.parser',from_encoding='utf-8')
Title_1=soup.find("div",{"class":"section books-express "})
Title_2=Title_1.find("div",{"class":"hd"})
#图书属性
Book_nature=Title_2.h2.span.get_text().encode("utf8")
Title_3=Title_1.find("div",{"class":"bd"})
Title_one1=Title_3.find('ul',{"class":"list-col list-col5 list-express slide-item"})
Title_one=Title_one1.find_all("li")
count=0
with open("book.csv","wb") as f:
    csv_writer = csv.writer(f, delimiter=',')
    csv_writer.writerow([Book_nature])
    csv_writer.writerow(["图书名字为","图书链接为","图书图片链接为","图书简介"])
    for title_all  in Title_one:
   
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值