python简单爬虫代码示例

本文介绍了一种使用Python进行网络爬虫的方法,通过urllib和BeautifulSoup库,从目标网站抓取小说章节内容,并将其保存到本地。文章详细展示了如何将网页的二进制内容转换为字符串,再利用BeautifulSoup解析HTML,最后提取所有段落元素并保存到HTML文件中。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目标网站:http://www.jueshitangmen.info/tian-meng-bing-can-15.html
代码:
from urllib.request import urlopen
from bs4 import BeautifulSoup

html1=urlopen(“http://www.jueshitangmen.info/tian-meng-bing-can-15.html”).read() #获取二进制文件
html2=html1.decode(“utf-8”)#把二进制转为string类型
f = open(‘news.html’,‘w’,encoding=‘utf-8’)
f.write(newshtml2)
f.close()
#print(type(html1))
#print(type(html2))
#print(("\n" in html2))#换行符是包括在网页字符串里面的
#print(html2)
b_soup=BeautifulSoup(html2,features=“lxml”)#class 'bs4.BeautifulSoup
all_p=b_soup.find_all(“p”)#<class ‘bs4.element.ResultSet’>
#print(all_p[0])
f = open(‘story_p.html’,‘w’,encoding=‘utf-8’)
f.close()
for i in all_p:
f = open(‘story_p.html’,‘a’,encoding=‘utf-8’)
f.write(" “+i.get_text()+”\n")
f.close()
print(type(i.get_text()))

#print(type(all_p))
#print(b_soup)
#print(type(b_soup))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值