爬取小说【含完整代码】

嗨嗨,我是小圆。
相信大家都会看小说,但是有些小说看几章就要付费,奈何自己又没有会员,只能用用python爬取一下了。

请添加图片描述

基本开发环境

Python 3.6
Pycharm

相关模块的使用

requests
parsel

安装Python并添加到环境变量,pip安装需要的相关模块即可。

单章爬取

请添加图片描述
一、明确需求
爬取小说内容保存到本地

  • 小说名字
  • 小说章节名字
  • 小说内容
# 第一章小说url地址
url = 'http://www.平台原因自己打.com/52_52642/25585323.html'
url = 'http://www.平台原因自己打.com/52_52642/25585323.html'
headers = {
   
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
print(response.text)

请添加图片描述
请求网页返回的数据中出现了乱码,这就需要我们转码了。

加一行代码自动转码。

response.encoding = response.apparent_encoding

请添加图片描述

解析数据

请添加图片描述
根据css选择器可以直接提取小说标题以及小说内容。

def get_one_novel(html_url):
    # 调用请求网页数据函数
    response = get_response(html_url)
    # 转行成selector解析对象
    selector = parsel.Selector(response.text)
    # 获取小说标题
    title = selector.css('.bookname h1::text').get()
    # 获取小说内容 返回的是list
    content_list 
### Python 爬虫抓取多本小说代码示例 为了实现通过 Python 抓取多个小说的内容,可以利用 `requests` 和 `BeautifulSoup` 来完成网页数据获取和解析的任务。以下是完整代码示例: #### 安装依赖库 在运行代码之前,请确保安装了所需的第三方库: ```bash pip install requests beautifulsoup4 lxml ``` #### 示例代码 以下代码展示了如何构建一个多书源的小说爬虫程序。 ```python import requests from bs4 import BeautifulSoup def fetch_novel_list(url): """ 获取小说列表 """ response = requests.get(url) soup = BeautifulSoup(response.text, 'lxml') novels = [] novel_items = soup.find_all('div', class_='novel-item') # 假设每本书都在这个标签下 for item in novel_items: title = item.find('h3').text.strip() # 提取书籍名称 link = item.find('a')['href'] # 提取链接地址 author = item.find('span', class_='author').text.strip() # 提取作者 novels.append({ 'title': title, 'link': link, 'author': author }) return novels def fetch_chapter_content(chapter_url): """ 获取章节内容 """ response = requests.get(chapter_url) soup = BeautifulSoup(response.text, 'lxml') content_div = soup.find('div', id='chapter-content') # 假设章节内容在这个 div 下 chapter_title = soup.find('h1').text.strip() paragraphs = content_div.find_all('p') if content_div else [] # 找到所有的段落 text_content = '\n'.join([para.text.strip() for para in paragraphs]) return { 'title': chapter_title, 'content': text_content } def main(): base_url = "http://example-novelsite.com/novels" # 替换为目标网站的实际 URL novels = fetch_novel_list(base_url) for idx, novel in enumerate(novels[:5]): # 遍历前五本书作为演示 print(f"{idx + 1}. {novel['title']} by {novel['author']}") chapters_response = requests.get(novel['link']) chapters_soup = BeautifulSoup(chapters_response.text, 'lxml') chapter_links = [ a['href'] for a in chapters_soup.find_all('a', href=True) if '/chapters/' in a['href'] ] # 假设章节链接都包 /chapters/ 字符串 for i, chap_link in enumerate(chapter_links[:3]): # 每本书只抓取前三章作为演示 full_chap_url = f"http://example-novelsite.com{chap_link}" # 构建完整URL chapter_data = fetch_chapter_content(full_chap_url) with open(f"{novel['title'].replace('/', '_')}_{i + 1}.txt", 'w', encoding='utf-8') as file: file.write(f"# {chapter_data['title']}\n\n{chapter_data['content']}") print(f"\tChapter {i + 1} saved.") if __name__ == "__main__": main() ``` 上述代码实现了以下几个功能: 1. **获取小说列表**:从目标站点提取所有可用的小说及其基本信息。 2. **获取章节内容**:进入单个小说页面后,进一步提取其章节并保存为 `.txt` 文件。 3. **文件存储**:将每一章的内容写入独立的文本文件中以便后续阅读或处理。 此代码假设了一个通用结构化的 HTML 页面布局[^1]。如果实际的目标网站有不同的 DOM 结构,则需要调整对应的 CSS Selector 或 XPath 表达式。 --- ### 注意事项 由于不同网站的设计差异较大,在编写爬虫时需要注意以下几点: - 使用开发者工具分析目标网站的具体 HTML 结构,并据此修改选择器路径。 - 如果遇到反爬机制(如验证码、IP封锁),可能需要引入代理池或者模拟浏览器行为的技术栈(Selenium等)[^3]。 - 尊重目标网站的服务条款以及法律法规,避免因频繁请求造成服务器负担而引发法律风险[^2]。 ---
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值