使用urllib和beautifulSoup实现爬虫抓取小说网站书名,解决BUG:NoneType object has no attribute 'find_all'

本文介绍如何使用Python的urllib库抓取小说网站的数据,并通过BeautifulSoup进行解析。在解析过程中,特别提到了一个常见错误:当对象为None时调用'find_all'方法会抛出AttributeError。解决方案是确保在调用该方法前对象已正确初始化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先找一个网站,例如

urlHTML='http://www.douban.com/tag/%E5%B0%8F%E8%AF%B4/?focus=book'


接下来利用urllib库抓取数据,保存数据到一个变量中

request_data=urllib.request.urlopen(urlHTML)


用beautifulSoup解析网页语法,并保存结果,注意此处第二个参数不能使用单引号,

否则会出现BUG      NoneType object has no attribute 'find_all'

soup=BeautifulSoup(request_data,"html.parser")



字典定义筛选规则,使用bS库find方法抓取数据
### 使用Python实现微信公众号内容的网络爬虫 为了构建一个能够抓取微信公众号内容的网络爬虫,可以采用多种方法技术栈组合。考虑到目标网站可能具有复杂的JavaScript渲染机制,`Selenium`是一个不错的选择[^3]。 #### 导入必要的库 首先安装并导入所需的库: ```bash pip install selenium requests lxml beautifulsoup4 webdriver_manager ``` 接着,在脚本中引入这些模块: ```python from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.chrome.service import Service as ChromeService from webdriver_manager.chrome import ChromeDriverManager import time ``` #### 初始化浏览器实例 创建一个函数用于初始化Chrome WebDriver实例,并设置一些基本参数: ```python def init_driver(): options = webdriver.ChromeOptions() options.add_argument('--headless') # 设置无头模式运行 driver = webdriver.Chrome(service=ChromeService(ChromeDriverManager().install()), options=options) return driver ``` #### 访问页面并获取数据 定义另一个函数负责访问指定URL以及提取所需的数据: ```python def fetch_wechat_articles(driver, public_account_name): base_url = "https://weixin.sogou.com/weixin" params = { 'query': public_account_name, '_sug_type_': '', 'sut': '', 'lkt': '', 'page': 1, 'ie': 'utf8', 'type': 1 } search_query = f"{base_url}?{urllib.parse.urlencode(params)}" driver.get(search_query) try: element = WebDriverWait(driver, 10).until( EC.presence_of_element_located((By.CLASS_NAME, "news-list")) ) articles = [] items = element.find_elements(By.CSS_SELECTOR, ".txt-box h3 a") for item in items[:5]: # 只取前五篇文章链接为例 title = item.text.strip() link = item.get_attribute('href') articles.append({"title": title, "link": link}) return articles except Exception as e: print(f"Error occurred while fetching articles: {e}") return None ``` 此部分代码通过模拟搜索引擎查询特定公众号名称的方式找到对应的文章列表页,并从中解析出每篇推文的具体链接地址。 #### 处理HTML实体字符转义问题 当处理从网页上抓取下来的文本时,可能会遇到HTML实体编码的问题。对于这个问题,建议使用`html`标准库中的unescape方法替代已经过时的方法[^4]: ```python import html escaped_text = "<p>This is an example.</p>" unescaped_text = html.unescape(escaped_text) print(unescaped_text) # 输出:<p>This is an example.</p> ``` 以上就是利用Python编写的简单版微信公众号文章抓取器的主要组成部分。需要注意的是实际开发过程中还需要考虑更多细节如异常处理、反爬策略应对等。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值