爬虫小实战——爬取mooc讨论区内容

本文是一篇关于初学者使用Python爬虫抓取在线课程讨论区内容的实战分享。作者详细介绍了如何模拟登录、爬取帖子和回复信息,包括遇到的反爬机制及解决办法,如滚动条消除反爬、动态翻页的处理。内容涵盖了selenium、BeautifulSoup等库的使用,以及如何处理js动态页面的数据提取。

1.前言

之前一直都没接触过爬虫,最近刚好因为毕设数据集的需求,就趁此契机赶紧动手学习起来啦(ง •_•)ง
身为初次爬虫的小白,为了完成这一个小小的爬虫实战,中间也经历了不少曲折,断断续续花了三四天才完成。个人觉得这个小项目非常典型,涉及到了许多知识点,可以作为一个入门的好例子,就想写一篇总结与大家分享一下~

2.实战介绍

  • 爬取课程:课程网页链接.
  • 爬取范围:选定课程的讨论区部分的内容
  • 所需数据:
    • 帖子层面:帖子id、浏览量、回复量、投票量、帖子主题、帖子内容、发帖者id、发帖时间
    • 回复层面:帖子id、回复内容、回复评论量、回复投票量、回复者id、回复时间
  • 网页构造分析:
    讨论区由3个板块构成,每个板块下含若干帖子,每个帖子又含若干回复
    讨论区
    // 上述所需数据主要分布在以下两个页面:
    在这里插入图片描述

3.代码分析(下以爬综合讨论区为例)

废话不多说,赶紧上代码(ง •_•)ง

3.1 帖子层面

这部分主要调用selenium、BeautifulSoup等包来爬取回复详情,这类爬取方法是 ” 模拟人为操作浏览器的行为“ 进而爬取html标签中的内容。
step1:模拟登陆 (该课程需要登陆才能爬取具体内容)
//注意:
1.请务必要下载与浏览器版本号对应的webdriver
2.最好能先在浏览器开发者选项内判断该页面有无iframe结构,若有则需先定位到iframe,再继续往下定位具体元素
3.不能用动态id来定位元素(如下图所示,即为动态id)
在这里插入图片描述
4.反爬行为。在模拟登录的过程中,遇到了能定位到登录按钮元素,却不能在定位像素点部分执行点击操作的情况。后来发现是碰上了网页的反爬行为/(ㄒoㄒ)/ 网页运用了一个弹出的div遮盖住了所有元素。再通过观察,发现只需要滚动滚动条,就可以使其消失啦,那么我们也就只需要在代码中加上模拟人为滚动行为的部分就可以轻松应对这个反爬啦~~

from selenium import webdriver
import time
import pandas as pd
 
base_url="https://www.icourse163.org/member/login.htm#/webLoginIndex"
driver = webdriver.Chrome(executable_path="你的driver路径")
driver.get(base_url)

#观察慕课网登录页面,默认登录方式是手机验证码,如果需要账号密码登录,则要点击一下“账号密码”按钮
#注意:登陆部分在iframe里,且为动态id,参考https://blog.youkuaiyun.com/weixin_44342166/article/details/99635635
#先找到这个按钮
time.sleep(1)  
driver.execute_script('window.scrollTo(0, 200)') #遇见了反爬行为,通过滚动页面对抗

iframe = driver.find_elements_by_tag_name("iframe")[0]
driver.switch_to.frame(iframe)
#先找到这个按钮
jump = driver.find_element_by_class_name('tab0')
#然后点击跳转到账号密码登录界面
jump.click()  

name_input = driver.find_element_by_xpath('//*[@id="phoneipt"]')  #找到输入账号的框框
pass_input = driver.find_element_by_css_selector("[class='j-inputtext dlemail']")#找到输入密码的框框
login_button = driver.find_element_by_id('submitBtn')# 找到登录按钮

username="你的账号"  
password="你的密码"   

name_input.clear()
name_input.send_keys(username)
time.sleep(1)  
pass_input.clear()
pass_input.send_keys(password)
time.sleep(1)
login_button.click()# 点击登录
time.sleep(1)

step2:进入讨论区,并获取板块对应的a标签

from bs4 import BeautifulSoup
from selenium.webdriver.chrome.options import Options
import requests

url_head = 'https://www.icourse163.org/learn/CAU-23004?tid=1002299017#/learn/forumindex'
driver.get(url_head)
print("成功进入讨论区")

def get_panel_list():
    content = driver.page_source
    soup = BeautifulSoup(content,'html.parser')
    time.sleep(5)
    panel_list=soup.find('div',class_ = 'j-panels').find_all('a',class_='tit')
    return panel_list
panel_list=get_panel_list()

step3:爬取帖子层面所需数据
//注意:
1.同一个页面中,可能会出现许多同名的标签,也可能会出现标签隐藏在很多层级标签下面的情况,这时候我们最好能先定位到它的父级标签,再一层层往上试验(ง •_•)ง
2.在构造爬取函数的时候,一定要先想清楚数据在页面之间的分布情况

#获取该板块下指定页的贴子信息
import re
def get_comment_detail(comment_list):
	#初始化一个dataframe,用于暂存爬取结果
    df = pd.DataFrame(columns = ["pid", "watch_num", "reply_num", "vote_num",
                                 "post_title", "post_content", "post_uid", "post_time"])
    for comment in comment_list:
        comment_href=comment.find('a', class_='j-link').get('href')
        pid=re.search('(\d+)',comment_href).group() #贴子id,str
        watch_num=int(comment.find('p', class_='watch').text[3:]) #贴子的浏览数
        reply_num=int(comment.find('p', class_='reply').text[3:]) #贴子的回复数
        vote_num=int(comment.find('p', class_='vote').text[3:]) #贴子的投票数
        
        reply_link = url_head.split('#')[0] + comment_href #进入贴子详情界面的连接
        reply_driver = webdriver.Chrome(executable_path='你的driver地址')
        reply_driver.get(reply_link)
        time.sleep(5)
        reply_soup = BeautifulSoup(reply_driver.page_source
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
### 实现MOOC平台网页爬虫的方法 为了实现针对MOOC平台的网页爬虫,可以采用多种技术和工具来完成这一目标。下面介绍一种基于`requests`库和Selenium WebDriver相结合的方式来进行数据抓取。 #### 使用`requests`库获取静态页面内 对于不需要JavaScript渲染就能加载全部所需信息的简单页面来说,可以直接通过发送HTTP请求并解析返回的内来获得想要的信息。这可以通过Python内置的标准库urllib或者第三方库如`requests`轻松做到[^3]。 ```python import requests def fetch_page(url): try: response = requests.get(url) response.raise_for_status() return response.text except Exception as e: print(f"Failed to fetch page from {url}, error: ", str(e)) return None ``` #### 利用Selenium处理动态加载内 当遇到依赖于JavaScript执行才能显示完全的复杂交互型网站时,则需要用到像Selenium这样的自动化测试工具去模拟浏览器行为,从而能够访问这些由JS生成的数据[^1]。 ```python from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.edge.service import Service as EdgeService from webdriver_manager.microsoft import EdgeChromiumDriverManager def setup_driver(): options = webdriver.EdgeOptions() service = EdgeService(executable_path=EdgeChromiumDriverManager().install()) driver = webdriver.Edge(service=service, options=options) return driver def get_mooc_data(browser="edge", url="", search_text="", sum_pages=1, num_images=0): driver = setup_driver() try: driver.get(url) # 假设有一个输入框用于搜索程名称 input_element = driver.find_element(By.NAME, "searchText") # 需要根据实际HTML结构调整定位方式 input_element.send_keys(search_text) submit_button = driver.find_element(By.CSS_SELECTOR, ".submit-button-class-name") # 同样需要调整为真实的CSS选择器 submit_button.click() for i in range(sum_pages): # 处理每一页的结果... pass print("Current Browser Version:", get_browser_version()) finally: driver.quit() if __name__ == '__main__': browser = "edge" url = "https://www.icourse163.org" search_text = "Python语言程序设计" sum_pages = 3 num_images = 3 get_mooc_data(browser=browser, url=url, search_text=search_text, sum_pages=sum_pages, num_images=num_images) ``` 上述代码片段展示了如何设置驱动程序以及基本的操作流程,具体细节还需要依据目标站点的具体情况进行适当修改。此外,在某些情况下可能还需要考虑验证码识别等问题[^5]。 #### 注意事项 - **遵循robots.txt规则**:在开始任何类型的Web Scraping之前,请务必查看目标网站根目录下的`robots.txt`文件,了解哪些路径允许被爬取。 - **尊重API限流策略**:如果提供了官方API接口的话,应该优先尝试使用它们而不是直接对前端界面下手;同时要注意频率控制以免给服务器带来过大压力。 - **合法合规性审查**:确保自己的操作符合法律法规的要求,并且不会侵犯他人的知识产权或其他合法权益。
评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值