猫眼电影排行榜前100爬取案例学习笔记

本文记录了使用Python爬取猫眼电影排行榜前100部电影的过程,包括获取电影信息、保存图片、提取英文名称、分析上映时间和演员分布。通过代码示例展示了数据获取和初步分析的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在学习崔庆才老师著作的《python3 网络爬虫开发实战》,对爬取猫眼排名榜前100电影的讲解案例,产生一些小想法,结合pandas 在数据分析方面的应用,给出以下学习笔记,作为rockyliu学习爬虫成长道路上的one small step.

话不多说,先汇总本次爬取的目标:

  • 1)获取猫眼排名榜前100电影
  • 2)获取前100电影图片存放在本地
  • 3)获取前100电影的英文名称
  • 4)通过百度百科获取电影区域归属
  • 5)展示前100电影的上映时间分布
  • 6)展示参演频率最高的前5位演员及所参演电影

是不是感觉rockyliu有点贪,让我们拭目以待吧。

实现目标1:获取猫眼排名榜前100电影

先上效果图:

如效果图,通过爬虫代码,从猫眼电影排行榜上,获取前100的电影的相关信息(排名/电影海报地址/电影名/主演/上映时间/评分)。接下来上代码,供大家参考学习:

import requests
import re
import time
from requests.exceptions import RequestException
import pandas as pd 

#先定义一个获取网站源代码的方法
def get_one_page(url):
#使用try方法,防止程序中断报错
    try:
        headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}    
        response = requests.get(url,headers=headers)
        if response.status_code == 200:
            return response.text
        return None
    except RequestException:
        return None
#   rockyliu 偏好 写出print('wrong1:获取一个网站源代码出错'),便于快速查找问题

#定义一个对源代码解析,并利用正则表达式获取想要的值,再结合pandas库,生成pandas.DataFrame数据
def parse_one_page(html):
#该处的正则表达式,可能会随着时间推移而改变,若报错,请读者自行更新哟
    pattern = re.compile(
            '<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>.*?star.*?>(.*?)</p>.*?releasetime.*?>(.*?)</p>.*?integer.*?>(.*?)</i>.*?fraction.*?>(.*?)</i>.*?</dd>',re.S)
    items = re.findall(pattern,html)
    pf = pd.DataFrame()   
    for item in items:
        a = [item[0],item[1],item[2].strip(),item[3].strip()[3:] if len(item[3])>3 else '',item[4].strip()[5:] if len(item[4])>5 else '',item[5].strip()+item[6].strip()]
#需要注意item[5]代表评分整数,item[6]代表评分小数,因此合计评分要两者相加
        pf_ = pd.DataFrame(a)
        pf = pd.concat([pf,pf_.T])   #要注意pf_.T,即转置小细节,否则会报错哟
    yield pf
'''通过yield函数生成一个汇总的pd.DataFrame数据(小细节,yield 只能存在函数表达式中(def balaba:),否则就会出现outside function报错  )    
'''
#定义一个写入文档函数:
def write_to_file(offset):
    url = 'https://maoyan.com/board/4?offset='+str(offset)
    html = get_one_page(url)
    for item in parse_one_page(h
### 关于实现猫眼电影排行TOP100爬虫的第一关教程 在构建一个能够抓取猫眼电影排行榜Top100信息的爬虫程序时,可以按照以下方式设计并完成第一阶段的任务。这一部分主要涉及目标网站的数据结构分析以及使用`requests`库获取网页数据。 #### 数据请求与解析的基础 为了成功抓取猫眼电影排行榜的信息,首先需要了解其页面布局和API接口的设计模式。通常情况下,这类网站会通过动态加载技术来展示排名列表,因此可能需要模拟浏览器行为或者直接调用后台提供的JSON API接口[^1]。 以下是基于静态HTML页面的情况下的基本操作流程: ```python import requests from bs4 import BeautifulSoup def fetch_movie_list(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36' } response = requests.get(url, headers=headers) if response.status_code == 200: soup = BeautifulSoup(response.text, 'html.parser') movies = [] for item in soup.select('.movie-item'): title = item.find('div', class_='name').text.strip() score = item.find('i', class_='integer').text + item.find('i', class_='fraction').text movie_info = {'title': title, 'score': float(score)} movies.append(movie_info) return movies raise Exception(f"Failed to load page {url}") # 调用函数测试 movies_data = fetch_movie_list("https://maoyan.com/board/4") print(movies_data[:10]) # 打印十个结果作为验证 ``` 上述代码片段展示了如何利用`requests`发送HTTP GET请求访问指定URL,并借助BeautifulSoup解析返回的内容提取所需字段。注意这里假设了`.movie-item`, `.name`, `i.integer` 和 `i.fraction` 是实际存在的CSS选择器路径[^2]。 如果遇到反爬机制,则需调整headers参数中的Referer、Cookie等设置;对于更复杂的场景比如JavaScript渲染后的DOM节点变化等问题,则推荐采用Selenium工具配合WebDriver驱动真实浏览器实例运行脚本处理。 #### 注意事项 - **合法性审查**: 在实施任何网络爬行活动之,请务必确认已阅读并理解目标站点的服务条款(TOS),确保您的行动符合法律规范。 - **频率控制**: 频繁地向服务器发起大量连续请求可能会触发对方防护措施甚至封禁IP地址,建议合理安排时间间隔或考虑缓存策略减少不必要的重复劳动。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值