Python爬取抖音/微博/知乎热榜(附完整代码+反爬策略)

该文章已生成可运行项目,

第一章:娱乐榜单爬取Python

在当今数据驱动的时代,网络爬虫技术成为获取公开信息的重要手段。利用 Python 编写爬虫程序,可以从娱乐网站中提取热门榜单数据,如热搜榜、明星排行榜等,为数据分析和可视化提供基础支持。

准备工作与环境配置

在开始编写爬虫前,需安装必要的第三方库。常用库包括 requests 用于发送 HTTP 请求,BeautifulSoup 用于解析 HTML 文档结构,以及 pandas 用于数据存储与处理。 执行以下命令安装依赖:

pip install requests beautifulsoup4 pandas

核心爬取逻辑实现

以某娱乐网站榜单为例,通过 GET 请求获取页面内容,并解析目标元素。以下代码展示了基本爬取流程:

import requests
from bs4 import BeautifulSoup
import pandas as pd

# 发起请求获取网页内容
url = "https://example-entertainment-site.com/top100"
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
}
response = requests.get(url, headers=headers)
response.encoding = 'utf-8'

# 解析HTML并提取榜单数据
soup = BeautifulSoup(response.text, 'html.parser')
entries = []
for item in soup.select('.rank-item'):  # 假设榜单项具有该类名
    title = item.select_one('.title').get_text()
    rank = item.select_one('.rank').get_text()
    entries.append({'排名': rank, '标题': title})

# 保存为CSV文件
df = pd.DataFrame(entries)
df.to_csv('entertainment_top100.csv', index=False, encoding='utf_8_sig')
上述代码首先模拟浏览器访问页面,避免被反爬机制拦截;随后使用 CSS 选择器定位榜单条目,并提取关键字段;最终将结果结构化存储。
  • 确保目标网站允许爬取行为,遵守其 robots.txt 规则
  • 设置合理请求间隔,防止对服务器造成压力
  • 定期检查选择器是否因页面更新而失效
字段名说明
排名榜单中的位置序号
标题娱乐内容名称,如歌曲或话题

第二章:主流平台热榜数据结构分析与请求构造

2.1 抖音热榜API接口逆向解析与动态参数捕获

在分析抖音热榜数据时,核心在于捕获其前端请求中的动态加密参数。通过浏览器开发者工具监控网络请求,可定位到关键的XHR请求:/aweme/v1/web/hot/search/list/,该接口返回JSON格式的热搜榜单。
请求参数分析
主要动态参数包括device_idiidts,其中时间戳ts为明文,其余参数由JS SDK生成。通过逆向分析发现,这些参数依赖于设备指纹与登录态上下文。
关键代码片段

// 模拟生成签名所需参数
const params = {
  ts: Math.floor(Date.now() / 1000),
  device_id: getDeviceId(), // 来自本地存储或首次访问分配
  iid: getIid()             // 同样由客户端初始化逻辑决定
};
上述参数需配合特定User-Agent与Cookie进行请求构造,否则将触发风控机制导致返回空数据或403错误。

2.2 微博热搜页面结构剖析与Ajax数据加载机制

微博热搜页面采用前后端分离架构,前端通过静态HTML构建基础布局,核心数据由Ajax动态加载。页面初次渲染时仅包含框架结构,热搜榜单内容通过异步请求获取。
网络请求分析
主要数据接口为:https://weibo.com/ajax/side/hotSearch,返回JSON格式的实时热搜列表。该请求使用GET方法,携带__rnd时间戳参数防止缓存。

fetch('/ajax/side/hotSearch', {
  method: 'GET',
  headers: { 'X-Requested-With': 'XMLHttpRequest' }
})
.then(response => response.json())
.then(data => renderHotList(data));
上述代码发起Ajax请求,响应后调用渲染函数。关键头部标识使服务器识别为异步请求。
数据字段说明
  • realtime:热搜条目数组
  • word:热搜关键词
  • icon_desc:标签类型(如“新”“热”)
  • num:搜索指数

2.3 知乎热榜HTML与JSON混合渲染模式识别

知乎热榜页面采用HTML直出与JSON异步加载结合的混合渲染策略,以平衡首屏性能与交互体验。
渲染流程解析
初始请求返回包含结构化数据的HTML,关键内容已嵌入window.__INITIAL_STATE__中;随后通过API拉取动态更新。

// 初始HTML中提取静态数据
const initialState = JSON.parse(
  document.getElementById('js-initialData').textContent
);
const hotList = initialState.topstory.hotList;
该代码从DOM中提取服务端注入的初始状态,避免首次渲染时发起额外请求。
数据同步机制
后续轮询请求获取增量更新:
  • 接口:/api/v3/feed/topstory/hot-lists
  • 响应格式:JSON,含热度值、标题、链接等字段
  • 更新策略:前端比对ID,局部刷新UI

2.4 模拟请求头与移动端User-Agent伪装技巧

在爬虫开发中,服务器常通过请求头中的 User-Agent 判断客户端类型。为模拟移动端访问行为,需伪造移动端的 User-Agent。
常见移动端User-Agent示例
  • iOS Safari: Mozilla/5.0 (iPhone; CPU iPhone OS 15_0 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/15.0 Mobile/15E148 Safari/604.1
  • Android Chrome: Mozilla/5.0 (Linux; Android 12; SM-G991B) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.61 Mobile Safari/537.36
Python中设置请求头
import requests

headers = {
    'User-Agent': 'Mozilla/5.0 (Linux; Android 12; SM-G991B) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.61 Mobile Safari/537.36'
}
response = requests.get('https://example.com', headers=headers)
上述代码通过 headers 参数注入自定义请求头,使目标服务器误认为请求来自真实移动设备,从而绕过基础反爬策略。User-Agent 应根据目标网站的识别逻辑动态切换,提升伪装真实性。

2.5 高频请求限制检测与访问节奏控制策略

在高并发服务场景中,高频请求的合理管控是保障系统稳定性的关键。通过实时监测单位时间内的请求频率,可有效识别异常流量并触发限流机制。
滑动窗口限流算法实现
// 使用Go语言实现滑动窗口限流器
type SlidingWindowLimiter struct {
    windowSize time.Duration // 窗口大小,如1秒
    limit      int           // 最大请求数
    requests   []time.Time   // 记录请求时间戳
    mu         sync.Mutex
}

func (l *SlidingWindowLimiter) Allow() bool {
    l.mu.Lock()
    defer l.mu.Unlock()

    now := time.Now()
    // 清理过期请求记录
    for len(l.requests) > 0 && now.Sub(l.requests[0]) >= l.windowSize {
        l.requests = l.requests[1:]
    }
    // 判断是否超过阈值
    if len(l.requests) < l.limit {
        l.requests = append(l.requests, now)
        return true
    }
    return false
}
该代码通过维护一个时间窗口内的请求队列,动态剔除过期请求,精确控制访问频次。参数windowSize定义统计周期,limit设定最大允许请求数,确保系统在突发流量下仍能平稳运行。
响应式节流策略
  • 基于QPS动态调整窗口大小
  • 结合熔断机制防止雪崩效应
  • 支持分布式环境下的共享状态同步

第三章:反爬机制应对与稳定性提升方案

3.1 IP代理池搭建与自动切换机制实现

在高并发网络请求场景中,IP代理池是规避反爬策略的核心组件。通过动态获取并管理大量可用代理IP,系统可有效降低被目标站点封禁的风险。
代理池架构设计
代理池包含三大模块:IP采集、质量检测与调度分配。采集模块从公开代理网站或API接口获取原始IP;检测模块定期验证IP的匿名性与响应延迟;调度模块则根据权重策略分发可用IP。
自动切换机制实现
使用Redis存储代理IP队列,结合过期时间标记失效节点。每次请求前从队列中弹出一个IP,失败时自动重试下一节点。
import requests
import redis

r = redis.Redis()

def get_proxy():
    return r.srandmember("proxies").decode('utf-8')

def make_request(url):
    proxy = get_proxy()
    proxies = {"http": f"http://{proxy}", "https": f"https://{proxy}"}
    try:
        resp = requests.get(url, proxies=proxies, timeout=5)
        return resp
    except:
        r.srem("proxies", proxy)  # 移除失效IP
        return make_request(url)
上述代码实现了基础的代理请求与自动切换逻辑。get_proxy() 从Redis集合中随机获取代理,make_request() 在请求失败时递归调用自身并剔除无效IP,确保后续请求不重复使用故障节点。

3.2 字体反爬与CSS偏移破解在榜单中的应用

在数据抓取过程中,许多榜单类网站采用字体反爬技术,通过自定义字体文件(WOFF、TTF)替换数字字符,使HTML中显示的文本无法直接解析。此类机制常配合CSS偏移定位实现视觉混淆。
字体映射分析
通过浏览器开发者工具捕获网络请求,可提取页面加载的字体文件。利用fontTools库解析WOFF文件,导出字形到Unicode的映射表:

from fontTools.ttLib import TTFont
font = TTFont('custom.woff')
cmap = font.getBestCmap()
print(cmap)  # {8: 'seven', 9: 'three', ...}
该映射关系可用于将乱码字符还原为真实数值。
CSS偏移还原策略
部分站点结合background-position对雪碧图进行偏移渲染。需解析CSS规则,计算像素位移对应的实际字符位置,构建坐标-字符对照表,最终实现自动化识别与数据清洗。

3.3 滑动验证码识别与Selenium无头浏览器应对

滑动验证码的识别原理
滑动验证码通常通过比对用户拖动轨迹与真实人类行为的相似度来判断是否为机器人。核心在于识别缺口位置并模拟自然拖动路径。
from selenium import webdriver
from selenium.webdriver.common.action_chains import ActionChains

# 启动无头模式
options = webdriver.ChromeOptions()
options.add_argument('--headless')
driver = webdriver.Chrome(options=options)

# 定位滑块元素
slider = driver.find_element_by_class_name('slider')
ActionChains(driver).click_and_hold(slider).perform()
上述代码启动了无头浏览器并定位滑块元素,--headless 参数隐藏界面,避免被检测。后续可通过图像处理(如OpenCV)计算偏移量,并生成带加速度的拖动轨迹。
对抗检测机制
网站常通过 navigator.webdriver 标志识别自动化工具。可通过以下方式隐藏:
  • 设置 options.add_experimental_option("excludeSwitches", ["enable-automation"])
  • 执行 JavaScript 覆盖 navigator.webdriver 为 false

第四章:多平台数据采集代码实现与结果处理

4.1 抖音热榜实时数据抓取与热度值提取

请求构造与反爬策略
抖音热榜数据通常通过其开放接口以 JSON 形式返回。需模拟移动端请求,携带有效的 User-Agent 和 Cookie,并处理动态参数如 X-Bogus 签名。

// 示例:构造带签名的请求URL
const url = `https://www.douyin.com/aweme/v1/web/hot/search/list/?device_platform=web_mobile`;
fetch(url, {
  headers: { 'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 17_0 like Mac OS X)' }
})
.then(res => res.json())
.then(data => parseHotList(data));
上述代码发起 GET 请求获取热榜原始数据,关键在于设备标识与请求头的一致性,避免触发风控机制。
热度值解析逻辑
热榜条目包含关键词、挑战数、实时热度值等字段。热度值(hot_value)通常为整型数值,代表当前话题综合活跃度。
字段名类型说明
wordstring热搜词
hot_valuenumber实时热度值
challenge_countnumber相关视频数量

4.2 微博热搜关键词清洗与话题链接生成

在微博热搜数据处理中,原始关键词常包含噪声信息,如特殊符号、广告文本或重复变体。需通过正则表达式和停用词表进行清洗。
关键词清洗流程
  • 去除HTML标签与特殊字符
  • 过滤无意义词汇(如“直播中”、“爆”)
  • 统一编码格式为UTF-8
# 示例:关键词清洗函数
import re

def clean_keyword(text):
    # 移除特殊符号与数字
    text = re.sub(r'[#【】\d]', '', text)
    # 去除首尾空格
    return text.strip()
该函数通过正则表达式移除话题标记与无关字符,确保关键词语义纯净。
话题链接生成规则
清洗后的关键词需转换为标准URL格式:
关键词生成链接
杭州天气https://s.weibo.com/weibo/%E6%9D%AD%E5%B7%9E%E5%A4%A9%E6%B0%94
使用urllib.parse.quote对关键词进行URL编码,拼接至微博搜索基址,实现自动化跳转。

4.3 知乎热榜高赞回答关联信息整合

在构建智能问答系统时,整合知乎热榜高赞回答的关联信息至关重要。通过分析用户点赞、评论和收藏行为,可提取高质量语义特征。
数据同步机制
采用定时爬虫与WebSocket结合方式,实时获取热榜更新。关键字段包括回答ID、点赞数、作者等级等。

# 示例:提取高赞回答核心信息
def extract_zhihu_data(json_resp):
    for item in json_resp['data']:
        yield {
            'answer_id': item['id'],
            'vote_count': item['voteup_count'],
            'author_level': item['author'].get('level_info', {}).get('level', 0)
        }
该函数逐条解析API响应,筛选出可用于权重计算的关键指标,vote_count直接影响回答排序优先级。
信息融合策略
  • 基于TF-IDF提取回答关键词
  • 使用余弦相似度匹配问题与历史高赞回答
  • 引入时间衰减因子,降低陈旧内容权重

4.4 统一数据结构设计与JSON本地存储优化

在前端应用中,统一的数据结构设计能显著提升代码可维护性。采用标准化的响应格式,如包含 `code`、`message` 和 `data` 字段的 JSON 结构,有助于全局处理请求结果。
标准化响应结构
{
  "code": 200,
  "message": "请求成功",
  "data": {
    "userId": "123",
    "username": "alice"
  }
}
其中,code 表示状态码,message 提供可读提示,data 封装实际数据,便于前端统一拦截和解析。
本地存储优化策略
  • 使用 localStorage 存储序列化后的 JSON 数据
  • 添加时间戳字段实现缓存过期机制
  • 封装 setStoragegetStorage 方法统一管理读写逻辑

第五章:总结与展望

技术演进的持续驱动
现代后端架构正加速向云原生与服务网格演进。以 Kubernetes 为核心的编排系统已成为微服务部署的事实标准。实际案例中,某金融平台通过引入 Istio 实现流量灰度发布,将线上故障率降低 67%。
代码实践中的性能优化
在高并发场景下,Golang 的轻量级协程显著提升吞吐能力。以下为基于 context 控制的超时处理示例:

ctx, cancel := context.WithTimeout(context.Background(), 100*time.Millisecond)
defer cancel()

result := make(chan string, 1)
go func() {
    result <- expensiveDatabaseQuery()
}()

select {
case res := <-result:
    log.Printf("Success: %s", res)
case <-ctx.Done():
    log.Println("Request timed out")
}
未来架构趋势对比
架构模式部署复杂度弹性伸缩能力适用场景
单体架构小型系统
微服务中大型平台
Serverless极强事件驱动型应用
可观测性的关键组件
完整的监控体系需覆盖三大支柱:
  • 日志聚合:使用 Fluent Bit 收集容器日志并发送至 Elasticsearch
  • 指标监控:Prometheus 抓取服务 metrics,结合 Grafana 可视化
  • 分布式追踪:OpenTelemetry 注入 trace ID,定位跨服务延迟瓶颈
某电商平台在大促期间通过上述组合实现故障分钟级定位,MTTR 缩短至 3 分钟以内。
本文章已经生成可运行项目
以下是使用Python爬取微博、今日头条、乎、网易和腾讯新闻的代码示例: 1. 爬取微博新闻: ```python import requests url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=1234567890' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) data = response.json() # 处理返回的数据 # ... ``` 2. 爬取今日头条新闻: ```python import requests url = 'https://www.toutiao.com/api/pc/feed/' params = { 'category': 'news_hot', 'utm_source': 'toutiao', 'widen': 1, 'max_behot_time': 0, 'max_behot_time_tmp': 0, 'tadrequire': 'true', 'as': 'A1F5B8C9C9F5B8C', 'cp': '5D8E7D9C9F5B8C1' } headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, params=params, headers=headers) data = response.json() # 处理返回的数据 # ... ``` 3. 爬取乎新闻: ```python import requests url = 'https://www.zhihu.com/api/v3/feed/topstory/hot-lists/total?limit=10&desktop=true' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) data = response.json() # 处理返回的数据 # ... ``` 4. 爬取网易新闻: ```python import requests url = 'https://c.m.163.com/nc/article/headline/T1348647853363/0-20.html' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) data = response.json() # 处理返回的数据 # ... ``` 5. 爬取腾讯新闻: ```python import requests url = 'https://pacaio.match.qq.com/irs/rcd?cid=108&ext=&token=&num=10' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) data = response.json() # 处理返回的数据 # ... ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值