Python实现批量采集美女视*频 <无水印>

本文介绍了使用Python3的selenium和requests模块来抓取网页视频的播放链接和标题。首先,通过开发者工具分析数据来源,然后模拟浏览器发送请求,解析HTML获取视频信息,利用正则表达式和JSON处理数据,最后保存视频到本地。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

大家好 我是小曼呀
在这里插入图片描述

环境使用:

  • Python 3.8
  • Pycharm
  • 谷歌浏览器
  • 谷歌驱动 —> 驱动版本要和浏览器版本最相近 <大版本一样, 小版本最相近>

模块使用:

  • requests >>> pip install requests
  • selenium >>> pip install selenium==3.141.0 <需要浏览器和浏览器驱动> 默认安装 4.0版本 语法上面有点区别
  • re
  • json

卸载模块: pip uninstall selenium 卸载模块

安装python第三方模块:

  1. win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
  2. 在pycharm中点击Terminal(终端) 输入安装命令

基本思路流程: <通用>

一. 数据来源分析:

  1. 明确需求:
  • -采集什么数据内容

I. 视频播放链接

II. 视频标题

2.通过浏览器自带工具: 开发者工具, 进行抓包分析

  • 打开开发者工具: F12 / 鼠标右键点击检查选择network
  • 刷新网页: 让本网页数据内容重新加载一遍
  • 分析/找到 视频播放链接在哪里

1.选择 media <媒体文件> 可以直接看到 视频播放链接
2.通过搜索分析可以直接找到 视频播放链接/ 视频标题

二. 代码实现步骤:

1.发送请求, 模拟浏览器对于url地址发送请求

2.获取数据, 获取服务器返回响应数据

开发者工具: response <网页源代码>

3.解析数据, 提取我们想要的数据内容

  • 视频标题
  • 视频播放链接

4.保存数据, 把视频内容保存本地文件夹

代码展示

导入模块

 导入数据请求模块
import requests
# 导入正则表达式
import re
# 导入json模块
import json
# 导入格式化输出模块
from pprint import pprint
# 导入自动化测试模块
from selenium import webdriver
# 导入时间模块
import time

创建浏览器对象, 实例化对象 自动打开浏览器

driver = webdriver.Chrome()

访问网址
在这里插入图片描述

“”“执行页面滚动的操作”“”

def drop_down():
    for x in range(1, 40, 4):  # 1 3 5 7 9  在你不断的下拉过程中, 页面高度也会变的
        time.sleep(1)
        j = x / 9  # 1/9  3/9  5/9  9/9
        # document.documentElement.scrollTop  指定滚动条的位置
        # document.documentElement.scrollHeight 获取浏览器页面的最大高度
        js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j
        driver.execute_script(js)

可以直接定位元素提取内容

lis = driver.find_elements_by_css_selector('.Eie04v01')
for li in lis:
    url = li.find_element_by_css_selector('a').get_attribute('href')

可以直接定位元素提取内容

lis = driver.find_elements_by_css_selector('.Eie04v01')
for li in lis:
    url = li.find_element_by_css_selector('a').get_attribute('href')

1.发送请求, 模拟浏览器对于url地址发送请求

  • <Response [200]> 响应对象, 表示请求成功
    仅表示请求成功, 但是不代表一定得到数据<你想要的数据>
  • 没有得到我们想要的数据内容:
    原因: 是因为代码被服务器识别出来了, 是爬虫程序
    解决:把代码伪装成浏览器去发送请求 —> headers 请求头
    print(url)
    time.sleep(1)

确定请求链接 <视频播放页面>
在这里插入图片描述

模拟伪装

    headers = {
        # user-agent 用户代理 表示浏览器基本身份信息
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
    }

发送请求

    response = requests.get(url=url, headers=headers)

2.获取数据, 获取服务器返回响应数据

开发者工具: response <网页源代码>

3.解析数据, 提取我们想要的数据内容

  • 视频标题
  • 视频播放链接

正则表达式, 你要获取什么数据, 直接复制过来, 然后要的数据内容用 (.*?) 表示, 会直接给返回相应的内容

.*? 表示可以匹配任意字符串, 除了\n换行符以外

提取标题

    title = re.findall('<title data-react-helmet="true">(.*?)</title>', response.text, re.S)[0]

替换一下特殊字符

    title = re.sub(r'[\/:*?"<>|\n]', '', title)

提取视频信息

    video_info = re.findall('<script id="RENDER_DATA" type="application/json">(.*?)</script', response.text)[0]

数据进行解码

    html_data = requests.utils.unquote(video_info)

转换数据类型

    json_data = json.loads(html_data)

键值对取值, 根据冒号左边的内容[键], 提取冒号右边的内容[值]

    video_url = 'https:' + json_data['41']['aweme']['detail']['video']['bitRateList'][0]['playAddr'][0]['src']
    print(title)
    print(video_url)

保存数据

    video_content = requests.get(url=video_url, headers=headers).content
    with open('video\\' + title + '.mp4', mode='wb') as f:
        f.write(video_content)

尾语 💝
有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง

喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值