美女如何无水印下载?python带你批量采集(含完整源码)

环境介绍:

  • python 3.8 解释器
  • pycharm 2021专业版 >>> 激活码 编辑器
  • 谷歌浏览器
  • 谷歌驱动
  • selenium >>> 驱动 >>> 浏览器

模块使用:

采集一个

  • requests >>> pip install requests
  • re

采集多个

  • selenium >>> pip install selenium==3.141.0 (3.141.0)
    指定模块版本去安装 使用这个模块安装浏览器驱动
  • time

如果安装python第三方模块:

  1. win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
  2. 在pycharm中点击Terminal(终端) 输入安装命令

如何配置pycharm里面的python解释器?

  1. 选择file(文件) >>> setting(设置) >>> Project(项目) >>> python interpreter(python解释器)
  2. 点击齿轮, 选择add
  3. 添加python安装路径

pycharm如何安装插件?

  1. 选择file(文件) >>> setting(设置) >>> Plugins(插件)
  2. 点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation / 汉化插件 输入 Chinese
  3. 选择相应的插件点击 install(安装) 即可
  4. 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效

案例基本流程思路:

一. 分析数据来源

  1. 确定自己需求 , 我们采集内容是什么? 采集那个网站… 先采集一个, 然后再去采集多个
  2. 通过开发者工具进行抓包分析…

I. 开发者工具 网页浏览器自带, F12 或者鼠标右键点击检查选择network

II. 刷新网页…让网页数据内容重新完整加载一遍 <找数据内容>

III. 通过network下面的media里面找到url地址

IV. 不够… >>> 分析这个url地址从哪里来的… 通过抓包分析, 得到url地址 通过一次编码

二. 代码实现的步骤 基本四大步骤…

  1. 发送请求, 对于刚刚分析得到url地址发送请求
  2. 获取数据, 获取服务器返回响应数据
  3. 解析数据, 提取我们想要url地址以及标题
  4. 保存数据, 把内容保存本地文件夹

代码

导入模块

import requests  # 导入数据请求模块 第三方模块 pip install requests
import re  # 导入正则表达式模块  内置模块

from selenium import webdriver
import time  # 时间模块

selenium
用selenium模块用驱动<浏览器>操作浏览器

人怎么去操作浏览器, 怎么去写代码

  1. 打开浏览器
    webdriver.Chrome(executable_path=“chromedriver”) 括号里面是需要加驱动路径
    如果你驱动放在和代码一个文件夹里面, 可以不用写路径
    或者你的驱动放在python安装目录里面 也可以不用写路径
    其他位置, 都需要指定路径位置
  2. 输入网址
  3. 查看网页内容

requests请求数据,获取服务器返回数据内容 selenium你可以直接根据元素面板去定位数据内容

模拟浏览器对于url地址发送请求, 最后获取服务返回响应数据

发送请求:

  1. 确定url
  2. 模拟伪装
    请求头headers 是可以直接在开发者工具里面复制粘贴 request headers 直接复制
    字典数据类型, 构建完整键值对形式
    user-agent 用户代理 表示浏览器基本身份标识
  3. 请求方式
    状态码 200 表示请求成功… 但是不一定得到你想要的数据…

没有得到你想要数据内容, 是什么原因导致的? <被反爬了> 为什么被反爬了 因为你被识别出来 你是爬虫程序
比如说: 超市面试试吃 老是你来吃东西<一直你是Ip请求快速>, 不给你吃了 <IP被封>

里面网址被我删去了一部分好过审,会的小伙伴自己添加一下,不会的可左侧扫🐎领取哦~

driver = webdriver.Chrome()  # 实例化一个浏览器对象
driver.get('')
driver.implicitly_wait(10)


def drop_down():
    for x in range(1, 30, 4):
        time.sleep(1)
        j = x / 9
        js = '' % j
        driver.execute_script(js)

源码、解答、资料、教程可加Q裙:261823976免费领
list_1 = [1, 2, 3, 4, 5, 6, 7]
list_1[1:]
drop_down()
lis = driver.find_elements_by_css_selector(
    'div.mwbaK9mv > div:nth-child(2) > ul .ECMy_Zdt')  # 通过 css 选择器查找元素  获取多个li标签返回列表
# url_list = [li.find_element_by_css_selector('a').get_attribute('href') for li in lis]
for li in lis:
    try:
        time.sleep(1)
        url = li.find_element_by_css_selector('a').get_attribute('href')
        # url = ''  # 网址
        headers = {
            'cookie': '',
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36'
        }
        response = requests.get(url=url, headers=headers)
        # print(url)
        # <Response [200]> 响应对象 200 状态码 表示请求成功 response.text 获取响应对象文本数据
        # print(response.text)
        """
        数据解析, 提取我们想要数据内容
            re正则表达式 <在付费课程 2.5个小时的内容讲解完>
        re.findall() 调用re模块里面findall方法 去查询匹配数据
            找到所有 >>> 从什么地方去找什么样数据 (.*?) 表示你想要数据内容, 通配符, 可以匹配任意字符(除了换行符以外)
        """
        title = re.findall('<title data-react-helmet="true">(.*?)</title>', response.text, re.S)[0]
        title = re.sub(r'[/\:*?"<>|\n]', '', title)
        video_url = re.findall('src(.*?)%22%7D%2C%7B%22src', response.text)[0]  # 编码的内容获取
        video_url_1 = requests.utils.unquote(video_url).replace('":"', 'https:')  # 解码
        # 编码 requests.utils.quote
        # 就业工作 1 接单赚钱 2
        # print(title)
        # print(video_url)
        # print(video_url_1)
        video_content = requests.get(url=video_url_1, headers=headers).content  # 发送请求获取二进制数据内容
        解答、资料、教程可加Q裙:261823976免费领
        with open('img\\' + title + '.mp4', mode='wb') as f:
            f.write(video_content)  # 写入内容
            print('正在保存: ', title)
    except Exception as e:
        print(e)

尾语

成功没有快车道,幸福没有高速路。

所有的成功,都来自不倦地努力和奔跑,所有的幸福都来自平凡的奋斗和坚持

——励志语录

本文章就写完啦~感兴趣的小伙伴可以复制代码去试试

你们的支持是我最大的动力!!记得三连哦~ 💕 欢迎大家阅读往期的文章呀

介绍 美图网站千千万,美图自己说了算!本源码由@香谢枫林开发,首页图片做了浏览器窗口自适应,最大化占满PC浏览器和移动浏览器的窗口,并且防止出现滚动条。 源码截图 功能介绍 首页图片设置了4个点击功能区,分别是:上一张、下一张、全部随机、套图集随机(为了丰富移动端操作) 搜索功能注释隐藏了,想用的同学自己打开发开者模式解除注释即可 随机按钮:仅在右上角下拉菜单选中的图集中随机 随机All按钮:全部图片中随机 自动随机:仅在右上角下拉菜单选中的图集中自动随机(间隔1.5s) 自动随机All:全部图片中自动随机(间隔1.5s) 自动浏览:自动下一张(间隔1.5s) 套图1:点击跳转新窗口,查看套图所有图片(观赏模式一) 套图2:点击跳转新窗口,查看套图所有图片(观赏模式二) 索引:点击跳转新窗口,查看套图集 收藏:收藏图片,点击”Count“也能收藏 收藏列表:点击跳转新窗口,观赏收藏图片 #注:键盘任意键或者点击图片即可解除自动浏览状态; 按键介绍 @上一张:<–(左方向键) @下一张:–>(右方向键) @全部图集随机:(上方向键 或 alt键) @所选图集随机:(下方向键或shift键) @跳转套图第一张:(空格键) @收藏:(?问号键) @浏览整套图片(模式1):({左大括号) @浏览整套图片(模式2):(}右大括号) @关闭标签页(针对跳转的页面):(\顿号) @自动浏览(随机全部图集1.5s间隔):(”冒号键) @自动浏览(随机所选图集1.5s间隔):(;分号键) @回看随机历史:(《左书名号键) @自动浏览(下一张1.5s间隔):(》右书名号键) #注:任意键结束自动浏览状态;”{}”这两个按键在套图浏览页面可以切换浏览模式 使用说明 第一步:本地建库,把数据库下载到本地(线上数据库连接参数在global.php文件里)也可以自己创建数据库,需要3个基础表,分别是pc_dic_lanvshen、pc_dic_toxic、po_toxic(在数据库文件夹下) 第二步:修改数据库配置,global.php文件的database配置,设置成连接自己本地的数据库;到此,启动网站,你可以愉快的赏图了! 1.想改按键怎么办?在js/index.js文件中,有具体的按键对应功能说明,想改按键,只需要修改对应的键值即可(keyCode键值问度娘吧) 2.搜过功能有木有?在index.php文件中,取消注释id为tb和tj的两行代码即可显示搜索功能 说明 我做了3个美图网站的数据爬取功能,分别对应3个文件:lanvshen.py,lanvshen_qtw.py,lanvshen_mtll.py(顶部有注释对应哪个网站) 第一步:修改数据库配置文件conf/mysql_db.py,修改数据库连接,改成自己本地的数据库; 第二步:找到自己想要爬取的页面,修改主函数信息即可,只需要修改4个参数,如下图所示 注:Python记得下载好对应的插件(requests,re,time,random,BeautifulSoup)
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值