爬虫引出的问题

一、爬虫尺寸的大小

1.主要以爬取网页,玩转网页为主

特点是   小规模,数据量小,爬取速度不敏感  

通常使用Requests库就行   比例非常高

对于Robots协议来说:

访问量很小,可以遵守

访问量较大:建议遵守

2.爬取网站,爬取系列网站

特点:中规模,规模数据较大,爬取速度敏感 

通常需要使用Scrapy库

Scrapy库是专门用来Python专门用来爬取网站级别的库

对于Robots协议来说:

非商业且偶尔:建议遵守

商业利益:必须遵守

3.爬取全网

特点:大规模,搜索引擎,爬取速度关键

像百度等等,需要定制开发

对于Robots协议来说:

必须遵守

 

 

出现的问题有:
1.对网站的骚然问题,对于网站的维护带来不利

2法律风险,主要是爬取到的数据不能用来盈利

3.隐私泄露,主要是爬虫可以较为简单的突破封锁

 

 

网络爬虫的限制:

1.来源审查:User-Agent进行限制

检查来访HTTP协议头的User-Agent域,只响应浏览器或友好爬虫的访问

2.、Robots协议    Robots   Exclusion  Standard  网络爬虫排除标准

告知所有爬虫网站的爬取策略,要求爬虫遵守

遵不遵守看个人。总体来说,类人行为可不参考Pobots协议

 

 

Robots协议

作用:网站告知网络爬虫哪些页面可以抓取,哪些不行

形式:在网站根目录下的robots.txt文件

Robot协议基本语法:
User-agent:*     

Disallow:/

*代表所有,/代表根目录

 

Robots协议的使用:


网络爬虫:自动或人工识别robots.txt,再进行内容爬取

约束性:Robots协议是建议但不是约束性,网络爬虫可以不遵守,但存在法律风险

内容概要:本文详细介绍了一个基于Java和Vue的联邦学习隐私保护推荐系统的设计与实现。系统采用联邦学习架构,使用户数据在本地完成模型训练,仅上传加密后的模型参数或梯度,通过中心服务器进行联邦平均聚合,从而实现数据隐私保护与协同建模的双重目标。项目涵盖完整的系统架构设计,包括本地模型训练、中心参数聚合、安全通信、前后端解耦、推荐算法插件化等模块,并结合差分隐私与同态加密等技术强化安全性。同时,系统通过Vue前端实现用户行为采集与个性化推荐展示,Java后端支撑高并发服务与日志处理,形成“本地训练—参数上传—全局聚合—模型下发—个性化微调”的完整闭环。文中还提供了关键模块的代码示例,如特征提取、模型聚合、加密上传等,增强了项目的可实施性与工程参考价值。 适合人群:具备一定Java和Vue开发基础,熟悉Spring Boot、RESTful API、分布式系统或机器学习相关技术,从事推荐系统、隐私计算或全栈开发方向的研发人员。 使用场景及目标:①学习联邦学习在推荐系统中的工程落地方法;②掌握隐私保护机制(如加密传输、差分隐私)与模型聚合技术的集成;③构建高安全、可扩展的分布式推荐系统原型;④实现前后端协同的个性化推荐闭环系统。 阅读建议:建议结合代码示例深入理解联邦学习流程,重点关注本地训练与全局聚合的协同逻辑,同时可基于项目架构进行算法替换与功能扩展,适用于科研验证与工业级系统原型开发。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值