爬虫笔记---常见的反爬手段和解决思路

本文全面解析了网站防御爬虫的各种策略,包括利用headers、JS、CSS、验证码及自定义字体等手段进行反爬。从User-Agent伪装到JS动态加载内容,再到CSS隐藏信息,全方位展示了网站如何抵御自动化抓取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.通过headers字段来反爬
1.1 通过headers中的User-Agent字段来反爬
1.2 通过referer字段或者是其他字段来反爬
1.3 通过cookie来反爬
2.通过js来反爬
2.1 通过js实现跳转来反爬
2.2 通过js生成了请求参数
2.3 通过js实现了数据的加密
3. 通过css来反爬
4. 通过验证码来反爬
5. 其他的反爬方式
5.1 通过自定义字体来反爬
5.2 通过css来反爬
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值