爬取html设置head,爬取安居客网站,增加Header

本文介绍了针对安居客网站反爬虫机制的三种解决方案,包括设置Header信息、通过浏览器获取User-Agent及使用add_header()方法。这些技巧有助于模拟浏览器行为,避免被网站拦截。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

由于安居客网站的反爬虫,这里必须要设置header,而设置header有以下三种办法:

方法一:代码查看

通过python获取网页的链接url,返回码,以及相关的信息

对反爬虫网页,可以设置一些headers信息,模拟成浏览器取访问网站

import urllib.request

url="https://www.baidu.com/"

file=urllib.request.urlopen(url)

print('获取当前url:',file.geturl() )

print('file.getcode,HTTPResponse类型:',file.getcode )

print('file.info 返回当前环境相关的信息:' ,file.info())

方法二:通过浏览器查看使用build_opener()修改报头

浏览器输入网址——F12——查看network——左边浏览器——查看headers头部

复制

729a390b7862

image.png

上边这个headers对应的存储user-agent信息,定义格式为:“User-Agent”,具体信息,获取一次即可,不需要每次通过F12获取

对反爬虫网页,可以设置一些headers信息,模拟成浏览器取访问网站

import urllib.request

url="https://quanzhou.anjuke.com/"

file=urllib.request.urlopen(url)

print('获取当前url:',file.geturl() )

print('file.getcode,HTTPResponse类型:',file.getcode )

print('file.info 返回当前环境相关的信息:' ,file.info())

爬虫模式浏览访问网页设置方法

'user-agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

上边这个headers对应的存储user-agent信息,定义格式为:“User-Agent”,具体信息,获取一次即可,不需要每次通过F12获取

方法三:通过add_header()添加报头

urllib.request.Request()下的add_header()实现浏览器模式

request对象名.add_header(字段名,字段值)

方法二:使用add_header()添加报头

import urllib.request

url="https://quanzhou.anjuke.com/"

req=urllib.request.Request(url)

实现浏览器模式

req.add_header( ‘’user-agent‘’: ‘’Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36‘’

)

data=urllib.request.urlopen(req).read()

成功设置好了报头,成功模拟浏览器爬取网址信息。写入User-Agent,避免了403错误。

729a390b7862

image.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值