python爬虫基础简单知识笔记一

这篇笔记介绍了Python爬虫的基础知识,包括如何判断网页是否允许爬虫,如以大众点评网为例;抓取网站的cookie,以百度为例;异常处理,如通过e.code获取异常状态信息,并使用requests库进行响应状态判断;设置代理以应对网站反爬策略;超时设置,确保请求响应时间的合理性;以及处理需要身份验证的网页。适合初学者了解爬虫的基本操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

日期:2020-11-25笔记

1.判断网页是否允许爬虫
大众点评网为例

from urllib.robotparser import RobotFileParser
rp=RobotFileParser()
rp.set_url('http://www.dianping.com/')
rp.read()
print(rp.can_fetch('*','http://www.dianping.com/'))

2.抓取网站cookie
百度为例

import http.cookiejar,urllib.request

cookie=http.cookiejar.CookieJar()
handler=urllib.request.HTTPCookieProcessor(cookie)
opener=urllib.request.build_opener(handler)
response=opener.open("http://www.baidu.com")
for item in cookie:
    print(item.name+"="+item.value)

3.异常处理
e.code返回异常状态信息,判断服务器状态

from urllib import request,error
try:
    response=request.urlopen('https://cuiqingcai.com/index.htm')
except error.HTTPError as e:
    print(e.reason,e.code,e.headers,sep='\n')
    print(e.code)

requests库
判断相应状态,做爬虫时可以加个try-except,返回200则为正常

import requests
r=requests.get("https://www.baidu.com")#get方法请求,常用的还有post方法
print(r.status_code)
print(r.cookies) #输出cookies
print(r.headers) #输出头
for key,value in r.cookies.items(): #相对于urllib更方便
    print(key+'='+value)

4.设置代理
代理可以在网上找

import requests
proxies={
  "http" :"http://110.10.1.10:3128", 
  "https":"https://10.10.1.10:1080",
}
requests.get("https://www.baidu.com",proxies=proxies)

5.超时设置
请求时设置响应时间

import requests
requests.get("https://www.baidu.com",timeout=3)#设置3s

6.身份验证
有些网页一点击去就需要登录

import requests 
r = requests.get(url, auth =(' username ', ' password'))
print(r.status_ code)   #返回200则登陆成功

最后:我是垃圾加小白,请不要喷我

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值