爬虫经典6大步骤

#1.导包

from urllib.request import Request,urlopen
from urllib.parse import urlencode
from fake_useragent import UserAgent

args = {
        "wd": "尚学堂",
        "ie": "utf-8"
    }
#2.头部
headers = {
    "User-Agent":UserAgent().random #随机获取
    }

#print(urlencode(args))

#3.url(请求网址的确定,如果遇到有中文,则用urllib.parse.quote('尚学堂')或者如下)
url = "https://www.baidu.com/s?{}".format(urlencode(args))

#4.开始请求,把要请求的网址和头部扔进去
request = Request(url,headers=headers)

#5.等待响应
response = urlopen(request)

#6.把响应的内容读取出来给了info
info = response.read()

print(info.decode())
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值