Python-爬取网页very easy!

博客介绍了网页爬取相关内容。以Chrome浏览器为例,说明了获取User - Agent请求头的步骤,即进入网站查看network,点击name下文件,在requests headers中找到User - Agent并复制到headers里。还提到可转换成json的网页较好爬,以及后续有写入文件操作。
import requests
url = 'https://www.youkuaiyun.com/?spm=1001.2014.3001.4476'
headers = {'User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36'}
def get():
    try:
        g = requests.get(url)
        g.encoding = 'utf-8'
        data = g.text
        with open("csdn.txt","a") as file:
            file.write(data)
            print("Done!")
            file.close()
    except:
        print("Oh,Little error!")
get()

先附上代码,这个User-Agent可以在Chrome或火狐浏览器上查看。我已Chrome为例,首先,来到你想爬取的网站,右键选择查看。选择network。

进去后你会看到一些进度条,如果没有,刷新一下。

然后点一下name下的文件,我的文件是Sunyoho?spm开头的,注意,点一下就好,不要双击。

进去后会出现很多选项,往下滑,滑到requests headers,就是这个请求头,如果要获取到网站信息,有些网站是不让你爬的,所以要把这个爬取请求伪装成是你的浏览器访问网站。

然后往下翻,找到这个,User-Agent。Mozilla开头的,OK!直接把你的请求头复制下来,选中,然后Mac用command+c拷贝,win用ctrl+c,复制到headers里去。

像这种可以转换成json的网页比较好爬,下面就是写入文件的一些操作,不用多说。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值