手把手教写爬虫 |Python 采集大众点评数据采集实战

本文是一篇手把手教你如何使用Python进行网页数据采集的实战教程,主要针对大众点评上海酒店数据。首先讲解如何发现网址规律,接着演示如何尝试访问URL并检查响应,然后使用pyquery解析所需数据,再将数据存储到CSV文件,最后整合全部步骤形成完整代码。

任务

采集 http://www.dianping.com/shanghai/hotel

 

爬虫设计阶段类型问题需要做到
1请求网页数据在哪里?发现网址url规律
2请求如何获取网页数据?先尝试使用requests成功访问一个url,拿到一个页面数据
3解析从html中定位需要的数据使用pyquery对这一个页面的网页数据进行解析
4存储如何存储数据使用csv库将数据存储到csv文件中
5整理重复2-4for循环对所有的url进行访问解析存储

很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!??¤
QQ群:623406465

1. 发现网址规律url

视频教程  https://www.bilibili.com/video/BV1AE411r7ph?p=1

能否成功采集某网站,该网站需要满足两个条件

  • 我们有权限浏览

  • 我们肉眼能在浏览器中看到

满足这两个条件后,我们就可以寻找网址规律。

一般简单的网站只需要看看翻页和网址栏即可,有难度的就需要使用开发者工具。

 
template = 'http://www.dianping.com/shanghai/hotel/p{page}'


for page in range(1, 51):

    url = template.format(page=page)

    print(url)
 
  1. http://www.dianping.com/shanghai/hotel/p1

  2. http://www.dianping.com/shanghai/hotel/p2

  3. http://www.dianping.com/shanghai/hotel/p3

  4. http://www.dianping.com/shanghai/hotel/p4

  5. http://www.dianping.com/shanghai/hotel/p5

  6. http://www.dianping.com/shanghai/hotel/p6

  7. ....

  8. http://www.dianping.com/shanghai/hotel/p46

  9. http://www.dianping.com/shanghai/hotel/p47

  10. http://www.dianping.com/shanghai/hotel/p48

  11. http://www.dianping.com/shanghai/hotel/p49

  12. http://www.dianping.com/shanghai/hotel/p50

2. 尝试对其中一个url进行访问

先局部,后整体(先小后大)

我们需要先拿一个url测试访问成功与否。

import requests


url = 'http://www.dianping.com/shanghai/hotel/p1'


headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36'}


resp = requests.get(url, headers=headers)


print(resp)
<Response [200]>

response200说明访问似乎还是正常的,但是不要掉以轻心,最好顺便检查下返回的网页源代码数据。

检查方法

网页中某字段,是否出现在resp.text中。一般多找几次,确认resp.text与网页内容能对应上,能对应上那就说明访问是成功的。

resp.text

3. 解析数据

解析数据可以用pyquery或者re库,本教程只抓酒店名、地址、距离等少数几个字段,只用pyquery就能很好的定位。

这里需要大家熟悉下pyquery使用方法,可以看我的B站视频

https://www.bilibili.com/video/BV1AE411r7ph?p=4

 
from pyquery import PyQuery


doc = PyQuery(resp.text)

for block in doc.items('.hotelshop-list .hotel-block'):

    name = block('.hotel-name a').text()

    loc = block('.place').text()

    quyu = loc.split(',')[0]

    distance = loc.split(',')[-1]

    print(name, quyu, distance)
 
  1. 上海佘山世茂洲际酒店 松江区 距离松江站9.6km

  2. 上海和平饭店 南京东路 距离和平饭店30m

  3. 上海宝格丽酒店 大悦城 距离天潼路地铁站175m

  4. 上海迪士尼乐园酒店 迪士尼 距离迪士尼地铁站710m

  5. 上海外滩W酒店 北外滩/外白渡桥 距离国际客运中心地铁站205m

  6. 上海也山花园酒店(崇明森林公园店) 东平森林公园 1km内无地铁站

  7. 上海外滩华尔道夫酒店 外滩 距离威斯汀大酒店340m

  8. 上海半岛酒店 外滩 距离和平饭店285m

  9. 御宿和庭酒店 梅川路 距离中环百联400m

  10. 上海外滩悦榕庄酒店 北外滩/外白渡桥 距离提篮桥地铁站440m

  11. 上海鲁能JW万豪侯爵酒店 塘桥 距离塘桥地铁站870m

  12. 上海浦东香格里拉大酒店 陆家嘴 距离正大广场180m

  13. 上海浦东丽思卡尔顿酒店 陆家嘴 距离国金中心35m

  14. 养云安缦酒店 闵行区 距离松江站12.1km

  15. 上海怡沁园度假村 东平森林公园 1km内无地铁站

4. 存储数据

推荐大家用csv存储

csv视频教程  https://www.bilibili.com/video/BV1eb411h7sP?p=13


import csv


csvf = open('data/dianping.csv', 'a+', encoding='utf-8', newline='')

fieldnames = ['hotel', 'quyu', 'distance']

writer = csv.DictWriter(csvf, fieldnames=fieldnames)

writer.writeheader()



doc = PyQuery(resp.text)

for block in doc.items('.hotelshop-list .hotel-block'):

    name = block('.hotel-name a').text()

    loc = block('.place').text()

    quyu = loc.split(',')[0]

    distance = loc.split(',')[-1]

    data = {'hotel': name,

            'quyu': quyu,

            'distance': distance}

    writer.writerow(data)

    

csvf.close()

5. 整合

前面几个步骤都成功后,我们可以把1-4整理合并成一个完整的代码。

复制粘贴代码时要注意代码层次。

类似的实战教程,大家可以看一下

https://www.bilibili.com/video/BV1AE411r7ph?p=5


import requests

from pyquery import PyQuery

import csv

import time



#新建csv

csvf = open('data/dianping.csv', 'a+', encoding='utf-8', newline='')

fieldnames = ['hotel', 'quyu', 'distance']

writer = csv.DictWriter(csvf, fieldnames=fieldnames)

writer.writeheader()



#批量生成网址url

template = 'http://www.dianping.com/shanghai/hotel/p{page}'

for page in range(1, 51):

    url = template.format(page=page)

    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.121 Safari/537.36'}

    

    #访问url

    resp = requests.get(url, headers=headers)

    time.sleep(1)

    #解析网页数据

    doc = PyQuery(resp.text)

    for block in doc.items('.hotelshop-list .hotel-block'):

        name = block('.hotel-name a').text()

        loc = block('.place').text()

        quyu = loc.split(',')[0]

        distance = loc.split(',')[-1]

        

        #构造数据,存入csv

        data = {'hotel': name,

                'quyu': quyu,

                'distance': distance}

        print(page, data)

        writer.writerow(data)

        


#关闭csv

csvf.close() 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值