爬虫入门01:爬取知乎热榜

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# author:qdf time:2019/1/21

from lxml import etree
import requests

url = "https://www.zhihu.com/hot"
headers = {"User-Agent":"",
           "Cookie":""}

response = requests.get(url, headers=headers)
html_str = response.content.decode()
html = etree.HTML(html_str)
# print(html)

#获取知乎热榜排名标题热度
ret = html.xpath("//section[@class='HotItem']")
# print(ret)

for table in ret:
    item = {}
    item['排名'] = table.xpath(".//div[@class='HotItem-index']/div/text()")
    item['标题'] = table.xpath(".//div[@class='HotItem-content']/a/@title")
    item['热度'] = table.xpath(".//div[@class='HotItem-metrics HotItem-metrics--bottom']/text()")
    print(item)
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值