一个简单的python爬虫,爬取知乎
- 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片
- 文字信息暂未收录,可自行实现,比图片更简单
- 具体代码里有详细注释,请自行阅读
项目源码:
# -*- coding:utf-8 -*-
from spider import SpiderHTML
from multiprocessing import Pool
import sys,urllib,http,os,random,re,time
__author__ = 'waiting'
'''
使用了第三方的类库 BeautifulSoup4,请自行安装
需要目录下的spider.py文件
运行环境:python3.4,windows7
'''
#收藏夹的地址
url = 'https://www.zhihu.com/collection/30822111' #page参数改为代码添加
#本地存放的路径,不存在会自动创建
store_path = 'E:\\zhihu\收藏夹\\会员才知道的世界'
class zhihuCollectionSpider(SpiderHTML):
def __init__(self,pageStart, pageEnd, url):
self._url = url
self._pageStart = int(pageStart)
self._pageEnd = int(pageEnd)+1
self