requests和正则爬取猫眼的数据

用requests爬取猫眼网站的top100榜单,再用正则提取所需的数据,并将数据存储

#成功抓取所有数据,并存为文件(参考代码:https://github.com/Germey/TouTiao/blob/master/spider.py)
import requests 
import re
import json  
from multiprocessing import Pool#Python多进程 

url='http://maoyan.com/board/4?offset='
headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; rv:57.0) Gecko/20100101 Firefox/57.0'}

def get(url):
    response=requests.get(url,headers=headers)
    response.encoding='utf-8'
    #print(response.text)
    #pattern = re.compile(r'<dd>.*?(\d+)</i>.*?"data-src="(.*?)".*?name"><a.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?score">.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)
    pattern = re.compile(r'<dd>.*?(\d+)</i>.*?data-src="(.*?)".*?name"><a.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?score">.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)
    info=re.findall(pattern,response.text)
    for item in info:
        yield {
            'index':item[0].strip(),
            'img':item[1].strip(),
            'name':item[2].strip(),
            'star':item[3].strip()[3:],
            'releasetime':item[4].strip()[5:],
            'score':item[5].strip()+item[6].strip()   
        }

def main(url):
    with open(r'D:\cs.txt','a',encoding='utf-8') as f:
        for i in get(url):
            f.write(json.dumps(i,ensure_ascii=False))
            f.write('\n')

if __name__ == '__main__':
    #多进程方法抓取
    pool = Pool()
    pool.map(main,[url+str(x) for x in range(0,100,10)])
    pool.close()
    pool.join()




评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值