python爬虫爬取猫眼电影top100

本文介绍了一个使用Python实现的猫眼电影Top100爬虫项目,利用requests获取网页内容,re模块解析数据,并通过pymysql将结果存入数据库。首次接触并应用了re和multiprocessing等模块。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这个爬虫我是跟着教程做的,也是第一次用python的re和multiprocessing(多线程),还知道了yield生成器的用法。不过re正则表达式真的厉害,但是学起来比较难,还在学习中。

import requests
import re
import pymysql
from multiprocessing import Pool

def get_one_page(url):#判断是否get到网页信息
	res = requests.get(url)
	if res.status_code == 200:
		return res.text
	return None


def parse_one_page(html):#用正则表达式抓取
	pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'
						 +'.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
						 +'.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)
	items = re.findall(pattern,html)
	for item in items:
		yield {
			'index':item[0],
			'url':item[1],
			'name':item[2],
			'actors':item[3].strip()[3:],
			'time':item[4].strip()[5:],
			'score':item[5]+item[6]
		}


def save_detail(num,name,actors,time,score):#调用pymysql储存信息
	db = pymysql.connect('localhost','root','123456','maoyan_movies',charset='utf8')
	cursor = db.cursor()
	sql = 'insert into top100 values (%s,%s,%s,%s,%s)'
	cursor.execute(sql,(num,name,actors,time,score))
	db.commit()
	db.close()


def main(offset):
	url = 'http://maoyan.com/board/4?offset={0}'.format(offset)
	html = get_one_page(url)
	for i in parse_one_page(html):
		save_detail(i['index'],i['name'],i['actors'],i['time'],i['score'])


if __name__ == '__main__':
	offset = [i*10 for i in range(10)]#启用多线程
	pool = Pool()
	pool.map(main,offset)
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值