今天看了崔庆才老师的实战:Requests+正则表达式爬取猫眼电影。
我还没有看爬虫基础,想着边实战边学,因此总结下我不熟悉的地方:
1、正则表达式
2、写文件
3、进程池
这个爬虫的抓取流程是:
Step 1:用request请求获得网页内容;
Step 2:用正则表达式提取需要的信息;
Step 3:把提取的信息写入文件。
下面贴自己跟着敲的代码:
import requests
import json
from requests.exceptions import RequestException
import re
from multiprocessing import Pool
def get_one_page(url):
try: #捕获异常
response = requests.get(url) #请求网页
if response.status_code == 200: # 判断请求结果
return response.text #text和content有什么区别?
return None
except RequestException:
return None
def parse_one_page(html):
#用正则表达式匹配需要的信息
pattern = re.compile('<dd>.*?board-index.*?>(\d*)</i>.*?data-src="(.*?)".*?name"><a.*?>(.*?)</a>.*?star">'
+ '(.*?)</p>.*?releasetime">(.*?)</p>'
+ '.*?integer">(.*?)</i>.*?fraction">(.*?)</i></p>.*?</dd>', re.S)
items = re.findall(pattern, html)
#把匹配结果用字典格式化
for item in items:
yield {
'index': item[0],
'image': item[1],
'title': item[2],
'actor': item[3].strip()[3:],
'time': item[4].strip()[5:],
'score': item[5] + item[6]
}
#写到文件里
def write_to_file(content):
with open('result.txt', 'a', encoding='utf-8') as f:
f.write(json.dumps(content, ensure_ascii=False) + '\n')
f.close()
def main(offset): #把网页里的offset当成参数传过来:https://maoyan.com/board/4?offset=10
url = 'https://maoyan.com/board/4?offset='+str(offset)
html = get_one_page(url)
for item in parse_one_page(html):
print(item)
write_to_file(item)
if __name__ == '__main__':
# for i in range(10):
# main(i*10)
pool = Pool() #声明进程池
# #用map方法,把数组中每个元素拿出来当成函数参数,创建一个个进程放到进程池里
pool.map(main, [i*10 for i in range(10)])