一、思路
思路倒是不难,构造一个爬虫任务,抓取某书网站上的目录,之后将获取的内容返回,然后利用Python实现邮件发送的功能,剩下的就是定时任务构建了,下面一起来看看具体的实现过程。
二、具体实现
这里直接丢大佬的代码了,如下所示:
# -*- coding: utf-8 -*-
import requests, bs4
import smtplib
import schedule
import time
from bs4 import BeautifulSoup
from email.mime.text import MIMEText
from email.header import Header
# account = '{0}'.format('发件人qq邮箱')
# password = '{0}'.format('qq邮箱授权码')
# receiver = '{0}'.format('收件人163邮箱或者qq邮箱')
account = '{0}'.format('2352180977@qq.com')
password = '{0}'.format('awmowqginzdijg')
receiver = '{0}'.format('2352180977@qq.com')
# 爬虫任务,获取sobooks网站上的书名和作者,其中页面的话,可以根据自己需求进行修改
def recipe_spider():
list_all = ''
num = 0
for a in range(1, 3):
n = '{0}{1}'.format('https://sobooks.cc/page/', a)
res = requests.get(n)
res.encoding = res.apparent_encoding
bs = BeautifulSoup(res.text, 'html.parser')
# print(bs)
books = bs.find_all('h3')
authors = bs.find_all('p')

本文通过Python网络爬虫抓取书籍目录,并结合邮件发送功能,详细讲解如何实现邮件定时发送。同时,文中列举了解决授权码错误等常见问题的方法。
最低0.47元/天 解锁文章
6314

被折叠的 条评论
为什么被折叠?



