第九次作业

博客介绍了Scrapy爬虫框架的使用,包括其组件如引擎、调度器等,还说明了安装步骤和使用方法,如创建项目、爬虫程序及启动项目。此外,还提及微信机器人的安装,需安装wxpy、pillow、pyecharts等模块。

一.今日内容:

1.scrapy爬虫框架的使用:

一 Scrapy爬虫框架
发送请求 ---> 获取响应数据 ---> 解析数据 ---> 保存数据

** Scarpy框架介绍 **

1、引擎(EGINE)
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

2、调度器(SCHEDULER)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

3、下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的

4、爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求

5、项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
你可用该中间件做以下几件事:
  (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
  (2) change received response before passing it to a spider;
  (3) send a new Request instead of passing received response to a spider;
  (4) pass response to a spider without fetching a web page;
  (5) silently drop some requests.

6、爬虫中间件(Spider Middlewares)
位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

** Scarpy安装 **
1、pip3 install wheel
2、pip3 install lxml
3、pip3 install pyopenssl
4、pip3 install pypiwin32
5、安装twisted框架
下载twisted
http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
安装下载好的twisted
pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl

6、pip3 install scrapy

** Scarpy使用 **
1、进入终端cmd
- scrapy
C:\Users\administortra>scrapy
Scrapy 1.6.0 - no active project

2、创建scrapy项目
1.创建一个文件夹,专门用于存放scrapy项目
- D:\Scrapy_prject
2.cmd终端输入命令
scrapy startproject Spider_Project( 项目名)
- 会在 D:\Scrapy_prject文件夹下会生成一个文件
Spider_Project : Scrapy项目文件

3.创建爬虫程序
cd Spider_Project # 切换到scrapy项目目录下
# 爬虫程序名称 目标网站域名
scrapy genspider baidu www.baidu.com # 创建爬虫程序

3、启动scrapy项目,执行爬虫程序

# 找到爬虫程序文件进行执行
scrapy runspider只能执行某个 爬虫程序.py
# 切换到爬虫程序执行文件目录下
- cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders
- scrapy runspider baidu.py

# 根据爬虫名称找到相应的爬虫程序执行
scrapy crawl 爬虫程序名称
# 切换到项目目录下
- cd D:\Scrapy_prject\Spider_Project
- scrapy crawl baidu

2.微信机器人:

安装:wxpy 支持 Python 3.4-3.6,以及 2.7 版本

pip3 install -U wxpy

安装 pillow模块

pip3 install pillow

安装 pyecharts模块

pip3 install pyecharts

 

$ pip3 install echarts-countries-pypkg
$ pip3 install echarts-china-provinces-pypkg
$ pip3 install echarts-china-cities-pypkg
$ pip3 install echarts-china-counties-pypkg
$ pip3 install echarts-china-misc-pypkg

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
from wxpy import *
bot = Bot()
 
bot = Bot(cache_path = True ) # 必须先登录过一次以后才可以使用缓存
 
from wxpy import Bot
from pyecharts import Pie
import webbrowser
 
# 实例化一个微信机器人对象
bot = Bot()
 
# 获取到微信的所有好友
friends = bot.friends()
 
# 设定男性\女性\位置性别好友名称
attr = [ '男朋友' , '女朋友' , '未知' ]
 
# 初始化对应好友数量
value = [ 0 , 0 , 0 ]
 
# 遍历所有的好友,判断这个好友是男性还是女性
for friend in friends:
     if friend.sex = = 1 :
         value[ 0 ] + = 1
     elif friend.sex = = 2 :
         value[ 1 ] + = 1
     else :
         value[ 2 ] + = 1
 
# 实例化一个饼状图对象
pie = Pie( 'hao的好友们!' )
 
# 图表名称str,属性名称list,属性所对应的值list,is_label_show是否现在标签
pie.add('', attr, value, is_label_show = True )
 
# 生成一个html文件
pie.render( 'friends.html' )
 
# 打开html文件
webbrowser. open ( 'friends.html' )
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
from wxpy import *
from pyecharts import Map
import webbrowser
bot = Bot(cache_path = True )
 
friends = bot.friends()
 
 
area_dic = {} #定义一个字典,用来存放省市以及省市人数
for friend in friends:
     if friend.province not in area_dic:
         area_dic[friend.province] = 1
     else :
         area_dic[friend.province] + = 1
 
attr = area_dic.keys()
value = area_dic.values()
 
 
 
map = Map ( "好朋友们的地域分布" , width = 1200 , height = 600 )
map .add(
     "好友地域分布" ,
     attr,
     value,
     maptype = 'china' ,
     is_visualmap = True , #结合体VisualMap
 
)
#is_visualmap -> bool 是否使用视觉映射组件
#
map .render( 'area.html' )
 
 
webbrowser. open ( "area.html" )
 
 
bot.file_helper.send( 'lqz say hello' )
 
from wxpy import *
bot = Bot(cache_path = True )
 
@bot .register()
def recv_send_msg(recv_msg):
     print ( '收到的消息:' ,recv_msg.text) # recv_msg.text取得文本
     return '自动回复:%s' % recv_msg.text
 
# 进入Python命令行,让程序保持运行
embed()
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
from wxpy import *
bot = Bot(cache_path = True )
 
girl_friend = bot.search( '女朋友的备注名称' )[ 0 ]
print (girl_friend)
 
@bot .register() # 接收从指定好友发来的消息,发送者即recv_msg.sender为指定好友girl_friend
def recv_send_msg(recv_msg):
     print ( '收到的消息:' ,recv_msg.text) # recv_msg.text取得文本
     if recv_msg.sender = = girl_friend:
         recv_msg.forward(bot.file_helper,prefix = '老婆留言: ' ) #在文件传输助手里留一份,方便自己忙完了回头查看
         ms = '老婆最美丽,我对老婆的爱如滔滔江水,连绵不绝'
         print ( '>>>给老婆回复的:' , ms)
         return  ms #给老婆回一份
 
embed()
 
 
from wxpy import *
bot = Bot(cache_path = True )
 
company_group = bot.groups().search( '群名字' )[ 0 ]
 
boss = company_group.search( '老板名字' )[ 0 ]
 
 
@bot .register(chats = company_group) #接收从指定群发来的消息,发送者即recv_msg.sender为组
def recv_send_msg(recv_msg):
     print ( '收到的消息:' ,recv_msg.text)
     if recv_msg.member = = boss:
         #这里不用recv_msg.render 因为render是群的名字
         recv_msg.forward(bot.file_helper,prefix = '老板发言: ' )
         return '老板说的好有道理,深受启发'
 
embed()
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
import json
import requests
from wxpy import *
bot = Bot(cache_path = True )
 
# 调用图灵机器人API,发送消息并获得机器人的回复
def auto_reply(text):
     url = "http://www.tuling123.com/openapi/api"
     api_key = "9df516a74fc443769b233b01e8536a42"
     payload = {
         "key" : api_key,
         "info" : text,
     }
     r = requests.post(url, data = json.dumps(payload))
     result = json.loads(r.content)
     return "[来自智能机器人] " + result[ "text" ]
 
 
@bot .register()
def forward_message(msg):
     return auto_reply(msg.text)
 
embed()
 
import json
import requests
from wxpy import *
bot = Bot(cache_path = False )
 
group = bot.groups().search( '群名字' )[ 0 ]
print (group)
 
# 调用图灵机器人API,发送消息并获得机器人的回复
def auto_reply(text):
     url = "http://www.tuling123.com/openapi/api"
     api_key = "9d602fe417464cd18beb2083d064bee6"
     payload = {
         "key" : api_key,
         "info" : text,
     }
     r = requests.post(url, data = json.dumps(payload))
     result = json.loads(r.content)
     return "[来自智能机器人] " + result[ "text" ]
 
 
@bot .register(chats = group)
def forward_message(msg):
     return auto_reply(msg.text)
 
embed()
 
 
import requests
from wxpy import *
bot = Bot( cache_path = True )
 
girl_friend = bot.search( '名字r' )[ 0 ]
 
# 调用图灵机器人API,发送消息并获得机器人的回复
def auto_reply(text):
     url = "http://www.tuling123.com/openapi/api"
     api_key = "申请图灵机器人获取key值放到这里"
     payload = {
         "key" : api_key,
         "info" : text,
     }
     r = requests.post(url, data = json.dumps(payload))
     result = json.loads(r.content)
     return "[微信测试,请忽略] " + result[ "text" ]
 
 
@bot .register()
def forward_message(msg):
     if msg.sender = = girl_friend:
         return auto_reply(msg.text)
 
embed()

转载于:https://www.cnblogs.com/yang-haha/p/11067311.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值