python
看上去很美、
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
pythonday2
#coding=utf-8 ''' 不同数据类型之间的转换: type( num1 ) : 实现元素类型的获取. int( num1 ) : 将元素转换为int 类型. str(A) : A转为字符串. bool(A):转为布尔. long(A):转长整型,10进制 float(A) : 转浮点型. ''' #num1 = "10" #p...原创 2019-01-11 14:04:26 · 171 阅读 · 0 评论 -
python中如何爬取动态页面内容
下面以爬取智联招聘为例讲解下获取动态数据的一般步骤。 首先打开谷歌浏览器输入地址智联招聘地址https://www.zhaopin.com/数据页面,Fn+F12查看网页源代码,然后选择Network——>XHR,可以看到,现在里面什么都没有 2.2然后点击谷歌浏览器的刷新按钮或者按F5刷新页面,可以看到,有一条数据出现了,这个链接就是获取数据的页面API,选择Response,可以看到,...原创 2019-01-18 17:25:02 · 9244 阅读 · 4 评论 -
爬取静态页面内容加分页内容
实验网站http://books.toscrape.com/爬取 # -*- coding: utf-8 -*- import scrapy class Book(scrapy.Spider): name = 'book' #爬虫标识名称 # allowed_domains = ['example.com'] start_urls = ['http://boo...原创 2019-01-19 10:49:10 · 874 阅读 · 0 评论 -
pythonday3函数
1、无参函数 # coding=utf-8 #1无参函数 def study(): print "学习" study() #调用函数study #定义有参函数 def study1(x,y): print "学习课程为多少天",x,"时间为",y stu = study1(1,10) #调用带参函数 print stu ...原创 2019-01-14 16:17:11 · 160 阅读 · 0 评论 -
python中爬取到数据以item封装数据存储到mysql
例子:要求 1.安装mysql数据库. 2.安装pip install pymysql. 3.在爬虫项目中: 自定义item,封装爬取结果. 4.在爬虫项目中: 自定义itemPipelines管道. 处理爬虫结果,并存储至mysql中. 需求: 51job/智联招聘.带分页的爬取和数据的存储. ...原创 2019-01-20 12:43:40 · 778 阅读 · 0 评论 -
pythonday4
#coding=utf-8 #函数定义其它形式: def play( p1 , p2 = 20 ): print '正在玩耍 ~~~' , p1 , '----' , p2 pass #调用: #play( p1 = 10 ) #异常处理: try: except: finally: try: #模拟除法运算报错. #result = 10/0 #print '结果为:',r...原创 2019-01-15 13:15:19 · 196 阅读 · 0 评论 -
scrapy入门
scrapy框架: 实现爬虫. 下载: pip install scrapy pip install argparse 学习: 从官网. 第一个scrapy框架项目创建开发: scrapy startproject project1 cd project1 scrapy genspider example example.com 备注: 默认创建了一个项目project...原创 2019-01-17 09:09:07 · 248 阅读 · 0 评论
分享