
python
文章平均质量分 78
零zero度
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
python os模块
本篇详细讲解python os模块的使用以及功能 import os #导入os模块 #print(os.name) #查看操作系统 nt—windows #posix—linux/unis/mac os #print(os.uname()) #打印电脑详细信息 #不支持windows #print(os.environ) #获取操作系统的所有环境变量 #print(os.environ.get(...原创 2018-09-29 17:54:06 · 3374 阅读 · 0 评论 -
python装饰器和python面向对象练习题
今天在上课结束老师突然生活咱们好久没练习python了就布置了3道题可以供大家参考 ‘’’ 编写装饰器,为函数加上统计时间的功能 ‘’’ import time def zhuangshiqi(s): def inner(*x): a=time.time() s(*x) b=time.time() print(b-a) return inner() @zhuangshiqi def mysum...原创 2018-10-30 20:59:12 · 760 阅读 · 0 评论 -
django文件上传
文件上传 一、概要 文件上传与下载也是开发中的比较重要的功能 二、前期配置文件 在settings文件中 MEDIA_ROOT = BASE_DIR + ‘/media/’ BASE_DIR 是项目所在的目录,这样文件就会存储在当前的开发目录下的一个media的文件夹下 MEDIA_URL = ‘/media/’ 在整个项目中添加的url.py中 urlpatterns = [ url(r’^a...原创 2018-11-29 09:43:23 · 209 阅读 · 0 评论 -
python爬虫第一个,爬取斗图啦,程序猿斗图从来没输过.
最近几天博客一直没有跟新,本人也对爬虫有深深的兴趣所以就花了一天时间,自学了一下,然后实战爬取斗图啦. 话不多说直接上码,相信小白也看的懂, import requests import re import urllib.request #定义目标网站url url='http://www.doutula.com/photo/list/?page=' # #编写模拟浏览器获取 headers =...原创 2018-11-30 18:41:50 · 1406 阅读 · 0 评论 -
python爬虫从入门到放弃 二(爬取小说网站)
本期在闲暇之余用BeautifulSoup爬取了一个小说网站,大家可以学习一下,写的注释还算细,如果不懂的欢迎在下面评论区问我 import requests#引入requests from bs4 import BeautifulSoup url='http://www.seputu.com/'#访问的网页 r=requests.get(url).text#用req...原创 2018-12-05 16:10:27 · 785 阅读 · 0 评论 -
爬虫入门到放弃(三) 爬取格言网并储存到数据库
代码送上,请各位点下关注,本人也会持续更新各种技术 # -*- coding:utf-8 -*- from bs4 import BeautifulSoup import requests import pymysql #定义目标网站url url='https://www.geyanw.com/' # #编写模拟浏览器获取 headers = {'User-Agent':'Mozilla/5.0...原创 2018-12-19 09:18:29 · 486 阅读 · 0 评论 -
爬虫从入门到放弃(四),爬取你心目中的女神(校花网)
本次用scrapy框架来写一个爬虫,首先那,我们要在终端创建一个scrapy项目. 命令是:scrapy startproject +项目名字 第二步,我们cd进文件夹,命令是 cd 文件名 第三步,我们要创建一个爬虫 命令是:scrapy genspider +爬虫的名字 +初始化URL,这里的爬虫名字是你自己定义的,还有就是初始化URL,记得要去掉前面的http协议,如果你添加的话,你可以在你...原创 2018-12-25 09:35:08 · 526 阅读 · 0 评论 -
python 爬虫入门到放弃(五)scrapy设置代理池和ua代理
scrapy设置代理池知识点回顾scrapy遇到了10060或者ip被封禁的问题scrapy设置ip代理和ua代理接下来我们要修改settings文件修改中间件文件middlewares最后在settings文件中修改总结 知识点回顾 首先那我们先回顾一下scrapy项目的创立,命令是:` scrapy startproject +项目名字 第二步那我们要进入项目: ...原创 2019-01-08 11:35:28 · 1872 阅读 · 2 评论