
python自动化
文章平均质量分 67
行秋即离
若你困于无风之地
展开
-
python3的map函数,匿名函数,apply函数用法解析
Python map()函数map()函数是对一个序列做相同的函数运算之后,返回一个map对象,简单来说就是输入一个序列,返回一个计算好的序列结果语法参数:function就是希望输入的序列做什么运算参数:interable就是一个或者多个可以迭代的对象案例:但是我们发现,在python3里面是输出不了我们想要的结果的,输出的告诉你是一个map对象如果我们将他转成列表或者迭代器,都是不行的最后是通过使用遍历的方法,放到新列表输出匿名函数lambda外意是没有名字的函数,本身是原创 2021-01-14 21:23:49 · 1362 阅读 · 0 评论 -
python的线程相关知识
1、线程在python里面除了多进程可以实现多任务之外,还可以使用多线程完成那这两者有什么区别呢?两个字:节约1.1多线程作用2、多线程完成多任务2.1、线程的创建步骤实例:import timedef sing(): for i in range(3): print('singing....') time.sleep(1)def dance(): for i in原创 2021-01-10 19:36:18 · 1912 阅读 · 0 评论 -
python的进程相关知识
1.多任务1.1电脑中的多任务比如同时下载好几个文件:多任务的概念:在同一时间内执行多个任务1.2 多任务的两种表现形式并发:在一段时间交替去执行多个任务比如:对于单核的CPU处理多任务,操作系统会轮流的让各个任务交替去执行,但是交替速度非常快并行:在一段时间内真正的同时一起执行多个任务对于多核的CPU处理任务,操作系统会给CPU每个内核安排一个任务执行,多个内核是真正的一起执行多个任务,这里需要注意的是多核CPU是并行的执行多任务,始终有多个任务一起执行2、进程的介绍2.1、原创 2021-01-10 19:00:05 · 844 阅读 · 0 评论 -
python的迭代器和生成器(iter()、yield)
在python中,我们经常使用for语句循环遍历可迭代的对象(list,string,dict,tuple)等对象,这些对象都被称为可迭代对象迭代器迭代器对象要求支持迭代器协议的对象,在Python中,支持迭代器协议就是实现对象的iter()()和next()方法。其中iter()()方法返回迭代器对象本身;next()方法返回容器的下一个元素,在结尾时引发StopIteration异常。iter()和next()方法这两个方法是迭代器最基本的方法,一个用来获得迭代器对象,一个用来获取容器中的下一个转载 2021-01-10 15:37:13 · 1719 阅读 · 0 评论 -
SQL数据库中主键和外键
主键和外键主键 (Primary Key) 中的每一笔资料都是表格中的唯一值。换言之,它是用来独一无二地确认一个表格中的每一行资料。主键可以是原本资料内的一个栏位,或是一个人造栏位 (与原本资料没有关系的栏位)。主键可以包含一或多个栏位。当主键包含多个栏位时,称为组合键 (Composite Key)在关系型的数据库中,一条记录有若干个字段,若其中某一个字段能唯一标识一条记录,该个字段就可以成为一个主键比如学生表有下面这些字段:(学号,姓名,性别,班级)其中每个学生的学号是唯一的,学号就是一个原创 2020-11-30 21:08:10 · 790 阅读 · 0 评论 -
爬虫headers参数含义
原创 2020-11-29 19:28:54 · 1127 阅读 · 0 评论 -
总结下python的print()格式输出
print()函数的格式化输出print(1)1print(“Hello World”)Hello Worlda = 1b = ‘runoob’print(a,b) #默认是按照空格分割1 runoobprint(“aaa”“bbb”),如果输入的是字符串,就没有分隔符aaabbbprint(“aaa”,“bbb”)aaa bbbprint(“www”,“runoob”,“com”,sep=".") # 设置间隔符www.runoob.com使用%()格式化输出字符串n原创 2020-11-29 18:48:12 · 1827 阅读 · 0 评论 -
python切片详细
Python切片索引方式安装列表a为例:正向切换检索最后一个数字是控制正向取值还是反向取值的:如果我只想取后面几个呢?原创 2020-11-29 17:58:28 · 149 阅读 · 0 评论 -
Python将中文转成拼音
有时在处理文件时候,我们需要将中文姓名转换为拼音,或者是转换为拼音首字母,本文将介绍三种Python实现的方法(1)xpinyin开门见山,Python中文字转拼音可以使用,直接使用pip安装即可接着导入xpinyin下的 Pinyin 方法如下首先试试中文名转拼音有时候需要将中文名字转换成首字母(2)pypinyin这个库是列表里面再嵌套列表来实现文字的分节的还可以使用声调的方式输出结果:(3)snownlp最后的这种方法有一些文字会识别失败:这里将名字的首字母大写处理原创 2020-11-29 16:59:13 · 6043 阅读 · 0 评论 -
python_怎么取出列表元素的索引
第一种方法:使用list.index()这种方法要记住,输入的类型可以是数值或者字符串,如果有相同的元素,是默认取出第一个元素的索引第二种方法:enumerate这种方法比较是和在遍历过程种取出对应的值...原创 2020-11-29 15:25:13 · 2777 阅读 · 0 评论 -
python 爬虫小试牛刀(request,BeautifulSoup库的实战)
实战1实战2小说章节目录链接:https://www.37zw.net/0/761/网页解析url = 'http://www.xbiquge.la/0/8/5599.html'response = requests.get(url, headers = {'user-agent':'Mozilla/5.0'})response.encoding = response.apparent_encodinghtml = response.textsoup = BeautifulS..原创 2020-11-29 15:13:39 · 258 阅读 · 0 评论 -
Python爬取张家界风景美图
这里利用周末的时间复习了一下关于爬虫的一些基本知识,分别是requests, BeautifulSoup库的基本知识:如果还有不会的可以去看看这些内容:参考requests库requests实例Beautiful Soup解析库大学排行榜爬取ok,废话不多说,张家界一直是我像要去的一个风景优美的地方,但是一直没有时间去,无奈,只能在网上爬取美图来过过瘾了首先打开视觉中国官网:搜索张家界安装惯例,我们要找到每一张图片对应的地址,那这么多要怎么找呢?我们可以按F12进入开发者模式,用鼠标.原创 2020-11-29 15:02:23 · 486 阅读 · 0 评论 -
BeautifulSoup库的深入探究
使用python123的页面作为例子分析:import requestsfrom bs4 import BeautifulSoupurl = 'https://python123.io/ws/demo.html'r = requests.get(url)soup = BeautifulSoup(r.text, 'html.parser')print(soup.prettify)下面是这个网页标签的输出结果下面的soup是前面代码使用BeautifulSoup库解析之后的结果soup.t原创 2020-11-29 13:10:11 · 162 阅读 · 0 评论 -
Python的print函数怎么覆盖打印
覆盖打印就是让每一次的print之后,让光标回到本行行首因为print函数是默认输出之后光标调到下一行例子:如果我不想让它调到下一行:例子:如果想覆盖打印,让光标回到行首例子:原创 2020-11-28 11:49:35 · 12432 阅读 · 0 评论 -
‘\‘,\n,\r,\t等的实际意思是什么
\是转义字符,也叫续航符(在行尾的时候)’\”’是字符“’\n’是换行’\t’是到下一个制表单位,就是向后数第9位,即Tab,也叫横向制表符'\'表示的是反斜杠符号'\a’响铃'\b’退格(Backspace)'\000’表示空'\v’纵行制表符'\r’回车'\f’换页注意:我们在平时的路径中也会经常遇到这个斜杠合反斜杠首先,"/“左倾斜是正斜杠,”"右倾斜是反斜杠,可以记为:除号是正斜杠一般来说对于目录分隔符,Unix和Web用正斜杠/,Windows用反斜杠,但是现在Window原创 2020-11-27 23:34:02 · 16208 阅读 · 0 评论 -
python网络爬虫自学笔录7_Scrapy库
(1)Scrapy库Scrapy是适用于Python的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改。它也提供了多种类型爬虫的基类,如BaseSpider、sitemap爬虫等,最新版本又提供了web2.0爬虫的支持。官方库解析Scrapy是一个适用爬取网站数据、提取结构性数据的应用程序框架,它可以应用在广泛领域:Scrapy原创 2020-11-27 19:07:44 · 244 阅读 · 0 评论 -
python网络爬虫自学笔录6_爬取大学排行实例
这里实现一个对中国大学排行的爬虫实例解析注意:在爬取之前需要查看robot的协议,查看是否允许爬取原创 2020-11-27 18:04:48 · 266 阅读 · 0 评论 -
python网络爬虫自学笔录5_信息标记与提取
(1)信息标记的形式标记后的信息可形成信息组织结构,增加了信息的维度标记后的信息可用于通信、存储或展示以HTML为例子展示何为信息标记HTML的信息标记形式目前市面上有三种信息标记的形式:第一种:XML可扩展标记语言,标准通用标记语言的子集,简称XML。是一种用于标记电子文件使其具有结构性的标记语言。在电子计算机中,标记指计算机所能理解的信息符号,通过此种标记,计算机之间可以处理包含各种的信息比如文章等。它可以用来标记数据、定义数据类型,是一种允许用户对自己的标记语言进行定义的源语言。原创 2020-11-27 15:39:31 · 232 阅读 · 0 评论 -
python网络爬虫自学笔录4_Beautiful Soup解析库
Beautiful Soup简单来说,Beautiful Soup 是 python 的一个库,最主要的功能是从网页抓取数据。官方解释如下:Beautiful Soup 提供一些简单的、python 式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup 自动将输入文档转换为 Unicode 编码,输出文档转换为 utf-8 编码。你不需要考虑编码方式,除非文档没有指定.原创 2020-11-27 15:04:09 · 913 阅读 · 0 评论 -
python网络爬虫自学笔录3_requests实例
(1)淘宝页面源代码爬取这是一个需要爬取的淘宝页面,使用下面代码import requestsr = requests.get('https://detail.tmall.com/item.htm?id=627546383438&ali_refid=a3_430406_1007:1368730053:J:327892881_0_1410706680:8b2f96b85a2366008025f24dd73d84a1&ali_trackid=85_8b2f96b85a236600802.原创 2020-11-27 14:33:18 · 330 阅读 · 2 评论 -
python网络爬虫自学笔录2_爬虫安全问题
合理使用技术(盗亦有道)爬虫虽然可以让我们很方便的获得大量的资源,但是同时也会引发很多的问题,我们根据爬虫的尺寸分为三大类:每当我们发起了一个爬虫,它就会像一个骚扰电话一样访问服务器,因此大型的爬虫会对服务器造成很大的压力为了规范这些手段,网页上就有了一些关于爬虫的限制:Robots协议...原创 2020-11-27 14:00:30 · 276 阅读 · 0 评论 -
python网络爬虫自学笔录1_requests库
1.Requests库的requests详细介绍这里面包含了基本的安装下载知识以及使用的描述Requests库的7个主要方法关于requests.get()方法的参数设置:我们一般是封装成自己的函数调用(1)response对象Response的对象一般是包含服务器返回的所有信息,也包含请求的Request信息Response对象的属性(1)分别使用上述的对象属性输出结果如上图所示关于response的编码:简单说,网络上的资源它都有它的编码,如果没有编码,我们将没有办法原创 2020-11-27 13:49:12 · 182 阅读 · 0 评论 -
基础文件操作python实现
处理文件是我们几乎每天都躲不开的任务之一。Python中含有几个用于执行文件操作的内置模块,例如读取文件,移动文件,获取文件属性等。本文总结了许多值得了解的函数,这些函数可用于进行一些Python中最常见的文件操作,可以极大地提高我们处理文件的效率。(1)文件的打开与关闭读取或写入文件前,首先要做的就是打开文件,Python的内置函数open可以打开文件并返回文件对象。文件对象的类型取决于打开文件的模式,可以是文本文件对象,也可以是原始二进制文件,或是缓冲二进制文件对象。每个文件对象都有诸如 read.原创 2020-11-24 22:30:26 · 173 阅读 · 0 评论 -
利用Python实现将PDF转成图片文件
之前收集了很多优秀的 PDF文档,但是需要看的时候不是很方便,需要去找到这个文件,如果是在手机上的话往往还需要下载 PDF相关的插件才行,而且最大的问题是不便于资料的整理和分享。如果能够将 PDF转换成网页,岂不是就能解决这些问题了?还能直接分享出去。这里利用 PyPDF包来处理 PDF文件,为了方便快捷,我这里直接将一个页面转换成图片,就不需要去识别页面中的每一个 PDF元素了,这是没必要的转换过程这里使用的核心库是PyPDF2# -*- coding: utf-8 -*-import io转载 2020-11-23 10:27:28 · 725 阅读 · 0 评论