- 博客(57)
- 收藏
- 关注
原创 RS-232 RS-485 TTL电平标准 以及串口、COM口、UART口、USB转TTL、USB转串口
最简单理解 xx转xx 就是将前面的转换为后面的 USB转TTL 就是将USB转换为 TTL电平 USB转串口 就是将USB转换为串口①.COM口:在台式机上常用的口,DB9/DB25接口,接口协议只有两种RS232和RS485COM口多见于旧式电脑,用于连接鼠标,调制调解器等设备,现在已被USB取代。②.UART口、COM口指的是物理接口形式;TTL、RS232和RS485指的是电平逻辑标准;
2023-06-01 18:28:11
5074
原创 python pyinstaller spec文件 打包多个python文件为exe应用程序
【代码】python pyinstaller spec文件 打包多个python文件为exe应用程序。
2023-03-27 11:10:31
3868
原创 使用虚拟机VMware Workstation安装ubuntu22.04
打开VMwareWorkdstation,安装时一般可按照默认选项,在选择镜像的时候,记得选择自己刚刚下载的iso镜像,用户名和密码以及虚拟机名称,都可以自行设置,以此创建虚拟机,选时区为shanghai之后,这里等待时间较长,耐心等待。由于前面没有保留截图,突然想到记录一下,谅解哈,可百度。重启后需要登录用户名密码,弹窗可以一直点next一路skip,在这里可以选择想要的软件,切记不要抓装VScode,想装的话可以去官网下载正版的软件,ubuntu自带的VScode无法输入中文。找到中文简体,安装即可。
2023-03-24 14:35:01
467
原创 Python——代码版本管理-Git和GitHub
目录:1.什么是Git2.Git安装配置3.Git工作流程4.Git工作区、暂存区和版本库5.创建仓库6.基本操作7.分支管理8.查看提交历史9.标签标记10.远程仓库11.服务器搭建12.开发工具继承13.案例:通过SSH协同开发应用1.什么是Git1-1.GitGit是一个开源的分布式版本控制系统,用于敏捷高效的处理任何项目的版本
2018-01-20 11:36:00
10728
原创 Python——redis操作手册
Redis操作手册一、Redis简介1.概述Redis是一个开源(BSD许可),内存存储的数据结构服务器,可用作数据库,高速缓存和消息队列代理。它支持字符串、哈希表、列表、集合、有序集合,位图,hyperloglogs等数据类型。内置复制、Lua脚本、LRU收回、事务以及不同级别磁盘持久化功能,同时通过Redis Sentinel提供高可用,通过Redis Cluster提供自动分区。
2018-01-18 17:25:40
1444
原创 Python爬虫——8-1.scrapy深度爬取案例—百思不得姐
对于scrapy框架的使用,爬取数据,多次运行命令行也是比较头疼和麻烦的,这里建议Windows+R键输入cmd进入命令行,切入至项目所在目录后执行scrapy shell url’命令,可以很直观的检测程序是否出错,如xpath匹配路径是否正确获取数据,这是一个用于简单测试的非常便捷的方法。1.创建项目:scrapy startprojet budejie2.定义数据模型文件——items.p
2018-01-17 21:57:55
2147
原创 Python爬虫——9.scrapy框架get/post请求
接触了这么久的scrapy框架,你是否会疑惑,在scrapy底层,代码到底是怎么运行的呢?原来由一个起始url,通过scrapy.Request()函数会默认封装为一个get请求对象,该对象触发找到引擎模块scrapy.engine,引擎模块指向调度模块scrapy.schedule,调度模块接收到后对start_urls列表进行有序排列,然后将信息返回给引擎,引擎转而启动下载模块进行数据的采集,
2018-01-17 20:46:58
5316
原创 Python爬虫——8.scrapy—深度爬取
还是以前面文章提到的爬取智联招聘数据为例,首先分析一下网页特征,要爬取的数据职位名称、公司名称、职位月薪这些数据是直接渲染在网页中的,所谓的深度爬取则是在只抓取一个url的情况下获取该页面上其他页面的链接,然后将这些url加入到urljoin()中进行一一爬取。以下是简单的scrapy框架的底层图解:1.首先,让我们先创建一个scrapy项目:python2 -m scrapy startproj
2018-01-17 18:00:09
6365
原创 Python爬虫——7-1.scrapy框架案例-爬取内涵段子
案例分析:1.该网站的数据是保存的Json文件中的,所以要首先使用抓包工具,抓取包含该json文件的url地址作为爬取入口。爬取到的Json文件比较适合使用re正则表达式进行数据的筛选。若是数据直接渲染在网页中,则比较推荐使用Xpath语法。2.分析items.py中的数据类型,这里只爬取了段子,即只有一个字段:content3.写爬虫程序,可以首先将筛选的数据保存在本地文件表格中,观
2018-01-17 10:36:56
848
原创 Python爬虫——7.Scrapy框架
一. scrapy概述官方网站:http://scrapy.org [orginzation]使用Python开发的主要进行数据采集的一个应用程序框架,核心使用它来进行爬虫程序的快速开发,底层使用了twisted异步模块,所以在进行数据采集下载时效率非常高!1.ubuntu/macos 下,在有完善的python环境的基础上直接安装 scrapy2.windows下:注
2018-01-16 19:21:30
587
原创 Python爬虫——6.Tesseract机器视觉(配合python内置的PIL即pillow模块)
tesseract机器视觉图形识别google公司的一个python模块,同时也提供了一个独立的软件,开源之后主要给行业提供更加方便的图形机器操作,让更多的人可以很简单的参与到人工智能的行列中!后续~建议大家可以参考学习一下google公司的tensserflow机器学习框架!tensseract:上谷歌的网站,下载tesseract并安装,windows|macos|linux,下载
2018-01-15 20:10:32
821
原创 Python爬虫——5-2.使用selenium和phantomjs模拟QQ空间登录
# -*-coding:utf-8 -*-'''使用selenium和phantomjs登录qq空间'''from selenium import webdriverimport time# 启动phantomjs无界面浏览器browser=webdriver.Chrome()# 打开qq空间登录界面browser.get('https://qzone.qq.com/')#
2018-01-15 20:07:01
1080
原创 Python爬虫——5.selenium自动化测试工具和phantomjs无界面浏览器
一. selenium自动化测试工具关于自动化测试:在做自动化测试之前你需要知道的,http://www.cnblogs.com/fnng/p/3653793.html1.什么是selenium和phantomjs?selenium是一个web自动化测试工具,主要流行于web测试工程师的工作中常规的web项目在开发完成后要对可用性进行测试,项目开发完成之后,通常
2018-01-15 16:30:47
3742
原创 Python爬虫——4.6使用requests和正则表达式、随机代理爬取淘宝网商品信息
# coding:utf-8'''使用requests模块,使用代理,进行淘宝网商品信息的爬取'''# 引入需要的模块import requestsimport randomimport refrom lxml import etree# 定义免费代理列表proxy_list = [{"http": "116.8.83.3:8118"}, {"http": "116.8.83
2018-01-15 09:13:53
1715
原创 Python爬虫——4.5urllib2和xpath爬取前程无忧网招聘信息
# coding:utf-8'''使用urllib2模块进行数据采集,使用XPath进行数据筛选,使用随机免费代理'''# 引入需要的模块import urllib2from lxml import etreeimport random# 免费代理列表proxy_list = [{"http":"116.8.83.3:8118"}, {"http":"116.8.83.3:
2018-01-15 09:11:14
1217
原创 Python爬虫——4.4爬虫案例——requests和xpath爬取招聘网站信息
# -*-coding:utf-8 -*-'''使用requests模块进行数据采集,XPath进行数据筛选'''import requestsfrom lxml import etree# 定义访问路由url='http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC%2B%E4%B8%8A%E6%B5%
2018-01-15 09:09:00
2530
1
原创 Python爬虫——4-3.BeautifulSoup4(BS4)
对于HTML/XML数据的筛选,BeautifulSoup也是比较常用且使用简单的技术,BeautifulSoup是一种非常优雅的专门用于进行HTML/XML数据解析的一种描述语言,可以很好的分析和筛选HTML/XML这样的标记文档中的指定规则数据在数据筛选过程中其基础技术是通过封装HTML DOM树实现的一种DOM操作,通过加载网页文档对象的形式,从文档对象树模型中获取目标数据Beaut
2018-01-13 09:27:28
17589
1
原创 Python爬虫——4-2.数据筛选之XPath
爬虫数据筛选——XPath 在使用爬虫爬取的数据可以分为两种,非结构化数据:数据的内容没有固定的格式和规范,如用户名、邮箱、账号、电话号码、地址、电影名称、评分、评论、商品名称等等,对此类数据的筛选我们一般使用正则表达式,效率较高且非常精准,而对于一些有特定规范的数据如HTML网页文档、XML网页文档、JSON等等,由于数据本身存在一定的规律性,可以通过针对这些规律的分析工具进行
2018-01-12 21:52:25
3622
原创 Python爬虫——4-1.数据筛选之正则表达式
一、关于正则表达式的回顾正则表达式两种操作:核心操作和快捷操作核心操作:通过re模块的compile函数,将正则字符串编译成匹配对象,通过匹配对象对字符串进行匹配如:reg="my"pattern=re.compile(reg)str="my nama is youya ,my age is 20!"pattern.match(str)快捷操作:直接使用re模块的match
2018-01-12 21:49:28
3474
原创 Python爬虫——3.requests模块和python2编码问题
一、python2第三方模块:requests模块requests模块的常规操作:1.实际爬虫项目中,使用最多的一个模块2. requests基础操作3.请求头封装4.不同请求方式5. 请求中的参数requests模块是实际项目中常用的爬虫操作模块,相对于urllib2模块,requests模块对多种请求和传参问题进行了高度的封装equests:第三方封装的
2018-01-10 20:09:08
658
原创 Python爬虫——2.底层操作和请求头、请求代理以及cookie操作
一、爬虫底层操作和请求头的设置1.demo01_爬虫底层操作虽然urllib2模块是爬虫的底层操作,但并不是程序的底层操作,在其内部的urlopen函数也是有自己封装的内容,实则参数为一个request即请求对象。# -*- coding:utf-8 -*-# 引入需要的模块import urllib2# 定义urlurl='https://www.taobao.com'
2018-01-09 21:15:43
2938
原创 web开发——4.一个完整的web项目和子应用程序的创建以及数据模型操作的两种方法
一、创建一个完整的web项目1.在pycharm命令行中输入命令: django-admin startproject myweb,即可创建一个新的web项目新的web项目包含如下文件结构:
2018-01-08 21:11:50
1642
原创 Webpy——快速入门小程序
参考官网:http://webpy.org/docs/0.3/一、webpy安装推荐设置.另外一个选择是使用Easy Install. Easy Install 使用如下:easy_install web.py或者 PIPsudo pip install web.py二、快速入门1.简单的小程序——hello_world.pyimpor
2018-01-08 21:03:50
3881
原创 Python——1.爬虫及http状态码详解
网络爬虫[web spider](~搜索引擎|百度|360搜索|搜狗搜索|谷歌~)概念:将网络上的所有网站的数据,通过一种实时运行在网络上的程序,访问并且复制这些数据的摘要内容,存放在自己的服务器中,方便搜索引擎的用户可以快捷的从这些摘要内容中检索到自己需要的数据,然后引导用户从摘要内容转发连接到实际内容的访问过程!爬虫程序:一种实时运行在网络上的程序[可以使用任何语言编写,python更
2018-01-08 21:03:03
4726
原创 Flask——1.初识flask微框架
1. FLASK 概述Flask是使用python语言编写的一个轻量级的web框架内部WSGI实现采用Werkzeug,模板引擎使用Jinja2,使用BSD授权开源在行业中,Flask也被称为microframework(微框架),因为Flask使用简单的核心操作,通过extension增加额外的功能,并且Flask没有默认的数据库和表单验证等支持2. QUICK START2.1. Instal
2018-01-02 13:41:42
765
原创 Tornado——WebSocket长连接—聊天室案例
一、基本的文件结构二、文件内容1.index.html该文件为聊天室登录页面,通过在该页面输入的昵称,用以在聊天页面展示html>html lang="en">head> meta charset="UTF-8"> title>登录首页title> link rel="stylesheet" href="/static/libs/bootst
2018-01-02 09:35:25
4713
2
原创 Tornado——异步操作(前端ajax和后端同步/异步操作)
异步编程:异步编程处理方式,主要用于数据业务的底层非同步操作,有两种操作手段,Ajax和后端服务器的异步模块。1.AjaxAjax的异步操作:通过前端直接发送Ajax请求到目标服务器(以获取天气信息为例,发送请求到气象局),获取数据并更新前端页面,此操作不需要经过后端。获取到数据后通过DOM操作渲染页面。html>html lang="en">head> meta ch
2017-12-28 12:33:37
3182
原创 Django项目在linux系统中虚拟环境部署
1.在linux系统下,安装virtualenv命令:pip install virtualenv2.项目部署前的准备1. Django web project deployment1.1. 项目准备准备打包好项目组开发的web项目,通过FTP上传到指定的linux/unix服务器案例项目:mysite/1.2. 生产环境准备Django生产环境服务
2017-12-21 19:10:31
4840
原创 web开发——3.数据模型概念
1-1 主要内容 数据库相关回顾数据类型的概念数据类型的定义数据类型的查询【单表查询】1-2 课程内容1. 复习回顾1.1. 概念整理回顾a. Django有什么样的开发优势?Django以其高效的开发效率著称,作为实现了MVT处理模式的web框架,内建封装好的数据模型的ORM高效操作、强大的模板支持、高性能的缓存处理、完善的管理后台以及
2017-11-29 20:40:42
1510
原创 web开发——2.Django快速入门
python web开发——Django快速入门1-1 课程内容l 复习回顾l Django框架的优势n MVC处理模式n MVT处理模式l Django项目快速入门——Hello Worldn Django项目的搭建n Django项目结构以及第一个视图的开发n Django项目子应用模块以及应用模块第一个视图的开发l Django文件结构、项目结构l
2017-11-28 21:33:50
747
原创 web开发——1.概述
python web开发1-1 预期目标l 技能:学习[Django] [Tornado] [Flask]web开发框架l 经验:熟悉[门户网站\在线电商\管理平台、项目开发]开发流程和处理过程l 总结:掌握[学习过的所有知识点的]主线!l 检测一个技能学会与否的关键n 3W1Hu what?u where?u why?u how?1-2 开发基
2017-11-28 21:27:17
400
转载 Web前端——3.JavaScript对象
JavaScript一种直译式脚本语言,是一种动态类型、弱类型、基于原型的语言,内置支持类型。它的解释器被称为JavaScript引擎,为浏览器的一部分,广泛用于客户端的脚本语言,ECMAScript,描述了该语言的语法和基本对象。 文档对象模型(DOM),描述处理网页内容的方法和接口。浏览器对象模型(BOM),描述与浏览器进行交互的方法和接口。常用于:1.表单验证2.HTML特效
2017-11-20 21:28:54
675
原创 Web前端——2.css选择器
css样式大全 参考网站:http://www.w3school.com.cn/cssref/index.asp 1.字体样式①font:修饰字体的快捷样式font:字体 大小; (大小要写像素)font—family: 字体;font—size:**px; 表示多大字号font-family:
2017-11-20 13:42:04
222
原创 Web前端——1.HTML标签
一、常用标签HTML(Hypertext Markup Language),超文本标记语言。超级文本标记语言是万维网(Web)编程的基础,也就是说万维网是建立在超文本基础之上的。超级文本标记语言之所以称为超文本标记语言,是因为文本中包含了所谓“超级链接”点。常用标签:doctype: 网页文档声明网页注释
2017-11-14 16:43:02
590
原创 Python高级编程——14.网络编程
Python高级--网络编程(socket)一、⽹络通信概述1.What-什么是⽹络网络是由节点和连线构成,表示诸多对象及其相互联系。在计算机世界里,⽹络就是⼀种辅助双⽅或者多⽅能够连接在⼀起的⼯具。2.Why-为什么使用网络就是为了联通多⽅然后进⾏通信⽤的,即把数据从⼀⽅传递给另外⼀⽅前⾯的学习编写的程序都是单机的,即不能和其他电脑上的程序进⾏通信为了让在不同的电
2017-11-10 21:24:18
1254
转载 Python高级编程——15.新式类和经典类的区别
1.新式类对象可以直接通过__class__属性获取自身类型:type2. 继承搜索的顺序发生了改变,经典类多继承属性搜索顺序: 先深入继承树左侧,再返回,开始找右侧;新式类多继承属性搜索顺序: 先水平搜索,然后再向上移动3. 新式类增加了__slots__内置属性, 可以把实例属性的种类锁定到__slots__规定的范围之中。通常每一个实例都会有一个__dict__属
2017-11-09 18:53:21
178
原创 Python高级编程——13.垃圾回收机制
垃圾回收(了解)1.1 小整数对象池整数在程序中的使用非常广泛,Python为了优化速度,使用了小整数对象池, 避免为整数频繁申请和销毁内存空间。Python 对小整数的定义是 [-5, 257) 这些整数对象是提前建立好的,不会被垃圾回收。在一个 Python 的程序中,所有位于这个范围内的整数使用的都是同一个对象.同理,单个字母也是这样的。但是当定义2个相同的字符串时,引用
2017-11-08 22:01:47
456
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人