
python
文章平均质量分 85
huang714
不断的学习,充实自己。
展开
-
Python黑帽 获取注册表、U盘历史痕迹和回收站文件
最近开始学习网络安全和系统安全,接触到了很多新术语、新方法和新工具,作为一名初学者,感觉安全领域涉及的知识好广、好杂,但同时也非常有意思。这系列文章是作者学习安全过程中的总结和探索,我们一起去躺过那些坑、跨过那些洞、守住那些站,真心希望文章对您有所帮助,感谢您的阅读和关注。Python黑帽第一篇文章将分享获取Windows主机信息,利用注册表获取主机名及USB历史痕迹、回收站文件等,这些知识广泛应用于电子取证、Web渗透和攻击溯源领域,其中USB获取是亮点。希望这篇基础文章对您有所帮助,更希望大家提高安转载 2020-09-29 08:46:57 · 1196 阅读 · 0 评论 -
python编程操作系统篇知识点详细梳理
python编程操作系统篇知识点详细梳理进程的概念:(Process)进程就是正在运行的程序,它是操作系统中资源分配的最小单位。 资源分配:操作系统分配的CPU时间片、内存、磁盘空间端口等等资源。 进程号(process identification)是操作系统分配给进程的唯一标识号,用户每打开一个进程操作系统都会为其创建PID。UID:用户id; PID:进程id; PPID:父进程id。 在存储空间中未被执行的叫程序,被执行的叫进程(进行中的程序)。 同一个程序执行两次之后是两个进程。原创 2021-01-11 14:20:37 · 824 阅读 · 1 评论 -
Python 获取注册表、U盘历史痕迹和回收站文件
一.获取Windows主机信息WMI(Windows Management Instrumentation) 是一项核心的Windows管理技术,WMI模块可用于获取Windows内部信息。WMI作为一种规范和基础结构,通过它可以访问、配置、管理和监视几乎所有的Windows资源,比如用户可以在远程计算机器上启动一个进程;设定一个在特定日期和时间运行的进程;远程启动计算机;获得本地或远程计算机的已安装程序列表;查询本地或远程计算机的Windows事件日志等等。本文使用Python获取Windows系原创 2020-09-17 09:15:07 · 1987 阅读 · 0 评论 -
批量将DICOM文件转换为JPG图像(多进程、高效率)
# coding : utf-8# DICOM文件读取及JPG格式图片展示# @Author : Labyrinthine Leo# @Time : 2020.06.16"""import pydicomimport matplotlib.pyplot as pltimport numpy as npimport osimport multiprocessingimport threadingimport timedef extractDicomFileInfo(file.原创 2020-08-18 09:21:04 · 4041 阅读 · 0 评论 -
python 下载pubmed数据
import requestsimport jsonsearch_url = "https://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi?db=pubmed&mindate=1800/01/01&maxdate=2016/12/31&usehistory=y&retmode=json"search_r = requests.post(search_url)search_data = search_r.jso原创 2020-08-03 14:24:36 · 1138 阅读 · 0 评论 -
Python pandas库 常用方法使用
Pandas库专为数据分析而设计,它是使Python成为强大而高效的数据分析环境的重要因素。一、Pandas数据结构1、import pandas as pdimport numpy as npimport matplotlib.pyplot as plt2、S1=pd.Series([‘a’,’b’,’c’]) series是一组数据与一组索引(行索引)组成的数据结构3、S1=pd.Series([‘a’,’b’,’c’],index=(1,3,4)) 指定索引4、S1=pd.原创 2020-07-10 09:50:43 · 3631 阅读 · 1 评论 -
Python 字符串
字符串是 Python 中最常用的数据类型。我们可以使用引号('或")来创建字符串。注意 Python 中没有像 C++ 表示的字符类型(char),所有的字符或串都被统一为 str 对象。如单个字符 c 的类型也为 str。创建字符串很简单,只要为变量分配一个值即可。例如:var1 = 'Hello World!'var2 = "Python Runoob"一、字符串格式化Python 支持格式化字符串的输出 ,尽管这样可能会用到非常复杂的表达式。1、使用字符串格式符 %s 插原创 2020-07-07 09:17:59 · 245 阅读 · 0 评论 -
Python自动化操作Excel表格
一、Python打开及读取Excel表格内容二、Python向Excel表格中写三、批量调整字体、样式四、编程生成Excel内图表一、Python打开及读取Excel表格内容#打开以及读取Excel表格内容#列:column 行:row 格子:cell 表:sheet#Excel中从1开始计数from openpyxl import load_workbookworkbook = load_workbook(filename='aaa.xlsx')#只能打开存在表格pri..原创 2020-07-02 09:27:07 · 1092 阅读 · 1 评论 -
pip简单命令
1. 国内源清华大学:https://pypi.tuna.tsinghua.edu.cn/simplehttps://mirrors.tuna.tsinghua.edu.cn/simple阿里云:https://mirrors.aliyun.com/pypi/simple豆瓣:https://pypi.douban.com/simple中国科学技术大学:https://pypi.mirrors.ustc.edu.cn/simple2.使用方法p...原创 2020-07-02 09:25:39 · 193 阅读 · 0 评论 -
RF工具ride使用
目录一,环境的搭建二,最基本流程三,Ride各个面板说明四,Robotframework库的介绍五,用例编写及执行一,环境的搭建https://www.cnblogs.com/yufeihlf/p/5949984.html关于robotframework环境搭建请参考笔者的另外一篇博文:Robot Framework的环境搭建二,最基本流程点击返回目录2.1创建项目New ProjectFile->New Project注:...原创 2020-07-21 09:04:46 · 2720 阅读 · 0 评论 -
python 部分代码2
class List: def __init__(self, lst=None): if lst is None: self.lst = [] else: self.lst = lstdef length(l): return len(l.lst)def isempty(l): if len(l.lst)==0: return True else: .原创 2020-06-12 09:26:42 · 474 阅读 · 0 评论 -
Python压缩解压缩zip文件及破解zip文件密码的方法
这篇文章主要介绍了Python压缩解压缩zip文件及尝试破解zip文件密码的方法,给出了一个使用zipfile模块的简单示例,需要的朋友可以参考下python 的 zipfile 提供了非常便捷的方法来压缩和解压 zip 文件。例如,在py脚本所在目录中,有如下文件:readability/readability.jsreadability/readability.txtreadability/readability-print.cssreadability/sprite-readabi原创 2020-06-22 12:09:24 · 2744 阅读 · 0 评论 -
Python Flask微信小程序登录流程及登录api实现代码
1、小程序端调用wx.login2、判断用户是否授权3、小程序端访问 wx.getUserInfo4、小程序端js代码:+wx.login({ success: resp => { // 发送 res.code 到后台换取 openId, sessionKey, unionId console.log(resp); var that = this; // 获取用户信息 wx.getSetting({ success: res => { if (res.au.原创 2020-06-09 14:42:35 · 2172 阅读 · 0 评论 -
分享一个实用脚本--多进程检测ping服务器
概述今天主要分享一个多进程检测ping的脚本,并取值,这里默认开启4个进程,需要将hosts.txt IP列表文件放入同一目录下,IP列表每行一个,支持域名、IP,下面一起来看看吧~实用脚本脚本内容:#!/usr/bin/python #coding:utf-8import multiprocessingimport re import sys,osimport com...原创 2020-04-26 09:53:26 · 359 阅读 · 0 评论 -
Flask框架实现的前端RSA加密与后端Python解密功能详解
Flask框架实现的前端RSA加密与后端Python解密功能详解前言在使用 Flask 开发用户登录API的时候,我之前都是明文传输 username 和 password。这种传输方式有一定的安全隐患,password 可能会在传输过程中被窃听而造成用户密码的泄漏。那么我认为解决该问题的方法是这样的:在前端页面对数据进行加密,然后再发送到后端进行处理。这一篇文章是前端用 RSA ...原创 2020-04-26 09:49:08 · 1192 阅读 · 0 评论 -
Django简介、ORM、核心模块
Django简介 Django是一种开源的大而且全的Web应用框架,是由python语言来编写的。他采用了MVC模式,什么是MVC?大家不要着急,MVC这么好的东西我在下面会精细的讲一下!Django最初是被开发来用于管理劳伦斯出版集团下的一些以新闻为主内容的网站。一款CMS(内容管理系统)软件。并于 2005 年 7 月在 BSD 许可证下发布。这套框架是以比利时的吉普赛爵士吉他手 D...原创 2020-04-26 09:45:11 · 1006 阅读 · 0 评论 -
python 共享文件夹 cmd命令
第一步:cd 进入文件中如==>D:\\demo>python -m http.server第二步:在网站输入:127.0.0.1:8080 就可以看见共享文件了。结束共享命令:Ctrl+C原创 2020-04-26 09:16:19 · 533 阅读 · 0 评论 -
利用Opencv+Python 实现二维码识别
准备工作:二维码图片,我这里直接打印在了一张A4纸上,或者直接在草料网站上生成 草料二维码生成器,存放在手机上进行显示。在安装条码扫描库的时候大家注意:zbar库只针对 python2 版本有支持,python3已经不再支持。课程中使用的是python3,所以我们只能安装 pyzbar,安装命令如下:pip3 install pyzbar实现目标利用摄像头识别二维码中的内容并打印出来,...原创 2020-04-20 13:29:23 · 5413 阅读 · 2 评论 -
OPENCV+PYTHON 文字识别(重点图像透视变换)
# Author:Winter Liu is coming!import cv2 as cvimport numpy as npimport pytesseract# 预处理,高斯滤波(用处不大),4次开操作# 过滤轮廓唯一def contour_demo(img): gray = cv.cvtColor(img, cv.COLOR_BGR2GRAY) gray =...原创 2020-04-20 13:26:41 · 1175 阅读 · 0 评论 -
Opencv+Python+USB摄像头 人脸识别
准备工作:USB摄像头接入PC电脑USB口,并调试正常打开视频;这里Linux上推荐一款视频软件来测试Guvcview,或者其他检测USB摄像头正常的软件都可以。1、下载模型文件:XML模型库:https://github.com/opencv/opencv/tree/master/data/haarcascades1).找到haarcascade_frontalface_def...原创 2020-04-20 13:30:35 · 2203 阅读 · 0 评论 -
Python读写docx文件
Python读写docx文件Python读写word文档有现成的库可以处理pip install python-docx安装一下。https://python-docx.readthedocs.io/en/latest/学习官网: http://python-docx.readthedocs.org/en/latest/importdocx#新建,打开,保存文件。i...原创 2021-09-22 09:54:52 · 612 阅读 · 0 评论 -
Python开源项目合集(网页框架)
DjangoDjango - Django。项目地址:https://www.djangoproject.com/Channels - Channels旨在增强Django的异步能力,同时让Django不仅仅局限于Request-Response模型,能够支持WebSocket、HTTP2推送和背景任务。项目地址:https://github.com/andrewgodwin/ch...原创 2020-04-03 11:51:45 · 2062 阅读 · 0 评论 -
python pip及安装包安装
python 微信聊天D:\untitled\hello.py 入口 web禁止登陆。。安装命令:手动安装:D:\python\setuptools-41.2.0>python setup.py install下载下来手动安装pipD:\python\pip-1.4.1\pip-1.4.1>python setup.py installD:\python\setupt...原创 2020-03-13 08:13:30 · 358 阅读 · 0 评论 -
Python环境搭建
第一章 Python环境搭建一.Anaconda是什么Anaconda是Python的包管理器和环境管理器。二、安装了Anaconda还需要单独安装Python吗不需要,原因有以下几点: 1) Anaconda 提供了一个编译好的环境可以直接安装。 2) Anaconda 附带了一大批常用数据科学包,它附带了conda、Python 和150 多个科学包...原创 2020-03-12 14:35:32 · 947 阅读 · 0 评论 -
2018超详细sublime text3+python3.x安装配置教程(附常用插件安装教程)
本文是关于2018年7月最新版sublime text3+pythin3.x下载及安装配置教程,sublime text3版本为3176,python版本为3.7,安装环境是基于windows10。主要内容为sublime text3的下载,安装,配置基本插件和python3的下载,安装及配置。sublime text3的下载及配置安装下载直接搜索sublime test 3,找到subl...原创 2020-03-02 11:41:14 · 10600 阅读 · 0 评论 -
python爬虫实战
用Python开发爬虫是一件很轻松愉悦的事情,因为其相关库较多,而且使用方便,短短十几行代码就可以完成一个爬虫的开发;但是,在应对具有反爬措施的网站,使用js动态加载的网站,App采集的时候就得动动脑子了;并且在开发分布式爬虫,高性能爬虫的时候更得用心设计。Python开发爬虫常用的工具总结reqeusts:Python HTTP网络请求库; pyquery: Python HTML ...原创 2020-02-26 12:13:28 · 599 阅读 · 0 评论 -
Python连接读取SQLServer导入Excel
#!/usr/bin/env python# -*- coding: UTF-8 -*-import datetimeimport sysimport osfrom sqlalchemy import create_engineimport pandas as pdimport urllibimport getoptimport reimport loggingloggi...原创 2020-01-02 09:42:57 · 1084 阅读 · 0 评论 -
Python3学习之路~异常处理
1.异常基础在编程过程中为了增加友好性,在程序出现bug时一般不会将错误信息显示给用户,而是现实一个提示的页面,通俗来说就是不让用户看见大黄页!!! try: pass except Exception as e: pass 注意:Python3.x中Exception和e之间用 as ,Python2.7中Exception和e之间用 as ...原创 2019-12-23 09:38:00 · 259 阅读 · 0 评论 -
python3解析库BeautifulSoup4
阅读目录1、Beautiful Soup4的安装配置 2、BeautifulSoup的基本用法 (1)节点选择器(tag) (2)方法选择器 (3)CSS选择器 (4)tag修改方法Beautiful Soup是python的一个HTML或XML的解析库,我们可以用它来方便的从网页中提取数据,它拥有强大的API和多样的解析方式。Beautiful Soup的三个特点:Bea...原创 2019-07-26 09:04:11 · 721 阅读 · 0 评论 -
爬虫基础---Urllib详解
前言 爬虫也了解了一段时间了希望在半个月的时间内结束它的学习,开启python的新大陆,今天大致总结一下爬虫基础相关的类库---Urllib。Urllib官方文档地址:https://docs.python.org/3/library/urllib.htmlurllib提供了一系列用于操作URL的功能。Python3中将python2.7的urllib和urllib2两个包...原创 2019-07-26 08:56:59 · 586 阅读 · 0 评论 -
Python3的日志添加功能
python日志添加功能,主要记录程序运行中的日志,统一收集并分析一、日志的级别debug(调试信息) info() warning(警告信息)error(错误信息) critical(致命信息) 从左往右越来越严重日志等级(level) 描述 DEBUG 最详细的日志信息,典型应用场景是 问题诊断 INFO 信息详细程度仅次于DEBUG,通常只记录关键节...原创 2019-08-03 16:34:04 · 683 阅读 · 0 评论 -
python日志对象
importloggingclassLog:def__init__(self,filename,level="INFO"):print("start")self.filename=filenameself.level=levelself.logger=logging.getLogger()#得...原创 2019-08-03 16:29:12 · 301 阅读 · 0 评论 -
PYTHON网络爬虫抓取动态网页并将数据存入数据库MYSQL
实现思路:抓取实际访问的动态页面的url–使用正则表达式获取需要的内容–解析内容–存储内容以上部分过程文字解释:抓取实际访问的动态页面的url: 正则表达式:正则表达式的使用有两种思路,可以参考个人有关其简述:python实现简单爬虫以及正则表达式简述更多的细节介绍可以参考网上资料,搜索关键词: 正则表达式 pythonjson:参考网上有关jso...原创 2019-08-03 16:22:05 · 2437 阅读 · 0 评论 -
Python爬虫:BeautifulSoup的find()和findAll()
BeautifulSoup的find()和findAll()这两个函数在某些方面十分的相似,我们可以使用它们过滤HTML页面,并查找需要的标签组和单个的标签。这两个函数非常的相似:findAll(tag,attributes,recursive,text,limit,keywords)find(tag,attributes,recursive,text,keyw...原创 2019-07-29 11:31:29 · 1775 阅读 · 0 评论 -
Python3.7.0 安装beautifulsoup4 4.6.3
Python3.7.0 安装beautifulsoup4 4.6.3打开cmd,然后在cmd中输入命令“pip install beautilfulsoup4”发现pip有新版本,按提示更新pip。(pip在文章后有解释)然后在cmd中输入命令“pip install beautilfulsoup4”还是没匹配到bs4去python官网搜bs4的安装包,(python的官...原创 2019-07-26 09:47:01 · 2964 阅读 · 1 评论 -
Python日志库logging总结
在部署项目时,不可能直接将所有的信息都输出到控制台中,我们可以将这些信息记录到日志文件中,这样不仅方便我们查看程序运行时的情况,也可以在项目出现故障时根据运行时产生的日志快速定位问题出现的位置。1、日志级别Python 标准库 logging 用作记录日志,默认分为六种日志级别(括号为级别对应的数值),NOTSET(0)、DEBUG(10)、INFO(20)、WARNING(30)、ERR...原创 2019-08-04 00:48:21 · 190 阅读 · 0 评论 -
Python bs4的使用
概述 bs4 全名 BeautifulSoup,是编写 python 爬虫常用库之一,主要用来解析 html 标签。一、初始化from bs4 import BeautifulSoupsoup = BeautifulSoup("<html>A Html Text</html>", "html.parser") 两个参数:第一个参数是要解析的html...原创 2019-08-01 10:59:27 · 659 阅读 · 0 评论 -
Python爬虫获取图片并下载保存至本地
import urllib.requestimport os#to open the urldef url_open(url):req=urllib.request.Request(url)req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.3; WOW64; rv:51.0) Gecko/20100101 Fire...原创 2019-08-12 11:10:05 · 1706 阅读 · 0 评论 -
python爬虫抓取网站图片并保存
import urllib2 from bs4 import BeautifulSoup import socket baseurl = "http://dbmeizi.com/" #伪装浏览器,以免被封 def user_agent(url): req_header = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; ...原创 2019-08-12 11:21:57 · 1011 阅读 · 0 评论 -
demo爬虫
#!/usr/bin/python#指明编码# -*- coding: UTF-8 -*-#导入python库import urllibimport urllib2import reimport MySQLdbimport json#定义爬虫类class crawl1: def getHtml(self,url=None): #代理 ...原创 2019-09-10 13:46:51 · 212 阅读 · 0 评论