
Python网络安全
Python网络安全
j0101_
这个作者很懒,什么都没留下…
展开
-
使用threading多线程模块的demo
使用threading多线程模块的demo#!/usr/bin/env python# -*- coding: utf-8 -*-import threadingimport time# 写一个fun方法,传入key参数,目的是让多线程同时执行fun方法def fun(key): print('Hello! %s \n%s\n' % (key, time.ctime()))def main(): #创建一个线程的空列表 threads = [] #创建原创 2021-02-26 16:11:13 · 105 阅读 · 0 评论 -
使用_thread多线程模块ping主机代码
使用_thread多线程模块ping主机代码#!/usr/bin/env python# -*- coding: utf-8 -*-import _threadimport subprocessimport timedef ping_check(ip): check = subprocess.getoutput('ping' + ' ' + ip) if 'TTL' in check: print('%s is UP' % ip)# 192.168.103原创 2021-02-26 15:45:44 · 127 阅读 · 0 评论 -
批量检测开放了6379端口(Redis服务)的主机,是否存在未授权访问漏洞
使用threading多线程模块的demo1.先使用上一篇博客的脚本执行结果,保存为ip.txt,文件中存入了调用ZoomEye的官方api搜索的开放了6379端口的ip地址。(6379为默认的Redis服务)https://blog.youkuaiyun.com/jexsen/article/details/1152479122.执行本脚本,有三种检测方式:第一种方式为加载ip.txt文本批量检测是否存在Redis未授权访问漏洞。第二种方式为检测单个ip是否在Redis未授权访问漏洞。第三种方式为检测一个原创 2021-03-26 17:46:13 · 1615 阅读 · 3 评论 -
使用ZoomEye官方api来检索开放了6379端口(Redis)保存到列表
使用ZoomEye官方api来检索开放了6379端口(Redis)保存到列表连接ZoomEye官方api拿到key,作为发送请求的请求头header,拼接url发送查询请求,整理返回结果到列表#!/usr/bin/env python# -*- coding: utf-8 -*-import _threadimport subprocessimport timedef ping_check(ip): check = subprocess.getoutput('ping' + ' '原创 2021-03-26 15:47:13 · 493 阅读 · 1 评论 -
使用ping方法,依据TTL值,探测对方主机操作系统
使用ping方法,依据TTL值,探测对方主机操作系统由于Windows系统和Linux操作系统的TCP/IP实现方式不相同,导致两种系统对特定格式的数据包会有不同的响应结果。通常情况下,Windows系统的TTL起始值为128,Linux系统的TTL起始值为64,且每经过一跳路由,TTL值减1#!/usr/bin/env python# -*- coding: utf-8 -*-from optparse import OptionParserimport osdef ttl_scan(原创 2021-03-26 11:51:19 · 1209 阅读 · 5 评论 -
扫描指定ip的指定端口,识别开放的端口所对应的服务
扫描指定ip的指定端口,识别开放的端口所对应的服务#!/usr/bin/env python# -*- coding: utf-8 -*-from optparse import OptionParserimport timeimport socketimport osimport reSIGNS = ( # 协议 | 版本 | 关键字 b'FTP|FTP|^220.*FTP', b'MySQL|MySQL|mysql_native_password',原创 2021-03-26 11:17:46 · 1510 阅读 · 0 评论 -
使用socket模块,多线程扫描指定ip的端口开放情况
使用socket模块,多线程扫描指定ip的端口开放情况#!/usr/bin/env python# -*- coding: utf-8 -*-import sysimport socketimport optparseimport threadingimport queue# 端口扫描类,继承threading.Threadclass PortScaner(threading.Thread): # 需要传入 端口队列 目标IP 探测超时时间 def __init__原创 2021-03-26 11:04:00 · 296 阅读 · 3 评论 -
使用pynput模块监听用户键盘输入,保存至txt
使用pynput模块监听用户键盘输入,保存至txt# -*- coding: utf-8 -*-ahello worldimport sys, osfrom pynput.keyboard import Controller, Key, Listenerfrom pynput import keyboardimport time# from tkinter import *# 开始时间start = time.time()# 结束时间end = time.time()fun_st原创 2021-03-22 16:55:20 · 483 阅读 · 0 评论 -
网站子域名扫描程序,采用三种扫描方式(crt网站查询、站长网站查询、字典暴力破解)
网站子域名扫描程序,采用三种扫描方式(crt网站查询、站长网站查询、字典暴力破解)总体文件结构:1个主文件common.py,1个全局配置文件config.py,1个随机取user_agent头文件user_agent_list.py,暴力破解方式文件:brute_check.py,brute.py,domain_dic.txt(暴力破解的字典)crt网站(https://crt.sh/)查询子域名文件:crt_check.py,crt.py站长网站(http://tool.chinaz.co原创 2021-03-15 14:51:30 · 2399 阅读 · 0 评论 -
探测内网c段、外网某网站(ip)的网络服务存活状态
探测内网c段、外网某网站(ip)的网络服务存活状态1.可cmd先ping外网一个网站,如www.njupco.com,获得ip为222.190.122.196,之后加载外部网络服务的字典,拼接成一个url,如http://222.190.122.196:80/phpmyadmin,来发送网络请求,探测这个网络服务是否是存在的,如果返回200状态码则表示存在,将其记录至result.html,可以点击访问。2.可以使用IPy模块来产生整个内网c段、b段的ip列表,加载进脚本里,通过队列queue来get出原创 2021-03-10 10:50:45 · 1150 阅读 · 0 评论 -
IPy模块测试demo,打印C段ip列表
IPy模块测试demo,打印C段ip列表#!/usr/bin/env python# -*- coding: utf-8 -*-from IPy import IPips=IP('127.0.0.0/24')for ip in ips: print(ip)执行结果:原创 2021-03-09 19:35:54 · 206 阅读 · 0 评论 -
加载字典文件,扫描网站潜在目录
加载字典文件,扫描网站潜在目录#!/usr/bin/env python# -*- coding: utf-8 -*-# 目录扫描,敏感文件扫描# 字典很重要是扫描器的基石# 取出字典内容,和目标网站url进行拼接,发送网络请求进行识别# 使用Figlet工具转换字符做脚本LOGO http://www.network-science.de/ascii/# 使用optparse参数说明模块 https://docs.python.org/2/library/optparse.原创 2021-03-09 17:00:36 · 658 阅读 · 2 评论 -
使用exrex第三方模块,制作私人订制的高精度密码字典,保存至txt
使用exrex第三方模块,制作私人订制的高精度密码字典,保存至txt使用了exrex第三方模块(产生自定义字典)。使用了sys.argv功能,在cmd下执行py脚本 手工传入需要定制的网站域名,如http://study.google.com使用了,自己创建的rule.ini配置文件,后期制作字典,只需要更改配置文件的配置规则即可。可以自定义生成密码的位数,如大于等于8位,保存至本地txt。#!/usr/bin/env python# -*- coding: utf-8 -*-import原创 2021-03-05 18:12:54 · 916 阅读 · 0 评论 -
爬虫爬取免费代理ip,验证代理ip有效性,保存到本地txt,建立代理池
爬虫爬取免费代理ip,验证代理ip有效性,保存到本地txt,建立代理池使用多线程+队列+正则匹配,对免费代理ip网站和查询自身ip网站(验证代理ip是否有效)发送请求,如果代理ip为有效,保存至本地txt文件中,建立自己的私人有效代理ip池。源码:#!/usr/bin/env python# -*- coding: utf-8 -*-import requestsimport threadingfrom queue import Queueimport refrom bs4 import原创 2021-03-04 11:25:04 · 1861 阅读 · 3 评论 -
依据BaiduHack多线程爬取攻击点url和网站url,保存至txt
依据BaiduHack多线程爬取攻击点url和网站url,保存至txt使用了多线程,队列,元组去重,正则匹配,bs4,sys.arg手工传入参数等技术#!/usr/bin/env python# -*- coding: utf-8 -*-import requestsimport sysfrom queue import Queueimport threadingfrom bs4 import BeautifulSoup as bsimport re# 百度查询语句 inurl:ne原创 2021-03-02 16:17:19 · 273 阅读 · 0 评论 -
sys.argv学习,通过运行py脚本,手动传入参数
sys.argv学习,通过运行py脚本,手动传入参数#!/usr/bin/env python# -*- coding: utf-8 -*-import requestsimport sysdef main(keyword): print(keyword)if __name__ == '__main__': if len(sys.argv) != 2: print('Please Enter==>:%s keyword' % sys.argv[0]原创 2021-03-02 15:01:13 · 212 阅读 · 0 评论 -
使用urllib,re,queue,threading,bs4,requests多线程队列爬取图片到本地保存
使用urllib,re,queue,threading,bs4,requests多线程队列爬取图片到本地保存#!/usr/bin/env python# -*- coding: utf-8 -*-from urllib import requestfrom bs4 import BeautifulSoup as bsimport threadingfrom queue import Queueimport requestsimport reimport osimport socket原创 2021-03-02 14:50:16 · 148 阅读 · 0 评论 -
使用bs4+re正则来爬取网页上需要的数据
使用bs4+re正则来爬取网页上需要的数据#!/usr/bin/env python# -*- coding: utf-8 -*-import refrom bs4 import BeautifulSoup as bsimport requestsheaders = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.原创 2021-03-02 10:49:40 · 774 阅读 · 0 评论 -
使用re正则匹配网络请求到的正文内容,筛选出jpg图片链接
使用re正则匹配网络请求到的正文内容,筛选出jpg图片链接#!/usr/bin/env python# -*- coding: utf-8 -*-import requestsimport reurl = 'https://www.ivsky.com/tupian/huaduo_t1182/'headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, l原创 2021-03-01 16:48:45 · 285 阅读 · 1 评论 -
使用threading+queue队列,发送get请求,输出状态码
使用threading+queue队列,发送get请求,输出状态码#!/usr/bin/env python# -*- coding: utf-8 -*-import requestsimport threadingfrom queue import Queueclass JianDan(threading.Thread): # 类的构造方法,构造类对象时传入queue def __init__(self, queue): # 将主体self传入线程的构造方原创 2021-03-01 16:20:58 · 206 阅读 · 3 评论 -
使用threading多线程访问baidu,输出状态码及访问时间
使用threading多线程访问baidu,输出状态码及访问时间#!/usr/bin/env python# -*- coding: utf-8 -*-import threadingimport timeimport requestsdef baidu(): # 获取发送请求前的当前时间 time_start = time.time() # 使用requests模块,向百度发送get请求 r = requests.get(url='http://www.b原创 2021-02-26 16:27:31 · 265 阅读 · 0 评论