
脚本
文章平均质量分 88
Mi1k7ea
Mi1k7ea
展开
-
主动信息收集之主机发现的一些脚本
下面是关于主机发现的一些脚本,包括bash和Python的,在对一个网段进行扫描时是很方便的,注意一点的就是在运行之前先要赋予相应的权限~arp1.sh:#!/bin/bashif ["$#" -ne 1]then echo "Usage : ./arping1.sh [Interface]" exitfiinterface=$1prefix=$(ifconfig原创 2017-03-19 16:03:33 · 2814 阅读 · 1 评论 -
机器学习应用之WebShell检测
本文主要参考自兜哥的《Web安全之机器学习入门》前段时间在研究WebShell的检测查杀,然后看到兜哥的著作中提到的几个机器学习算法中也有实现WebShell检测的,主要有朴素贝叶斯分类、K邻近算法、图算法、循环神经网络算法等等,就一一试试看效果吧。Python中的几个机器学习的库1、numpy:安装:pip install --user numpy2、SciPy:原创 2017-12-09 11:51:22 · 6726 阅读 · 1 评论 -
Python安全小工具之日志分析识别AWVS扫描
本篇文章主要先从客户端和服务端分析AWVS扫描的特征,然后再稍微修改一下Apache的access.log的日志格式、使之可以显示POST请求行内容,最后编写分析识别AWVS扫描的脚本。AWVS工具的扫描分析:Acunetix Web Vulnerability Scanner(简称AWVS)是一款知名的Web网络漏洞扫描工具,它通过网络爬虫测试你的网站安全,检测流行安全漏洞。原创 2017-12-04 09:30:02 · 4749 阅读 · 0 评论 -
Python安全小工具之Linux日志痕迹清除
主要过程为定义一个log列表,含有Linux中常见的log文件,然后使用os库的path.exists()方法查看是否存在该文件,若存在则使用subprocess库调用sed命令来删除日志中与指定host相关的行以实现痕迹的清除。先来看看Linux中sed命令的使用:其中‘/127.0.0.1/d’中,d是指定进行删除操作,删除的内容为含有“127.0.0.1”的行,而sed命令的原创 2017-11-04 20:57:38 · 2017 阅读 · 0 评论 -
Python安全小工具之Web目录扫描器
本次的程序实质是Web目录的暴力破解,即基本过程为取出字典内容、和目标网站进行组合、然后进行请求识别,能否扫描出相应的Web目录主要看字典的强大与否。至于字典,网上也很多资源,收集一下即可。这里为了方便,将收集的UA自己保存成一个文件方便其他脚本直接调用。user_agent_list.py:#!/usr/bin/python#coding=utf-8import random原创 2017-11-04 15:14:42 · 6710 阅读 · 0 评论 -
Python安全小工具之计算文件Hash值
这个很简单了,直接调用在Python中默认已有的hashlib库即可。对于下载下来的文件,可通过该脚本查看Hash值是否和官网上的一样,不一样的话就被动过手脚了 :-)代码:#coding=utf-8import hashlibimport sysif len(sys.argv) == 3: try: if(sys.argv[2].lower() == 'md5'):原创 2017-09-16 15:28:39 · 3021 阅读 · 0 评论 -
Python安全小工具之生成高精度字典
这个脚本是对相应的URL生成相应的密码字典文件,主要是通过规则进行匹配生成,大致思路为输入一个Web站点的URL,然后根据白名单过滤提取出该URL的中间部分,然后结合密码字典文件和时间等内容进行组合来生成字典。这里主要使用到exrex模块具体的说明可以看https://github.com/asciimoo/exrex安装:pip install exrex这里主要使用该模原创 2017-09-16 15:18:40 · 2421 阅读 · 0 评论 -
关于《Python绝技:运用Python成为顶级黑客》的学习笔记
本篇文章主要把《Python绝技:运用Python成为顶级黑客》中的代码敲一遍,学学Python安全相关的编程与思路,然后根据具体的情况修改一下代码。 第一章——入门1、准备开发环境安装第三方库:安装Python-nmap包: wget http://xael.org/norman/python/python-nmap/pythonnmap-0.2.4.tar.gz-O...原创 2017-06-10 17:29:34 · 45075 阅读 · 26 评论 -
Python爬虫之基础篇
关于Python的基本语法就不多说了,这里直接从各个小的程序开始,本文会不断地进行更新,一步步来走进Python~同时也希望各位可以给点好的建议哈~一、在Kali Linux中安装sublime text 3:先下载sublime text 3,然后到下载的目录中执行以下命令即可:dpkg -i ./sublime-text_build-3126_amd64.deb二、Socket模块:在导入so...原创 2017-04-04 17:40:36 · 7436 阅读 · 2 评论 -
基于Django搭建简单的博客系统
Django是基于Python的高级Web开发框架。本篇文章进行的是简单的功能的实现,后续会进行安全工具相应的开发。安装:pip install Django==1.11.4或直接到Github下载源代码安装确认是否安装:python –m Django –version创建新项目:django-admin startproject djangotest原创 2017-11-11 13:01:52 · 2780 阅读 · 0 评论 -
主动信息收集之端口扫描的一些脚本
最近开始一步步地学习Python,后面将会把各种Python的学习笔记再整合一下,现在先补上上次端口扫描的脚本,因为原理几乎都是利用scapy的一句话所以重复的地方这里就不多说了,有注意点就再说~udp_scan.py:#!/usr/bin/pythonimport logginglogging.getLogger("scapy.runtime").setLevel(loggi原创 2017-03-26 11:51:44 · 2214 阅读 · 0 评论 -
关于《Python黑帽子:黑客与渗透测试编程之道》的学习笔记
本篇文章是学习《Python黑帽子:黑客与渗透测试编程之道》的笔记,会持续地将书上的代码自己敲一遍,从而让自己对Python的安全编程有更多的了解,同时希望各位可以给给建议,不足之处太多了。第一章——设置Python环境:Kali Linux的安装就不说了,最近有更新为2017版的可以下载。确认是否安装了正确的Python版本:确认是2.7版本的即可。接着安装P原创 2017-05-04 17:20:16 · 23432 阅读 · 23 评论 -
使用Docker搭建Nginx整数溢出漏洞(CVE-2017-7529)及Python PoC验证
漏洞具体信息可以看http://www.freebuf.com/articles/terminal/140402.html创建容器:使用之前制好的镜像ubuntu_aliyun:1.0创建新容器:docker run -it -d --name nginx_int_overflow -p 8086:80 ubuntu_aliyun:1.0docker exec -it id原创 2017-08-08 21:57:40 · 10435 阅读 · 0 评论 -
使用Docker搭建Struts2-048漏洞环境及Python PoC验证
这次是继续使用Docker搭建Struts2-048漏洞环境,并且利用PoC进行测试。生成容器:直接使用上次制好的镜像ubuntu_aliyun:1.0,直接生成容器:docker run -it -d --name struts2-048 -p 8088:8080 ubuntu_aliyun:1.0注意点就是Tomcat的默认端口为8080,因而端口要映射到8080。原创 2017-08-07 22:24:51 · 4596 阅读 · 0 评论 -
webshell的NTFS交换数据流文件隐藏及Python脚本查杀
本文是参考了FreeBuf上的一篇文章然后再学习一遍的~通过NTFS交换数据流文件实现文件隐藏:首先创建一个正常的文本文件test.txt,到命令行通过dir命令查看:先使用echo命令吧,就是将相应的字符写入新建的交换数据流文件中,通过echo hello>>test.txt:webshell.php创建交换数据流文件,然后通过dir /r命令查看,不添加/r参数是查看不到的原创 2017-08-05 13:14:28 · 1918 阅读 · 0 评论 -
数据挖掘之Apriori算法的Python实现
这里把之前的实验报告搬出来,代码参考了一下各位大哥的,然后自己再温习一遍~作为数据挖掘的典型算法(也是机器学习的典型算法),Apriori算法是实现频繁项集挖掘的方法,算法的基本步骤如下:1. 首先先扫描数据集,计算每个单项集的支持度,根据给定的最小支持度的值,得到第一项频繁集。2. 然后通过运算,得到二项候选集,对每个候选集再次扫描数据集,得出每个候选集的支持度,再与原创 2017-09-16 16:03:06 · 3927 阅读 · 3 评论 -
数据挖掘之决策树归纳算法的Python实现
同样,这里把之前的实验报告搬出来。引自百度:决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。决策树的算法原理:(1)通过把实例从根节点开始进行排列到某个叶子节点来进行分类的。(2)叶子节点即为实例所属的分类的,树上的每个节点说原创 2017-09-17 19:45:12 · 2020 阅读 · 0 评论 -
数据挖掘之k-means算法的Python实现
引自百度~K-means算法是很典型的基于距离的聚类算法,采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。k均值算法原理: (1)从n个数据对象任意选择k个对象作为初始聚类中心。 (2)根据每个聚类对象的均值,计算每个对象与这些中心对象的距离,并根据最小距离重新对相应对象原创 2017-10-20 19:35:59 · 1293 阅读 · 0 评论 -
Python爬虫之爬取动态页面数据
很多网站通常会用到Ajax和动态HTML技术,因而只是使用基于静态页面爬取的方法是行不通的。对于动态网站信息的爬取需要使用另外的一些方法。先看看如何分辨网站时静态的还是动态的,正常而言含有“查看更多”字样或者打开网站时下拉才会加载内容出来的进本都是动态的,简便的方法就是在浏览器中查看页面相应的内容、当在查看页面源代码时找不到该内容时就可以确定该页面使用了动态技术。对于动态页面信息的爬取,一原创 2017-11-01 12:39:00 · 34141 阅读 · 10 评论