本列表,收集一些在服务器上运行的一些工具,组建自动化,服务器长期挂跑项目 欢迎提issues,来丰富工作流程,比如自己挖洞时候的一些简易流程,工具+调用命令, 在我的日常渗透中,我发现我重复调用几个工具,但是不同的调用组合渗透的工作流程,有时候调用命令会忘记,所以有了这个列表,来达到帮助我记忆一些流程命令的文档,未来还会细化过程,脚本小子福音了
//子域名获取
subdomain3
https://github.com/yanxiu0614/subdomain3/blob/master/README_ZH.md
subfinder
https://github.com/projectdiscovery/subfinder
DNS枚举
https://github.com/projectdiscovery/dnsx
端口扫描
https://github.com/projectdiscovery/naabu
//存活验证
httpx https://github.com/projectdiscovery/httpx
批量目录扫描https://github.com/H4ckForJob/dirmap
命令行调用命令
subfinder -silent -dL domain.txt | dnsx -silent | naabu -top-ports 1000 -silent| httpx -title -tech-detect -status-codesubfinder -d domain.net -silent | ksubdomain e --stdin --silent | naabu -top-ports 1000 -silentsubfinder -silent -dL domain.txt | dnsx -silent | httpx -o output.txtsubfinder -d domain.com -silentsubfinder -silent -dL domain.txt | dnsx -silent | httpx -mc 200 -timeout 30 -o output.txt
//去重对比
anew https://github.com/tomnomnom/anew
//获取子域名,对比文件,验证存活,达到监听新资产的目的
subfinder -silent -dL domain.txt | anew domians.txt | httpx -title -tech-detect -status-code
视觉侦查https://github.com/sensepost/gowitness
gowitness file <urlslist.txt>
网站历史URL获取
gau https://github.com/lc/gau
hakrawler https://github.com/hakluke/hakrawler
waybackurls https://github.com/tomnomnom/waybackurls
gospider https://github.com/jaeles-project/gospider
爬虫获取链接,运行20个站点每个站点10个爬虫gospider -S domain.txt -o output.txt -c 10 -d 1 -t 20通过爬虫获取链接包含子域名gospider -s "https://google.com/" -o output -c 10 -d 1 --other-source --include-subs对文件进行处理过滤出js文件gospider -S urls.txt | grep js | tee -a js-urls.txt
针对单一网站与文件,调用命令进行打点
echo domain.com | gau --blacklist png,jpg,gif,html,eot,svg,woff,woff2 | httpx -title -tech-detect -status-codecat domian.txt | gau --blacklist png,jpg,gif,html,eot,svg,woff,woff2 | httpx -title -tech-detect -status-code此命令也获取了标题,直接操作httpx即可衔接下一个命令运行工具
针对JS进行提取敏感字段https://github.com/machinexa2/Nemesis
或许你需要一些命令
cat livejs.txt | grep devcat livejs.txt | grep appcat livejs.txt | grep static
提取器
提取JS命令 https://github.com/tomnomnom/fff
cat jslist.txt | fff | grep 200 | cut -d “ “ -f1 | tee livejs.txt
目录FUZZ扫描https://github.com/ffuf/ffuf
对UEL进行提取https://github.com/tomnomnom/gf
cat subdomains.txt | waybackurls | gf xss | qsreplace | tee xss.txt
XRAY 命令行批量扫描
针对单个域名进行子域名爆破,使用GAU提取链接,httpx验证存活,推送到XRAY进行爬虫扫描。
subfinder -d domain.com -silent | gau --blacklist png,jpg,gif,html,eot,svg,woff,woff2 | httpx -o 200.txtfor i in $(cat 200.txt);do echo "xray scanning $i" ; ./xray webscan --browser-crawler $i --html-output vuln.html; done
XSS扫描
https://github.com/hahwul/dalfox
cat url.txt | hakrawler -subs |grep -v key | grep key |grep -v google | grep = | dalfox pipe --silence --skip-bav
隐藏参数枚举https://github.com/s0md3v/Arjun
单目标扫描arjun -u https://api.example.com/endpoint单目标扫描输出arjun -u https://api.example.com/endpoint -oJ result.json多目标扫描arjun -i targets.txt指定方法arjun -u https://api.example.com/endpoint -m POST
零基础入门网络安全
对于从来没有接触过网络安全的同学,我们帮你准备了详细的学习成长路线图。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。
同时每个成长路线对应的板块都有配套的视频提供:

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取
优快云大礼包:《黑客&网络安全入门&进阶学习资源包》免费分享
视频配套资料&国内外网安书籍、文档&工具
当然除了有配套的视频,同时也为大家整理了各种文档和书籍资料&工具,并且已经帮大家分好类了。
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

该列表列举了一系列用于服务器管理和渗透测试的工具,包括子域名获取、DNS枚举、端口扫描、存活验证等。通过这些工具的组合使用,可以实现自动化工作流程,例如httpx进行存活验证,dirmap进行批量目录扫描,以及anew进行去重对比。此外,文章还介绍了针对网站的历史URL获取、XSS扫描和隐藏参数枚举的方法,为安全检测和漏洞挖掘提供便利。
80

被折叠的 条评论
为什么被折叠?



