一、解题思考过程
1.进入题目场景
2.发现破题点:Robots_exclusion_standard
经了解发现,Robots_exclusion_standard是网络爬虫排除标准。
作用:网站告知爬虫哪些页面可以抓取,哪些不行
形式:在网站根目录下的robots.txt文件
3.尝试访问:本题目场景的网页下的robots.txt文件,得到如下界面
4.阅读该页面内容发现语句
Disallow: /fl0g.php
其中fl0g与flag形似,于是,我尝试访问该网页下fl0g.php,出现如下界面:
5.将cyberpeace{2d403aec04a2bcbc13ec21368dd734a6}提交答题框,夺旗成功!
二、复盘积累