背景介绍
dirsearch是一个基于Python的命令行工具,旨在暴力扫描页面结构,包括网页中的目录和文件。dirsearch具有以下特点:
- 多线程
- 可保持连接
- 支持多种后缀(-e|–extensions asp,php)
- 生成报告(纯文本,JSON)
- 启发式检测无效的网页
- 递归的暴力扫描
- 支持HTTP代理
- 用户代理随机化
- 批量处理
- 请求延迟
- 扫描器与字典
- 字典必须是文本文件,除了使用特殊的%EXT%之外,其余每行都会被处理。
网站敏感信息包括如下:
- 后台目录:弱口令,万能密码,爆破
- 安装包:获取数据库信息,甚至是网站源码
- 上传目录:截断、上传图片马等
- MySQL管理接口:弱口令、爆破,万能密码,然后脱裤,甚至是拿到shell
- 安装页面:可以二次安装进而绕过
- phpinfo:会把你配置的各种信息暴露出来
- 编辑器:fck、ke、等
- IIS短文件利用:条件比较苛刻Windows、Apache等
提到了网站敏感目录我们就不得不提robots.txt文件了。robots.txt文件是专门针对搜索引擎机器人robot编写的一个纯文本文件。我们可以在这个文件中指定网站中不想被robot访问的目录。这样,我们网站的部分或全部内容就可以不被搜索引擎收录了,或者让搜索引擎只收录指定的内容。因此我们可以利用robots.txt让Google的机器人访问不了我们网站上的重要文件,GoogleHack的威胁也就不存在了。
资源装备
- 安装好Kali Linux的虚拟机一台;
- 主机虚拟机一个;
- 整装待发的小白一个。
渗透攻防
3.1 在线渗透测试网站介绍,如下图所示。
3.2 在Kali Linux中查看dirsearch脚工具是否安装,如下图所示。
命令:dirsearch(直接在Kali Linux中输入命令运行,看是否成功推出。)
3.3 在Kali Linux中下载dirsearch脚本工具,如下图所示。
命令:git clone
3.4 查看下载(clone)下载的dirsearch脚本工具的文件夹,如下图所示。
命令:ls -l
如下图所示,当前目录存在了一个名为dirsearch的文件夹。
3.5 查看python脚本文件(dirsearch.py),如下图所示。
命令:ls -l
3.6 利用dirsearch.py脚本对3.1提供的测试网站进行测试,如下图所示。
命令:python3 dirsearch.py -u testphp.vulnweb.com -e *
- -h, –help 查看帮助
- -u URL, –url=URL 设置url
- -L URLLIST, –url-list=URLLIST 设置url列表
- -e EXTENSIONS, –extensions=EXTENSIONS 网站脚本类型
- -w WORDLIST, –wordlist=WORDLIST 设置字典
- -l, –lowercase 小写
- -f, –force-extensions 强制扩展字典里的每个词条
- -s DELAY, –delay=DELAY 设置请求之间的延时
- -r, –recursive Bruteforce recursively 递归地扫描
3.7 dirsearch.py敏感文件扫描结果保存目录,如下图所示。
目录:/root/dirsearch/reboots/
3.8 查看扫描到的敏感信息,如下图所示。
命令:cat 文件名