📜  Parsero – 在 Kali Linux 中读取 Robots.txt 文件的工具(1)

📅  最后修改于: 2023-12-03 14:45:05.447000             🧑  作者: Mango

Parsero - 在 Kali Linux 中读取 Robots.txt 文件的工具

Parsero Logo

Parsero是一个用于在Kali Linux中读取和分析Robots.txt文件的工具。Robots.txt文件是网站管理员用来限制搜索引擎爬虫访问特定页面的文件。使用Parsero,程序员可以快速识别网站上被隐藏或未受保护的敏感目录和文件。

功能特点
  • 解析Robots.txt文件:Parsero通过解析Robots.txt文件来获取网站上的目录和文件限制。
  • 发现隐藏目录和文件:通过分析Robots.txt文件,Parsero可以发现网站上可能未被公开的目录和文件。
  • 支持多线程:Parsero使用多线程技术来提高扫描效率。
  • 支持定制化:用户可以使用Parsero的可配置参数来定义自定义的扫描规则。
  • 支持数据报告:Parsero可以生成规范的数据报告,以便程序员更好地分析和导出结果。
安装和使用
安装

首先,确保已经在Kali Linux中安装了Python2.7。

  1. 通过以下命令克隆Parsero存储库:

    git clone https://github.com/behindthefirewalls/Parsero.git
    
  2. 进入Parsero目录:

    cd Parsero
    
  3. 安装必要的依赖项:

    pip install -r requirements.txt
    
使用

以下是使用Parsero的基本用法:

python parsero.py -u <target_url>

其中<target_url>是要扫描的目标网站URL。

Parsero还提供了其他参数和选项,以便用户根据需要进行自定义配置。有关更多信息,请使用以下命令查看帮助文档:

python parsero.py --help
示例

以下是使用Parsero的示例命令和输出:

python parsero.py -u http://example.com

输出如下:

[+] OPTIONS allowed: [*] http://example.com/?
[+] IDENTIFIED: [*] http://example.com/admin/
[+] IDENTIFIED: [*] http://example.com/secret/
[+] IDENTIFIED: [*] http://example.com/backup/
[+] IDENTIFIED: [*] http://example.com/config/
[+] IDENTIFIED: [*] http://example.com/db/
[+] IDENTIFIED: [*] http://example.com/logs/
[+] IDENTIFIED: [*] http://example.com/tmp/
[+] IDENTIFIED: [*] http://example.com/old/
[+] IDENTIFIED: [*] http://example.com/test/
结论

通过Parsero,程序员可以轻松地在Kali Linux中使用Robots.txt文件来快速识别和查找网站上的隐藏目录和文件。它是一个方便且功能强大的工具,可帮助安全测试人员和网站管理员提高对网站漏洞的发现和修补工作的效率。

人类主题音乐:10个全英文翻唱积木块https://www.bilibili.com/video/BV1wa4y1h7A6?p=2