webinformationanalyzer

注意,这只用于学习,其他的与我无关,与我用到的别人中的代码的人也无关. 参考学习

我只对python3中源码修改,及添加自己的代码.

这只是一个二创小项目.

通过使用webanalyzer插件的api来进行网站分析,我找到了很多对一个网站分析的工具,但是没有批量对网站进行分析且分类. 于是,我在别人项目的基础之上修改了一些内容,然后通过自己写的文件来进行以下功能:

  1. 对网站的子域名进行收集,通过SSL证书和子域名爆破来进行收集(注: 子域名爆破方法哪里使用了超时注解,因为字典很大,设置了3分钟时间,超时则停止)
  2. 对于收集的子域名进行去重,去掉重复子域名.
  3. 对收集的子域名进行webanalyzer分析,对于分析结构保存为字典格式
  4. 对字典格式进行json转换,方便数据传输.
  5. 对分析后的结果进行web架构分类.

参数介绍

  1. -s 进行ssl和子域名爆破收集 收集到search_report_memo 目录下,文件名是参数名 例如baidu.com.txt
  2. -d 对收集到的子域名进行去重
  3. -f/u u是单个域名,f是一个文件的域名,对其进行软件使用技术选型的分析,并将分析结果用字典形式保存到restore.txt中
  4. -j 把restore.txt 文件中的内容存储为json格式,方便处理和传输
  5. -t 参数为"type",-t type 提示按类型划分,把不同的网址添加到不同的架构网站中,其目的是为了在针对同一种架构网站进行渗透测试时,可以优先针对同架构URL.