Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Appearance settings

le623/SScan

Open more actions menu
 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

21 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

SScan

python

python

前言

一款src捡洞扫描器,因没时间挖src,毕竟挖src是个费时费力的活,自19年8月起入坑至今,依靠 BBScan 扫描出的信息和漏洞,利用业余时间从扫描报告中的资产捡洞和找洞,已经3次jd月度前十。萌发出自己写扫描器挖洞的念头,自动挖一些简单漏洞,赚点零花钱,同时提升一下开发能力,毕竟搞安全的不能不懂开发。

目前 SScan 的主要逻辑还是在模仿 BBScan

使用效果图

http-bw

扫描结束后,结果报告在report目录下,并且存在漏洞时,默认会使用浏览器打开报告

使用及参数

python3 SScan.py version                                查看版本
python3 SScan.py --help                                 获取帮助
python3 SScan.py --host example.com run                 单个目标
python3 SScan.py --file domains.txt run                 读取一个.txt文件
python3 SScan.py --dire /Users/yhy/Desktop/dirs/ run    读取目录下的所有.txt
python3 SScan.py --file domains.txt  --network 24 run   network设置一个子网掩码(8 ~ 31),
                配合上面3个参数中任意一个。将扫描Target/MASK 网络下面的所有IP
python3 SScan.py --host 127.0.0.1 --script unauthorized_access_redis,unauthorized_access_rsync run
                    只使用指定脚本 

您可以通过在 config/setting.py 文件中指定fofa api信息, 调用fofa搜索更多的Web服务

其它参数:
    --t             扫描线程数, 默认10。
    --full          处理所有子目录。 /x/y/z/这样的链接,/x/ /x/y/也将被扫描,默认为True
    --crawl         爬取主页的<a>标签, 默认为True
    --checkcdn      检查域名是否存在CDN,若存在则不对解析出的ip进行规则和脚本探测,默认为True
    --browser       检测完成后,使用默认浏览器打开扫描报告,默认为True
    --script        指定要使用的脚本,--script unauthorized_access_redis unauthorized_access_rsync, ... 脚本在scripts目录下
    --rule          指定要扫描的规则,--rule RuleFileName1,RuleFileName2,... 规则在rules目录下
    --script_only   只使用脚本进行扫描,不使用规则
    --noscripts     不使用脚本扫描

功能

  • 常见目录扫描,比如备份文件、配置文件、日志文件等等,具体见rules目录下的详细规则

  • 信息泄露漏洞,比如.idea、 .git、.DS_Store、springboot等等,具体见rules目录下的详细规则

  • 后台登录页面资产发现

  • 403页面绕过,具体绕过规则在lib/common/scanner.py的196行的bypass_403函数

  • 扫描某个网段,通过 --network 24 指定扫描C段资产,进行漏洞和信息发现

  • 跳过存在CDN的IP,当检测到url解析的IP符合CDN特征时,不会将ip加入扫描目标中,只会扫描url

  • 一些常见未授权和弱口令检测,目前支持:

    redis、Hadoop、Hadoop yarn、docker、docker registry api、CouchDB、ftp、zookeeper、elasticsearch、memcached、mongodb、rsync、jenkins、jboss的未授权访问,mysql空口令、PostgreSQL 空口令 ,具体见scripts 目录

    对于数据库口令检测,目前只是检测是否存在空口令检测,后续会考虑要不要加入一些弱口令,进行检测。像这样 https://github.com/se55i0n/DBScanner/blob/master/lib/exploit.py

  • 当在 config/setting.py 文件中指定fofa api 信息时,会调用fofa接口,搜索更多的Web服务

后续计划

使用BurpSuite 实验室Lab: URL-based access control can be circumvented 进行测试

image-20210106105118466

  • 调用Fofa Api,查询资产信息,更全面地扫描资产

rules目录下的规则描述

  • black.list 规则黑名单,命中则跳过

  • White.list 规则白名单 ,命中则认为存在薄弱点,加入结果

  • rules目录下的一些字段含义,rules目录下常见的格式就是这种

    /WEB-INF/applicationContext-slave.xml {tag="<?xml"} {status=200} {type="xml"} {root_only}
    
    1. /WEB-INF/applicationContext-slave.xml 目录 ,必有

    2. {tag="<?xml"} 可选, 如果有的话,会比对 response.text ,即返回的html页面中是否存在tag,若没有,认为不存在该目录。

    3. {status=200} 可选, 目录对应的状态码, 也是 作为判断该目录是否存在的一个条件,会比对页面的状态码和规则的状态码一致

    4. {type="xml"} 可选,与返回头信息 content-type 字段比对,也是判断目录存在的一个条件

    5. {root_only} 可选, 这个是表示该目录只在网站根目录下存在,之后与网站根目录拼接,进行检测,比如 https://www.baidu.com/WEB-INF/applicationContext-slave.xml 这样检查一次, 在 https://www.baidu.com/test/ 这样的二级目录,并不会拼接检查,提高效率 ,

      ps:必有:是指当想要自己添加规则时,必须添加的字段,可选:可以没有,但想要更加准确,最好写上。

      具体匹配检测在lib/common/scanner.py 的523行

如何编写脚本插件

请参考scripts文件夹下的插件内容。self参数是一个Scanner对象(lib/common/scanner.py),可使用Scanner对象的任意方法、属性。

self.host self.port 是目标主机和端口

self.ports_open 是开放的端口列表,是所有插件共享的。 一般不在插件执行过程中再单独扫描端口

self.session 是HTTP连接池

self.http_request 可发起HTTP GET请求

self.index_headers self.index_status self.index_html_doc 是请求首页后返回的,一旦扫描器发现有插件依赖,会预先请求首页,保存下来,被所有插件公用

参考

免责声明

本工具仅能在取得足够合法授权的企业安全建设中使用,在使用本工具过程中,您应确保自己所有行为符合当地的法律法规。 如您在使用本工具的过程中存在任何非法行为,您将自行承担所有后果,本工具所有开发者和所有贡献者不承担任何法律及连带责任。 除非您已充分阅读、完全理解并接受本协议所有条款,否则,请您不要安装并使用本工具。 您的使用行为或者您以其他任何明示或者默示方式表示接受本协议的,即视为您已阅读并同意本协议的约束。

Star趋势

Stargazers over time

About

一款src捡洞扫描器

Resources

Stars

Watchers

Forks

Packages

No packages published

Languages

  • Python 99.1%
  • HTML 0.9%
Morty Proxy This is a proxified and sanitized view of the page, visit original site.