Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >第78篇:巧妙方法抓取某商用红队扫描器的4000多个漏洞利用exp

第78篇:巧妙方法抓取某商用红队扫描器的4000多个漏洞利用exp

作者头像
ABC_123
发布于 2023-10-25 09:18:45
发布于 2023-10-25 09:18:45
5360
举报
文章被收录于专栏:网络安全abc123网络安全abc123

Part1 前言

大家好,我是ABC_123,本期分享一个真实案例。大约在两年前,有机会接触到一台红队扫描器设备(也可以理解为渗透测试机器人),我抱着好奇的心态去那里做了一下测试,感觉还不错。里面大概有4000多个漏洞利用exp,当然大部分都是nday漏洞,有一些未公开的1day漏洞,也有一些可能是0day漏洞,其中部分漏洞利用exp做了各种变形用来绕过waf,这些还是引起了我的兴趣。也是研究了两天,用了一个巧妙办法,欺骗这个扫描器发包,我在后台将所有的漏洞利用payload抓取到,整理成标准格式,放到了自己写的工具里面。

注:为了规避风险,文章中给出的扫描器截图不是原图,都是我手工画出来的,不太美观,burpsuite的数据包也经过处理,所以大家在看文章时很多地方可能会对应不上,懂得思路即可。

Part2 技术研究过程

  • 扫描器概述

首先,使用这台设备的账号登录web界面,直接可以看到一个漂亮的前端界面,“插件管理”界面上面的统计数字显示内置了4000多个漏洞测试payload。进一步点开界面,可以看到每个漏洞测试payload的漏洞标题和漏洞详情介绍。当然在主界面中,也可以把一个url列表导入进去,进行批量漏洞扫描及批量漏洞利用。

原图不方便贴出来,我画了一个效果图,供展示所用,大致如下所示:

  • 漏洞插件id遍历问题

每个漏洞扫描插件的编号都是有规律逐步递增的,第1个漏洞插件id=1,第4000个漏洞插件对应着id=4000。每个漏洞插件都有单独的操作框,可以填入URL进行检测与利用,个别的可以进行getshell操作。于是马上找到了一个id遍历的问题,这样我可以使用burpsuite遍历每个插件的id,在请求数据包中填入测试url,就可以使这台扫描器依次对相应的URL发送漏洞测试payload,此时在测试网站服务器上安装一个抓包程序,就可以抓取所有HTTP请求数据包,也就获取了所有的漏洞payload。

  • 搭建测试环境实操

接着在vps上安装了一个phpstudy,web目录放置了一个存在漏洞的php页面,后台安装了一个抓包工具,开始了初步的测试过程。结果发现远远没有那么简单,存在以下几个问题

1 该扫描器对一个url不会直接发送漏洞利用payload,它首先会有一个判断过程。对于一些CMS漏洞,扫描器会首先提交一个漏洞exp的urlpath路径(如/inc/config.php.bak),如果该urlpath页面存在,响应码是200或403或500,那么扫描器接下来才会发送真正的漏洞利用payload。

2 对于一些cms的sql注入漏洞或者文件读取漏洞,那么扫描器会使用在后面加单引号的报错方法或者各种报错方法,查看当前页面是否包含sql注入漏洞的错误关键字MySQL error、Unclosed quotation、error '80040e14'、supplied argument is not a valid MySQL result等,以此决定是否进一步发送测试payload。

3 服务器上的抓包工具,抓到了上千个数据包,但是不知道每个数据包具体对应哪个漏洞名称,不知道http请求数据包具体是哪种Web系统的哪种漏洞,所以抓到的数据包没法使用。

4 其它问题,如phpstudy的问题、http返回头的问题等等,这里不一一列举了。

  • 欺骗扫描器发送可用的exp

为了解决这个问题,ABC_123想到了一个办法,我用Springboot编写了一个java测试页面,无论该扫描器提交什么url路径,一概返回200或403或500响应码,然后在返回页面中,始终返回一些sql注入关键字MySQL error、Unclosed quotation、error '80040e14'、supplied argument is not a valid MySQL result等,欺骗扫描器在第一阶段的判断过程中,找到了这些错误关键字而误以为是存在漏洞的,从而在第2次发包中,发送真正的漏洞测试payload。

然后我在springboot中加入了日志记录代码,一旦有请求过来,那么把当前完整的http请求数据包输出到一个log文件中,后期再做处理。

  • 解决数据包与漏洞名称对应问题

为了解决这个问题,大伤脑筋,后来想到了一个绝妙的方法。还记得前面的“插件管理”的id遍历问题吗?首先用burpsuite把每个id对应的名称给提取出来,这样就得到了id值与漏洞名称的对应关系列表。

然后使用burpsuite遍历id发送漏洞测试payload的时候,测试URL按照如下格式提交,id=后面的数字可以用burpsuite插入一个从1到5000的字典。经过反复测试,发现按照如下形式构造漏洞测试url效果比较好,扫描器识别到URL以/结尾,会误以为是目录,从而在目录后面加上一些urlpath进行cms漏洞尝试;扫描器以?判断时,会误以为4111__dict__/是参数值,从而进行SQL注入漏洞尝试

http://xxx.com/?id=4111__dict__/,

http://xxx.com/?id=4115__dict__/,

字符串__dict__是为了后期进行文本处理的时候,方便我们切割文本和替换文本,然后还可以作为区分以GET形式提交的漏洞测试payload。

这样后台的springboot应用就能获取到id传来的值,编写java代码遇到id=1,程序首先查询id=1的漏洞名称是什么,假设漏洞名称是"XXXOA系统的SQL注入漏洞",那么输出的日志名称就是"1_XXXOA系统的SQL注入漏洞.txt",如果遇到id=3001,漏洞名称假设是"Weblogic系统的2019-2725(JDK1.8)漏洞",那么输出的日志名称就是"3001_Weblogic系统的2019-2725(JDK1.8)漏洞.txt"。

burpsuite设置好线程,很快遍历完成4000多个id,也就意味着扫描器对我们的测试页面发送了4000多个漏洞的payload,然后编写程序对生成的log文件进行处理,处理成我们想要的数据包格式,上述工作就完成了。

Part3 总结

1. 在本次测试过程中,扫描器的一个低危的id遍历漏洞成为了抓取所有漏洞利用payload的入口,所以一个漏洞低危还是高危,还是看它的利用场景,有些低危漏洞还是会造成很大安全风险,还是需要修复的。

2. 本篇文章没法将原有的实战情况复现,因为不能贴原图,所以只靠打字说不明白,但是关键步骤都写出来了,后续会继续分享其它抓取payload的思路。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-10-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 希潭实验室 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Kafka分布式消息系统(搭建Kafka集群) - Part.3
在前面两篇文章中,我们了解了基本概念,也安装、配置好了zookeeper集群,在这篇文章中,我们将一步步搭建kafka集群。
张子阳
2018/09/29
7250
kafka删除topic方式
工作中因为各种原因,topic中消息堆积的太多或者kafka所在磁盘空间满了等。可能需要彻底清理一下kafka topic。 cd /opt/kafka/kafka_2.10-0.10.2.2/bin 列出所有topic: ./kafka-topics.sh –zookeeper ip:2181 -list 其实就是检查zk上节点的/brokers/topics子节点,打印出来。 创建topic ./kafka-topics.sh –zookeeper ip:2181 -create –topic my_topic –partitions 4 –replication-factor 1 线上环境将自动创建topic禁用掉,改为手动创建(auto.create.topics.enable=false),partitions和replication-factor是两个必备选项, 第一个参数是消息并行度的一个重要参数,第二个极大提高了topic的可用性,备份因子默认是1,相当于没有备份,其值不能大于broker个数, 否则会报错。同时还可以指定topic级别的配置参数,这种特定的配置会覆盖掉默认配置,并且存储在zookeeper的/config/topics/[topic_name]节点数据里。 –alter –config –deleteConfig。replication-factor参数用来指定需要多少个副本(连同leader在内),一般比较推荐设置为2或3。如果设置太少(比如1)导致可用性下降, 如果设置太大会影响Kafka的性能。 方式一: 配置delete.topic.enable=true 修改kafaka配置文件server.properties,添加delete.topic.enable=true,重启kafka。之后通过kafka命令行就可以直接删除topic 重启kafka nohup /usr/kafka/bin/kafka-server-start.sh /usr/kafka/config/server.properties >/dev/null 2>&1 & 通过命令行删除topic: ./kafka-topics.sh –zookeeper ip:2181 –topic my_topic –delete 方式二: 没有配置delete.topic.enable=true 1、通过命令行删除topic: ./kafka-topics.sh –zookeeper ip:2181 –topic my_topic –delete 因为kafaka配置文件中server.properties没有配置delete.topic.enable=true, 此时的删除并不是真正的删除,只是把topic标记为:marked for deletion 2、删除kafka存储目录(server.properties文件log.dirs配置,默认为”/tmp/kafka-logs”)相关topic目录。 方式三: 若想真正删除它,需要登录zookeeper客户端: cd /opt/kafka/zookeeper-3.4.13/bin chmod 755 ./* (可执行命令)
全栈程序员站长
2022/11/02
2.5K0
Kafka
优点: (1)解耦 (2)冗余(备份) (3)扩展性 (4)灵活性、峰值处理能力 (5)可恢复性(冗余) (6)顺序保证(队列) (7)缓冲(冗余) (8)异步通信(宕机)
matt
2022/10/25
5530
Kafka
kafka删除topic数据
https://blog.csdn.net/u013256816/article/details/80418297
py3study
2020/02/25
4.9K0
kafka 集群配置_kafka集群原理
kafka是一个高吞吐的分布式消息队列系统。特点是生产者消费者模式,先进先出(FIFO)保证顺序,自己不丢数据,默认每隔7天清理数据。消息列队常见场景:系统之间解耦合、峰值压力缓冲、异步通信。
全栈程序员站长
2022/09/27
1.4K0
创建Topic原来还能这样玩,真绝了!!!(附视频)
需要注意的是–zookeeper后面接的是kafka的zk配置, 假如你配置的是localhost:2181/kafka 带命名空间的这种,不要漏掉了
石臻臻的杂货铺[同名公众号]
2021/08/12
1.8K0
kafka如何彻底删除topic及数据
删除kafka topic及其数据,严格来说并不是很难的操作。但是,往往给kafka 使用者带来诸多问题。项目组之前接触过多个开发者,发现都会偶然出现无法彻底删除kafka的情况。本文总结多个删除kafka topic的应用场景,总结一套删除kafka topic的标准操作方法。
mikealzhou
2018/05/19
21.1K13
kafka如何彻底删除topic及数据
[721]linux安装kafka
首先确保你的机器上安装了jdk,kafka需要java运行环境,以前的kafka还需要zookeeper,新版的kafka已经内置了一个zookeeper环境,所以我们可以直接使用
周小董
2020/01/13
2.9K0
[721]linux安装kafka
Kafka快速入门(Kafka Broker)节点服役和退役、手动调整副本
(3)查看/kafka/brokers/topics/first/partitions/0/state 路径上的数据。
鱼找水需要时间
2023/02/16
1.1K0
Kafka快速入门(Kafka Broker)节点服役和退役、手动调整副本
【消息队列 MQ 专栏】消息队列之 Kafka
Kafka 最早是由 LinkedIn 公司开发一种分布式的基于发布/订阅的消息系统,之后成为 Apache 的顶级项目。主要特点如下:
芋道源码
2018/07/31
4.5K0
【消息队列 MQ 专栏】消息队列之 Kafka
kafka删除主题_kafka从头消费topic数据
转自https://www.cnblogs.com/xiaodf/p/10710136.html
全栈程序员站长
2022/11/03
7590
kafka学习笔记
搭建参考: https://www.cnblogs.com/luotianshuai/p/5206662.html
保持热爱奔赴山海
2019/09/17
6040
kafka学习笔记
Kafka原理和实践
本文从Kafka的基本概念、特点、部署和配置、监控和管理等方面阐述 Kafka 的实践过程。
杨振涛
2019/08/08
1.5K0
kafka集群搭建
RabbitMQ是使用Erlang编写的一个开源的消息队列,本身支持很多的协议:AMQP,XMPP, SMTP, STOMP,也正因如此,它非常重量级,更适合于企业级的开发。同时实现了Broker构架,这意味着消息在发送给客户端时先在中心队列排队。对路由,负载均衡或者数据持久化都有很好的支持。
Cyylog
2020/08/19
7990
大数据消息处理中间件之kafka win10快速部署
kafka官网:http://kafka.apache.org/documentation/
静谧星空TEL
2021/04/27
1.3K0
大数据消息处理中间件之kafka win10快速部署
kafka实战教程(python操作kafka),kafka配置文件详解
应用往Kafka写数据的原因有很多:用户行为分析、日志存储、异步通信等。多样化的使用场景带来了多样化的需求:消息是否能丢失?是否容忍重复?消息的吞吐量?消息的延迟?
全栈程序员站长
2022/08/12
3.8K0
kafka实战教程(python操作kafka),kafka配置文件详解
Kafka快速入门
LEO:Log End Offset,待写入消息的offset,即最后一条消息的offset+1
兜兜转转
2023/03/06
4070
kafka删除topic中的数据_kafka删除数据
二、如果当前topic有使用过即有过传输过信息:并没有真正删除topic只是把这个topic标记为删除(marked for deletion)。想要彻底删除topic数据要经过下面两个步骤:
全栈程序员站长
2022/11/03
4.8K0
kafka介绍和常见操作
RabbitMQ:支持消息的可靠的传递,支持事务,不支持批量操作,基于存储的可靠性的要求存储可以采用内存或硬盘,吞吐量小。
章工运维
2023/05/19
3470
消息队列——Kafka基本使用及原理分析
Kafka也是一款消息队列中间件,与ActiveMQ和RabbitMQ不同的是,它不是基于JMS和AMQP规范开发的,而是提供了类似JMS的特性,同时Kafka比较重量级,天然支持集群分布式搭建以及数据分片备份,由Scala和Java编写,因其高性能和高吞吐量的特点被广泛用于大数据的传输场景。简单而言,Kafka就是一款适用于大数据场景下的消息队列。
夜勿语
2020/09/07
1.8K0
相关推荐
Kafka分布式消息系统(搭建Kafka集群) - Part.3
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档