树莓派相信熟悉小型Linux开发板的朋友都不陌生,作为一款优秀的卡片型小电脑,麻雀虽小五脏俱全,普通电脑能做的事情,它全都能做,最重要的一个优点,它作为一台24小时不停服的服务器来讲,低功耗,高收益,所以民间高手用树莓派来diy各种千奇百怪好玩好用的东西,例如用树莓派做家庭nas存放自己的小姐姐,用树莓派做为软路由管理家庭的网络,用树莓派做自己的贴心语音小助手来管理家庭智能家电等等一系列的应用场景,可玩性很高,作为一个很爱折腾的我也是对它爱不释手,很多人买来树莓派就是放在角落吃灰,但我的树莓派至今已经平稳运行了2年之久,它承担了我的毕业设计---智能语音机器人,承担了家中的nas共享,承担了平时在家的jupyter开发环境,在今天,我将赋予它新的使命---扶墙(FQ)好帮手,让我们家庭网络的终端中,无需连接威批恩便可以顺畅睁眼看世界!接下来请跟随文章的脚步,一起走进奇妙的折腾之旅~~~
Commander是一款功能强大的命令与控制C2服务器框架,在该工具的帮助下,广大红队和蓝队研究人员可以轻松部署自己的C2组件。该工具基于Python开发、Flask和SQLite开发,并提供了Python和C版本的代理。
MaccaroniC2是一款功能强大的命令控制C2框架,该工具基于纯Python实现,可以帮助广大研究人员在特定场景中实现控制命令的发送和结果的接收。
dirsearch是一个基于python3的命令行工具,常用于暴力扫描页面结构,包括网页中的目录和文件。相比其他扫描工具disearch的特点是:
dirsearch是一种高级的命令行工具,旨在对web服务器中的目录和文件进行暴力激活成功教程。
Neton是一种从 Internet 连接的沙箱中获取信息的工具。它由一个代理和一个显示收集到的信息的网络界面组成。 Neton 代理从其运行的系统获取信息,并通过 HTTPS 将其泄露到 Web 服务器。
Neton是一款功能强大的沙盒信息收集工具,该工具可以帮助广大研究人员从联网的沙盒环境中提取和收集信息。
关于Graphicator Graphicator上一款功能强大的GraphQL枚举与提取工具,该工具可以对目标GraphQL节点返回的内部文档进行迭代,然后以内部形式重新构建数据模式,以便重新创建支持的查询。创建此类查询时,将使用它们向GraphQL节点发送请求,并将返回的响应保存到文件中。 工具不会保存错误的响应数据,默认情况下,该工具会缓存正确的响应,也会缓存错误,因此当重新运行该工具时,它不会再次进入相同的查询。 该工具旨在帮助广大研究人员以自动化的形式处理自己的渗透测试流程,并为针对Grap
pFuzz是一款功能强大的Web应用程序防火墙安全检测/绕过工具,可以帮助广大研究人员同时通过多种方式绕过目标Web应用程序防火墙,以测试WAF的安全性。
In0ri是一个内容污染检测系统,该工具主要利用一个图像分类卷积神经网络实现其功能。
Chunsou(春蒐),Python编写的多线程Web指纹识别工具,适用于安全测试人员前期的资产识别、风险收敛以及企业互联网资产摸查。目前主要功能为针对Web资产进行指纹识别,目前指纹规则条数约 10000+,辅助功能包括子域名爆破和FOFA资产收集。工具开发初衷为辅助网络安全人员开展测试工作,提高资产识别和管理的效率。项目地址:https://github.com/Funsiooo/chunsou
最近在学习 python,使用 flask 实现了个个人博客程序,完了想部署到服务器上。因为是新手,一路磕磕绊绊最终把它基本搞定。网上资料对新手感觉都不太友好,都是零零碎碎的,所以我整理了一下,一方面作为我自己的记录,方便以后查阅,另一方面也希望能帮助到跟我一样的新手。
可以通过修改default.conf文件去修改dirsearch的默认配置(默认文件拓展名,超时时间,wordlist所在目录等)
关于Darkdump Darkdump是一款功能强大的深网搜索工具,该工具基于Python 3.11开发,广大研究人员直接在命令行终端输入搜索(查询)语句之后,Darkdump会将深网中所有与查询内容相关的网站全部提供给我们。 工具安装 由于该工具基于Python 3.11开发,因此我们首先需要在本地设备上安装并配置好Python 3环境。接下来,广大研究人员可以使用下列命令将该项目源码克隆至本地: git clone https://github.com/josh0xA/darkdump(向右
如果要使用BurpSuite抓包进行如暴力破解等操作,还需要另外配置一下BurpSuite的代理
日常渗透过程中我们经常会遇到spring boot框架,通过资产测绘平台搜索我们也可以知道spring框架的资产非常多,最常见的需求就是我想测试是否存在敏感信息泄漏以及是否存在spring的相关漏洞,每次都东拼西凑找工具,最近遇到一个不错的工具,输入扫描目标可以直接对站点进行敏感信息扫描和spring相关漏洞检测,终于不用东拼西凑找工具了。
Python中有一个功能强大,用于操作URL,并且在爬虫中经常使用的库、就是Urllib库。 (在python2的时候,有Urllib库,也有Urllib2库。Python3以后把Urllib2合并到了Urllib中) 合并后,模块中有很多的位置变动。我在这里先介绍一些常用的改动。 Python2: import urllib2 >>>>>Python3:import urllib.request,urllib.error Python2:import urllib >>>>>Python3:import urllib.request,urllib.error,urllib.parse Python2:import urlparse >>>>>Python3:import urllib.parse Python2:urllib2.urlopen >>>>>Python3:urllib.request.urlopen Python2:urllib.urlencode >>>>>Python3:urllib.request.urlencode Python2:urllib.quote >>>>>Python3:urllib.request.quote Python2:cookielib.CookieJar >>>>>Python3:http.CookieJar Python2:urllib.Request >>>>>Python3:urllib.request.Request 以上是Urllib中常用命令的一些变动。如果之前没有Urllib的基础也没关系,本文后面会详细介绍这些代码的具体应用,以及其实现的各种功能。
yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel
最近有个项目需要爬取药监局数据,对方有ip屏蔽机制。所以我需要在scrapy中实现ip自动切换,才能够完成爬取任务。在此之前,我先使用过第三方库scrapy-proxys加上代理api接口,可能是代码没有完善好,导致测试没有成功。 所以这次选择使用隧道的方式来测试看下,使用的是python3和scrapy库一起测试看下效果。
这一次使用vue.js+tornado的组合来部署前后端分离的web项目,vue.js不用说了,前端当红炸子鸡,泛用性非常广,无论是单页应用,还是混合式开发app,亦或是微信小程序开发,样样得心应手,tornado最近的风头有点被新锐框架sanic抢走了,但是作为老牌的异步非阻塞框架,其内置了支持epoll/kqueue 等高效网络库,而具备了处理高并发的能力并且开发效率也不低,这一次tornado作为承载后端压力的角色。
这个项目的主要目的是开发一个被动式的Google Dork脚本来收集互联网中存在潜在安全漏洞的Web页面以及应用程序。这个项目由两个部分组成,第一个就是ghdb_scraper.py脚本,该脚本可以检索Google Dork。而第二个就是pagodo.py,该脚本可以直接利用ghdb_scraper.py收集到的信息。
---- 最近,为了提取裁判文书网的有关信息,自己迈入Python的学习之路,写了快两周的代码,自己写这篇文章总结下踩过的坑,还有遇到一些好的资料和博客等总结下(站在巨人肩膀上,减少重复工作),以便自己后期复习和参考和、分享给大家交流学习,也欢迎大家补充些精彩内容。 一、环境搭建和工具准备 1、为了省去时间投入学习,推荐直接安装集成环境 Anaconda 2、IDE:Pycharm、Pydev 3、工具:Jupyter Notebook(安装完Anaconda会有的) 二、Python基础视频教程
当我们执行下面的hello.py时,使用的flask自带的服务器,完成了web服务的启动。在生产环境中,flask自带的服务器,无法满足性能要求。
简易服务器:在命令执行的所在路径启动一个http服务器,然后你可以通过浏览器访问该路径下的所有文件。
Nginx的一个常见使用场景是反向代理,可以用来隐藏后端服务地址或者做负载均衡使用。下面就来看看怎么实现一个最简单的反向代理。
Solitude是一款功能强大的隐私安全分析工具,可以帮助广大研究人员根据自己的需要来进行隐私问题调查。无论是好奇的新手还是更高级的研究人员,Solitude可以帮助每一名用户分析和研究应用程序中的用户隐私安全问题。
自动配置 WARP WireGuard 双栈全局网络(所有出站流量走 WARP 网络)
首先我们安装一下环境,这里如果你的kali比较老可能需要更新一下python环境,不然会启动失败。
爬虫面试常见问题 一.项目问题: 你写爬虫的时候都遇到过什么反爬虫措施,你是怎样解决的 用的什么框架。为什么选择这个框架 二.框架问题: scrapy的基本结构(五个部分都是什么,请求发出去的整个流程) scrapy的去重原理(指纹去重到底是什么原理) scrapy中间件有几种类,你用过哪些中间件 scrapy中间件在哪里起的作业(面向切片编程) 三.代理问题: 为什么会用到代理 代理怎么使用(具体代码, 请求在什么时候添加的代理) 代理失效了怎么处理 四.验证码处理: 登陆验证码处理 爬取速度过快出现的验
Name value domain path expires
创建工程 $ django-admin startproject myblog 创建应用 分隔功能,一个功能对应一个应用 $ python3 manage.py startapp blog 在 settings.py 中添加应用 INSTALLED_APPS = [ ... 'blog', ] 启动服务 测试使用,后续使用 Nginx $ python3 manage.py runserver 模板 在应用目录下新建 Templates 文件夹存放 HTML 文件 生成数据表 $ python3 man
Spray365是一款功能强大的密码喷射工具,该工具主要针对微软服务而设计,可以帮助广大研究人员通过密码喷射技术识别微软账号(Office 365 / Azure AD)中的有效凭证。
手记,以免下次配置再入坑。有些细节未做详细描述,如果有问题,可以评论或私信我。 初次尝试搭python服务器,强撸python3,花样作死。过程中出现各种错误,不停google,搜到的时间大部分在2012年-2014年。让我不禁怀疑,真的没人用py搭服务器嘛?怎么比ruby还少。。。 相关技术点:django, gunicorn, virtualenv, circus, nginx 陆续花了一个月时间,先是折腾flask,完了折腾django,再到部署。感觉身体被掏空。说好的人生苦短,要用python呢。相
按照 Django 官方文档的指引,我们已经做好了一个投票应用。我们是在本地开发的,项目最终上线是要部署到服务器上的,本篇笔记记录了我个人部署的整个过程,仅供参考。
安装好之后, 然后到python的解压文件夹下 Modules 目录, 找到Setup.dist文件,将下面几行的注释去掉(下图已去掉)。 vim Setup.dist (约50%处) 209行,原来人家是注释的,你打开,之后就变为
在红队演戏过程中,往往需要获取到针对目标域的访问权限。在这个过程中,很多红队人员会选择使用暴露在互联网上的代理服务器来实现目标域的访问,那么此时就需要在互联网上收集公开暴露的凭证信息。
IPC,WMI,SMB,PTH,PTK,PTT,SPN,WinRM,WinRS,RDP,Plink,DCOM,SSH;Exchange,LLMNR投毒,Plink,DCOM,Kerberos_TGS,GPO&DACL, 域控提权漏洞,约束委派,数据库攻防,系统补丁下发执行,EDR定向下发执行等。
PoshC2 主要是用 Python3 编写的,遵循模块化格式,使用户能够添加自己的模块和工具,从而实现可扩展且灵活的 C2 框架。开箱即用的 PoshC2 带有 PowerShell/C# 和 Python2/Python3 植入物,除了 Python2/Python3 有效负载外,还有用 PowerShell v2 和 v4、C++ 和 C# 源代码、各种可执行文件、DLL 和原始 shellcode 编写的有效负载。这些在各种设备和操作系统上启用 C2 功能,包括 Windows、*nix 和 OSX。
验证码目前可以本地识别,需要下载模型,放于项目根目录,感兴趣的可以点击下方卡片在公众号Python小二后台回复12306领取
在使用资产测绘程序进行信息收集的时候,又遇到一个问题:以 fofa 为例,我现在通过其他手段,收集了一些分公司、全资公司名称、子域名、IP、icp备案号、网页title、电话号码等,信息量这么老大,怎么才能把这些数据都通过 fofa 过一遍呢?
意思是, 将/etc/supervisor/conf.d/下的*.conf文件加入,我们只需要在/etc/supervisor/conf.d/添加节点文件即可(类似Nginx的配置文件)
如果架构是Nginx+uWSGI+APP,uWSGI是一个中间件 如果架构是uWSGI+APP,uWSGI是一个服务器
今天給大家介紹的是一款名叫Dwarf的逆向分析調試工具,該工具基於Pyqt5和Frida實現,專為逆向工程師、安全破解人員和安全分析專家設計。
ProxyPool简易高效的代理池,提供如下功能:定时抓取免费代理网站,简易可扩展。使用 Redis 对代理进行存储并对代理可用性进行排序。定时测试和筛选,剔除不可用代理,留下可用代理。提供代理 API,随机取用测试通过的可用代理。代理池原理解析可见「如何搭建一个高效的代理池」,建议使用之前阅读。使用准备首先当然是克隆代码并进入 ProxyPool 文件夹:
Logsensor是一款功能强大的传感器扫描工具,在该工具的帮助下,广大研究人员不仅能够轻松发现和识别目标应用程序的登录面板,而且还可以扫描POST表单的SQLi漏洞缺陷。
git clone https://github.com/maurosoria/dirsearch
想要构建高效且强大的爬虫,Python3 和 Playwright 是最佳组合。Python3 是一种简洁易读的编程语言,拥有丰富的库和框架,可以轻松地开发网络爬虫。Playwright 是一个自动化库,可以模拟浏览器操作,处理复杂的网页和动态内容,提取数据和测试网站。使用 Python3 和 Playwright,你可以编写可靠且可扩展的爬虫,实现数据提取、网络抓取和自动化测试等功能,同时保证代码的可维护性和生产力。
Mac直接在bash中输入ssh root@你的主机ip Windows请下载ssh远程连接工具例如Putty 腾讯云默认不能以root身份登录,请使用以下方式登录
领取专属 10元无门槛券
手把手带您无忧上云