最近发现国外有一个系列,专门探究从输入URL到页面可交互的详细过程,是一份干货十足的好资料。笔者决定分为四篇文章对其进行有删减地翻译,只希望能对大家有所帮助,毕竟这是前端必备的知识点,也是容易忽略掉某些细节的知识点。事先声明,这个系列完全由笔者手翻,如有翻译不当的地方,恳请读者给出改进意见!
https://github.com/androidmumo/Bing-upyun
在web渗透测试中,信息侦察与收集相当重要,每个经验丰富的黑客都有自己独特的信息收集妙招,信息搜集是渗透的第一步,也是至关重要的一步,信息的多少决定攻击的范围有多少。Recon-ng是用Python编写的功能齐全的Web侦察框架。具有独立模块,数据库交互功能和内置的便捷功能,最主要的recon-ng是一个被动信息搜集框架,主要利用第三方API进行信息收集。
今天分享的这篇Writeup为作者通过利用目标网站“忘记密码”功能,在重置密码请求发包中添加X-Forwarded-Host主机信息,欺骗目标网站把重置密码的链接导向到自己的服务器,从而实现对受害者账户的完全劫持。
用过京东网购都知道,为什么京东物流能当天/隔日到?因为它有前置仓、区域仓的仓储配送机制
WordPress博客的加速可以说是老生常谈了,在这里我分享一下我博客的分享技术。 我采用的加速技术主要是wordpress的缓存插件,动静分离和腾讯云CDN。
有总比没有好,好久不写 python 了,先撸一个 API 试下,毕竟是轻量级爬虫,理所当然想到了使用vercel来做后端
不知道大家最近察觉到了没有,微软的 Edge 浏览器越来越主流了,至少明月自己都知道不少博客站长们都已经开始放弃谷歌 Chrome 转投 Edge 了,明月自【我的电脑默认浏览器为新版 Edge 了!】一文开始就是用 Edge 至今已经快三个月了,无论是家里电脑还是工作电脑甚至手机上默认浏览器都是 Edge 了,一个字儿——爽!体验真的是太好了,浏览速度提升很明显,扩展、贴心工具、账号同步等等都是用的超爽!
网站收录主要包括网站验证、链接提交两个核心步骤,此外还可扩展自动推送、robots、rel配置
问题「用 FPGA 代替 CPU」中,这个「代替」的说法不准确。我们并不是不用 CPU 了,而是用 FPGA 加速适合它的计算任务,其他任务仍然在 CPU 上完成,让 FPGA 和 CPU 协同工作。 本回答将涵盖三个问题: 为什么使用 FPGA,相比 CPU、GPU、ASIC(专用芯片)有什么特点? 微软的 FPGA 部署在哪里?FPGA 之间、FPGA 与 CPU 之间是如何通信的? 未来 FPGA 在云计算平台中应充当怎样的角色?仅仅是像 GPU 一样的计算加速卡吗? 一、为什么使用 FPGA? 众所
AI 科技评论按:本文作者李博杰,本文整理自知乎问题《如何评价微软在数据中心使用 FPGA 代替传统 CPU 的做法?》下的回答,AI 科技评论授权转载。
众所周知,通用处理器(CPU)的摩尔定律已入暮年,而机器学习和 Web 服务的规模却在指数级增长。
go-proxy-bing 基于微软 New Bing 用 Vue3 和 Go 简单定制的微软 New Bing 演示站点,拥有一致的 UI 体验,支持 ChatGPT 提示词,国内可用,基本兼容微软 Bing AI 所有功能,无需登录即可畅聊。 最近github上这个项目比较火,所以我也来体验一下 地址:https://github.com/adams549659584/go-proxy-bingai
基于微软 New Bing 用 Vue3 和 Go 简单定制的微软 New Bing 演示站点,拥有一致的 UI 体验,支持 ChatGPT 提示词,国内可用,基本兼容微软 Bing AI 所有功能,无需登录即可畅聊。
前言 自从搞清楚了跨域原理后一直自鸣得意,感觉跨域没啥问题了。而事实上对关于跨域的几个header的理解也有限,但那又如何,我能做到跨域就行了。今天想把博客背景图改成bing的每日一图,发现遇到跨域问题。首先想到的就是自己写一个web,请求bing,然后传出结果,把自己的接口允许跨域。确实做到了,但是。我找了一台阿里云服务器,我安装了java,我编写了一个基于dropwizard的webservice。我需要写脚本去部署,确保系统稳定,挂了自动重启。我要写一堆的java代码来完成这件事。忽然想到nginx
编者按:本文系微软亚洲研究院实习生李博杰在知乎上针对“如何评价微软在数据中心使用FPGA代替传统CPU的做法?”问题的回答。AI科技评论已获得转载授权。 首先,原问题「用 FPGA 代替 CPU」中,这个「代替」的说法不准确。我们并不是不用 CPU 了,而是用 FPGA 加速适合它的计算任务,其他任务仍然在 CPU 上完成,让 FPGA 和 CPU 协同工作。 本文将涵盖三个问题: 为什么使用 FPGA,相比 CPU、GPU、ASIC(专用芯片)有什么特点? 微软的 FPGA 部署在哪里?FPGA 之间、
服务发现就是一种提供服务发布和查找的服务,是基于服务架构(SOA)的核心服务,需具备以下关键特性:
《Python黑帽子:黑客与渗透测试编程之道》的读书笔记,会包括书中源码,并自己将其中一些改写成Python3版本。书是比较老了,anyway,还是本很好的书
新的一天新的难过,昨天无敌倒霉,可能一年总有那么一天是这样的吧,所以,才,导致了这篇文章迟来了一天
0x00 About teemo 域名收集及枚举工具 提莫(teemo)是个侦察兵,域名的收集如同渗透和漏洞挖掘的侦察,故命名为提莫(Teemo)! 该工具主要有三大模块: 利用搜索引擎: http:
使用 Github Pages ,部署静态网站非常方便。一次配置,每次提交都可以自动部署更新。再加上 jsDelivr、Cloudflare 加速,在免费方案中,已经生产可用。
腾讯云提供了 CDN 服务:CDN 内容分发网络 _CDN内容加速_CDN加速-腾讯云 (tencent.com)
不过说真的,提交的过程稍微有点曲折,一开始找不到提交站点地图的地方,后来仔细找才找到。而且一开始默认语言是英文,对我这种英文不是很好的人不太友好,但我找了一下,找到了改语言的地方之后就改成了中文。要提交东西给搜索引擎,账号首先就是必备品,不过必应的还挺不错,有三家账户可以登录,其中一个是自己家(微软),一个是谷歌(好像是吧,记不清了)我选择的用微软账号登录,登录之后一开始只看到一个“提交url”,正准备去手动一个个提交的时候发现了有个“站点地图”,我就去看了下服务器上sitemap.xml的路径,然后就提交过去了,必应很配合,很快就扫描并识别了
文章 ID 不连续是很多 “强迫症” 博主的烦恼,尤其是使用了文章 ID 作为固定连接之后,每篇文章的 ID 并不连续,非常不好。 从原因来看,文章 ID 不连续主要是因为自动保存的文章、媒体、页面和其它文章类型占用了 ID 导致的,网上的解决方法一般是强制的禁止自动草稿、不在媒体库上传媒体、不建立页面等等,但这种方法会导致使用上的不便利,而且很有局限性。 解决方案 本文说的方法也是治标不治本,但却能比较好的解决链接上的 ID 不连续这个问题。这个方法就是利用别名,自动给文章设置一个别名,别名按顺序递增,
进行渗透测试之前,最重要的一步就是信息收集,在这个阶段,我们要尽可能地收集目标组织的信息。所谓”知己知彼,百战不殆“我们越是了解测试目标,测试的工作就越容易,在信息收集汇总中,我们要收集的有服务器的配置信息,网站的,敏感信息,其中包括域名
零基础保姆级小白节点搭建教学,目前最安全最稳定的搭建方式,通过x-ui面板实现单端口多用户合租
$time = date("Ymd", time()); $log = "./log/" . $time . '.txt'; //判断缓存文件是否存在 if (file_exists($log)) { //读取缓存 $imgurl = file_get_contents($log); //跳转至图片地址 header("Location: $imgurl"); } else { //获取b
PyMeta是一款针对目标域名元数据的信息收集工具,该工具基于Python 3开发,是PowerMeta(基于PowerShell开发)的Python 3重构版本,在该工具的帮助下,广大研究人员可以将目标域名相关的网页元数据(文件等)提取到本地,这种技术可以有助于我们识别目标域名、用户名、软件/版本和命名约定等。
好了,说了这么多,我其实也是一个新站长,这是我这几天弄出来的一点经验,希望能给大家多一点帮助,以后再补充.
Tech 导读 现代的企业级或互联网系统往往需要进行流量规划,达成透明多级分流。流量从客户端发出到服务端处理这个过程里,流经的与功能无关的技术部件有(达成“透明分流”这个目标所采用的工具与手段):客户端缓存、域名服务器、传输链路、内容分发网络、负载均衡器、服务端缓存。透明分流带来的价值:高可用架构、高并发。本文主要介绍流量规划中的网络请求过程及: 第一部分:对一次网络请求的过程作简要介绍,然后介绍目前了解到的前端网络组件搭配方式、后端网络组件搭配方式 第二部分:介绍LB负载系统 、vip与rip 的映射关系 第三部分:介绍内网域名解析及公网域名解析
在互联网冲浪中,我们已经习惯了输入域名连接网站。也许你有了解过网络世界大家的「坐标」都是 IP 地址,但是 DNS 解析怎么找到 IP 地址?更有时,同一个域名申请还会返回不同的地址,这所谓 CDN 是如何实现的?
示例: text/html 、 image/png 、 application/pdf 、 video/mp4
将一个长url生成一个短链接是很常见的需求,本文尝试通过serverless的方式来提供这个功能,主要有两部分内容:
编者按:在无人不谈 AI 的时代,微软同样将目光投向了这个领域, 而它把赌注押在了 FPGA上 ——Project Catapult 于微软而言,暗示着改变未来全球系统运作的方式——至少在微软看来是这
HTTP(HyperText Transfer Protocol ,超文本传输协议),是一个基于请求与响应的,无状态的,应用层的协议,常基于TCP/IP协议传输数据,互联网上应用最广泛的一种协议,所有的WWW文件必须遵守这个标准。
毕竟对于前端来说,优化是躲不开的主题。在看200(cache)和304区别的时候,翻到了雅虎这边归纳出来的准则,虽然是十多年前的东西了吧,但是还是具有参考价值的,因此在原文基础上我进行了一些归纳翻译。
一、什么是DNS DNS全称为Domain Name System,即域名系统,其作用就是将我们经常使用的“网址”解析为IP地址。 在互联网上通信需要借助于IP地址,但人类对于数字的记忆能力远不如文字,那么将IP地址转换成容易记忆的文字是个好办法,可是计算机只能识别0、1代码,这时就需要一种机制来解决IP地址与主机名的转换问题。 早期由于网络上的主机数量有限,主机名和IP的解析借助于hosts文件即可完成,Linux中此文件一般存放路径为/etc/hosts,在此文件中手 动记录
CDN(Content Delivery Network,内容分发网络)是指一种通过互联网互相连接的电脑网络系统,利用最靠近每位用户的服务器,更快、更可靠地将音乐、图片、视频、应用程序及其他文件发送给用户,来提供高性能、可扩展性及低成本的网络内容传递给用户。
上网去搜索访问资源对于我们来说并不陌生,通过浏览器发送一个 HTTP 请求实现从客户端发送请求到服务器端获取所需要内容后并把内容回显展示在页面的一个过程。这个时候,我们所请求的内容就分为两种类型,一类是静态资源、一类是动态资源。
刚刚在水群的时候一下子发现博客背景图的图床死了,这就很苦恼啊,我的4k壁纸就这么没了,所以便想找一个不会死的图床,后来一想还是算了吧,不如用必应的每日一图。
关于获取他人帐户的控制权,我曾在网上学习了不少前辈的经验和技巧,而在花费了6到8个小时后,我在目标站redacted.com的忘记密码页面中找到了一些可利用的痕迹,并最终找到了一个可接管他人帐户的漏洞。
Bing搜索的首页每天都会推送一张很漂亮的图片,把它保存下来,当做电脑桌面或是自己的网站背景图还不是美滋滋…… 今天的bing图片是这样的 既然要抓取这张图片,首先就得弄清这张图是从
InfoHound是一款针对域名安全的强大OSINT工具,在该工具的帮助下,广大研究人员只需要提供一个Web域名,InfoHound就可以返回大量跟目标域
文章首发在freebuf,地址:信息收集流程 我们在进行渗透的过程中,信息收集可以说是很重要的一环,它直接影响你后续的测试,下面我就对信息收集流程进行一个简单的讲解。
在一次护网行动中再次深刻意识到了信息收集对于渗透测试整个流程的重要性,信息收集的完整性决定了你的渗透测试结果,“知己知彼,百战不殆”。
每次渗透测试都需要对目标资产进行信息搜集,其中子域名信息是非常重要的一部分。在主域防御措施严密且无法直接拿下的情况下,可以先通过拿下子域名,然后再一步步靠近主域。发现的子域名越多,意味着目标系统被渗透的可能性也越大。
必应搜索的图片是什么这里就不说了,昨天渣渣龙在群里艾特要我把Bing的每日一图作为网站背景图
百度搜索引擎与谷歌搜索引擎相比,百度搜索搜到的结果确实要比谷歌少了不少,通过谷歌语法做信息搜集,我们自然少不了留存一些谷歌镜像站,但是有些时候搜索中文网站相关信息时,百度搜索也许会有意想不到的信息,下面先推荐一些正在维护的谷歌镜像站。
然后访问你的域名看一看是否成功镜像,需要注意的一点是,如果被镜像的网站设置了防盗链,那么静态文件(js/css/图片)可能无法显示,这就没办法了。
搞渗透的人应该都清楚,给一个目标站点做测试,第一步就是信息收集,通过各种渠道和手段尽可能收集到多的关于这个站点的信息,帮助我们更多的去找到渗透点。而信息收集的方式有很多,大致有搜索引擎、域名注册网站、shodan、github信息收集工具、网站公告等等,甚至还有社工的方式。网上关于信息收集也有很多相关的文章介绍,其实方式方法都大同小异。今天我主要介绍一下我在做信息收集的时候用到的一些工具和自己写的一些脚本,帮助我在渗透过程中更加方便的做好这一步。
领取专属 10元无门槛券
手把手带您无忧上云