首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

暴露会话Cookie的CNAME伪装机制

该文为发表于AsiaCCS 2021的Oversharing Is Not Caring: How CNAME Cloaking Can ExposeYour Session Cookies。当前,互联网企业经常通过跟踪、分析其用户的行为数据以产生额外利润(例如广告)或改进其网站。因此,也就簇生了一些专业的第三方公司为其它公司提供跟踪用户并投放广告的业务(T/A服务)。为了能在不同网站定位同一用户,这些T/A服务公司会使用第三方Cookies。但是,由于最近浏览器为了保护用户隐私,默认屏蔽第三方Cookies的原因,T/A服务公司要求其客户配置DNS设置,使用CNAME伪装机制将其基础设置包含在第一方网站的子域中,使得绕过浏览器的隐私保护机制。在本篇论文中,作者针对由于CNAME伪装机制导致会话Cookies泄露给T/A服务公司的情况进行研究。

02

矩阵式WAF部署——破解信任危机的新思路

传统安全建设思路要求将网络按照安全等级划分,形成不同属性的安全域,如外网接入域、核心交换域、对外发布域、办公终端域及安全管理域等,并基于各个安全域的安全等级来制定相应的域间隔离与访问控制策略。通常根据不同强度要求的安全策略,所选用和部署的安全产品也会有针对性。例如外网接入域的边界,除了常规的防火墙之外,还会选择DDoS清洗系统、入侵防御系统等;在核心交换域,依据其流量全面的特点,部署全栈的流量分析和资产治理类系统;在安全管理域,部署集中管理和事件审计类平台;而在对外发布域的边界,则会选择更加深入和有针对性的细粒度防护产品,例如Web应用防火墙,即WAF产品,也是我们今天讨论的重点。

06

Robots.txt指南

当搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在网络上常看到的“拒绝Robots访问标准”(Robots Exclusion Standard)。下面我们简称RES。 Robots.txt文件的格式:Robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成:   1) 一个User-Agent(用户代理)字符串行;   2) 若干Disallow字符串行。   记录格式为:<Field> ":" <value>   下面我们分别对这两个域做进一步说明。 User-agent(用户代理):   User-agent行(用户代理行) 用于指定搜索引擎robot的名字,以Google的检索程序Googlebot为例,有:User-agent: Googlebot   一个robots.txt中至少要有一条User-agent记录。如果有多条User-agent记录,则说明有多个robot会受到RES标准的限制。当然了,如果要指定所有的robot,只需用一个通配符"*"就搞定了,即:User-agent: * Disallow(拒绝访问声明):   在Robots.txt文件中,每条记录的第二个域是Disallow:指令行。这些Disallow行声明了该网站中不希望被访问的文件和(或)目录。例如"Disallow: email.htm"对文件的访问进行了声明,禁止Spiders下载网站上的email.htm文件。而"Disallow: /cgi-bin/"则对cgi-bin目录的访问进行了声明,拒绝Spiders进入该目录及其子目录。Disallow声明行还具有通配符功能。例如上例中"Disallow: /cgi-bin/"声明了拒绝搜索引擎对cgi-bin目录及其子目录的访问,而"Disallow:/bob"则拒绝搜索引擎对/bob.html和/bob/indes.html的访问(即无论是名为bob的文件还是名为bob的目录下的文件都不允许搜索引擎访问)。Disallow记录如果留空,则说明该网站的所有部分都向搜索引擎开放。 空格 & 注释   在robots.txt文件中,凡以"#"开头的行,均被视为注解内容,这和UNIX中的惯例是一样的。但大家需要注意两个问题:   1) RES标准允许将注解内容放在指示行的末尾,但这种格式并不是所有的Spiders都能够支持。譬如,并不是所有的Spiders都能够正确理解"Disallow: bob #comment"这样一条指令。有的Spiders就会误解为Disallow的是"bob#comment"。最好的办法是使注解自成一行。   2) RES标准允许在一个指令行的开头存在空格,象"Disallow: bob #comment",但我们也并不建议大家这么做。 Robots.txt文件的创建:   需要注意的是,应当在UNIX命令行终端模式下创建Robots.txt纯文本文件。好的文本编辑器一般都能够提供UNIX模式功能,或者你的FTP客户端软件也“应该”能够替你转换过来。如果你试图用一个没有提供文本编辑模式的HTML编辑器来生成你的robots.txt纯文本文件,那你可就是瞎子打蚊子——白费力气了。 对RES标准的扩展:   尽管已经提出了一些扩展标准,如Allow行或Robot版本控制(例如应该忽略大小写和版本号),但尚未得到RES工作组的正式批准认可。 附录I. Robots.txt用法举例:   使用通配符"*",可设置对所有robot的访问权限。   User-agent: *   Disallow:   表明:允许所有搜索引擎访问网站下的所有内容。   User-agent: *   Disallow: /   表明:禁止所有搜索引擎对网站下所有网页的访问。   User-agent: *   Disallow: /cgi-bin/Disallow: /images/   表明:禁止所有搜索引擎进入网站的cgi-bin和images目录及其下所有子目录。需要注意的是对每一个目录必须分开声明。   User-agent: Roverdog   Disallow: /   表明:禁止Roverdog访问网站上的任何文件。   User-agent: Googlebot Disallow: cheese.htm   表明:禁止Google的Googlebot访问其网站下的cheese.htm文件。   上面介绍了一些简单的设置,对于比较复杂的设置,可参看一些大型站点如CNN或Looksmart的robots.txt文件(www.cnn.c

02

GSLB相关概念

大家好,又见面了,我是你们的朋友全栈君。域组:当网站使用CDN提供服务并用DNS解析原理构建GSLB时,通常会由权威DNS设置一个CDN对源站提供服务的域名作为源站域名的别名(CNAME).这个别名被称为”域组”,GSLB可以将它映射成一个由多个虚拟服务器(Virutal Server)组成的服务池(Pool),这些虚拟服务器就是用户输入网站URL后经负载均衡调度直接提供服务的服务器.GSLB在解析域名的时候会直接返回其中一个虚拟服务器的IP地址.比如www.netitv.com.cn域名CNAME设置为www.netitv.cdn.com.cn.如果需要GSLB来进行解析www.netitv.com.cn的IP地址,那么就需要在GSLB上面设定域组www.netitv.cdn.com.cn的A记录,这样GSLB就会按照内部设置的负载均衡策略,选择相关联的Pool以及虚拟服务器来提供服务

02

cookie是什么?

Cookie 并不是它的原意“甜饼”的意思, 而是一个保存在客户机中的简单的文本文件, 这个文件与特定的 Web 文档关联在一起, 保存了该客户机访问这个Web 文档时的信息, 当客户机再次访问这个 Web 文档时这些信息可供该文档使用。由于“Cookie”具有可以保存在客户机上的神奇特性, 因此它可以帮助我们实现记录用户个人信息的功能, 而这一切都不必使用复杂的CGI等程序 [2] 。 举例来说, 一个 Web 站点可能会为每一个访问者产生一个唯一的ID, 然后以 Cookie 文件的形式保存在每个用户的机器上。如果使用浏览器访问 Web, 会看到所有保存在硬盘上的 Cookie。在这个文件夹里每一个文件都是一个由“名/值”对组成的文本文件,另外还有一个文件保存有所有对应的 Web 站点的信息。在这里的每个 Cookie 文件都是一个简单而又普通的文本文件。透过文件名, 就可以看到是哪个 Web 站点在机器上放置了Cookie(当然站点信息在文件里也有保存) [2] 。

02

渗透测试流程和方法

渗透测试,是为了证明网络防御按照预期计划正常运行而提供的一种机制。不妨假设,你的公司定期更新安全策略和程序,时时给系统打补丁,并采用了漏洞扫描器等工具,以确保所有补丁都已打上。如果你早已做到了这些,为什么还要请外方进行审查或渗透测试呢?因为,渗透测试能够独立地检查你的网络策略,换句话说,就是给你的系统安了一双眼睛。而且,进行这类测试的,都是寻找网络系统安全漏洞的专业人士。 渗透测试就是利用我们所掌握的渗透知识,对网站进行一步一步的渗透,发现其中存在的漏洞和隐藏的风险,然后撰写一篇测试报告,提供给我们的客户。客户根据我们撰写的测试报告,对网站进行漏洞修补,以防止黑客的入侵! 渗透测试的前提是我们得经过用户的授权,才可以对网站进行渗透。如果我们没有经过客户的授权而对一个网站进行渗透测试的话,这是违法的。

03
领券