IT派 - {技术青年圈} 持续关注互联网、区块链、人工智能领域 黑客去入侵一个网站的时候往往需要搜集它的很多信息,这其中包括利用网站漏洞,社工,还有就是用搜索引擎进行搜索,而常被我们利用的搜索网站——谷歌就是一个非常好的信息搜索工具,下面就给大家普及一下谷歌搜索的技巧。 Google高级预定义搜索语法如下: intitle:表示搜索在网页标题中出现第一个关键词的网页。例如"intitle:黑客技术 "将返回在标题中出现"黑客技术 "的所有链接。 用"allintitle: 黑客技术 Google"则
这篇文章主要介绍了PHP记录搜索引擎蜘蛛访问网站足迹的方法,实例分析了针对php记录搜索引擎蜘蛛访问足迹的技巧,涉及数据库的创建及php记录各类常见搜索引擎访问的方法,需要的朋友可以参考下。 数据库版:php蜘蛛记录数据库版.zip ⒈首先导入zz.sql数据库文件; ⒉上传zz.php到网站根目录; txt记录版:php蜘蛛记录txt版.zip ⒈上传zz.php到网站根目录; ⒉上传zz.txt到网站根目录; 本文实例讲述了PHP记录搜索引擎蜘蛛访问网站足迹
---- layout: default title: 高效搜索 category: [技术, 安全] comments: true --- 背景介绍 之前看到过类似的文章,但是已经忘记出处在哪儿了.今天看到这个就收藏了下了.对于快速搜索信息帮助很大! 文章内容 黑客去入侵一个网站的时候往往需要搜集它的很多信息,这其中包括利用网站漏洞,社工,还有就是用搜索引擎进行搜索,而常被我们利用的搜索网站——谷歌就是一个非常好的信息搜索工具,下面就给大家普及一下谷歌搜索的技巧。 Google高级预定义搜索语法如
众所周知,绝大多数网站都会有一个首选域名,从用户体验考虑,通常站长们还会另外解析一个域名,并设置 301 重定向。例如,用户未输入 www 的时候,仍然可以访问到我们的网站,就像访问 http://b
robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。
要知道WordPress robots.txt文件中的“Disallow”命令与页面头部的元描述noindex 的作用不完全相同。您的robots.txt会阻止抓取,但不一定不进行索引,网站文件(如图片和文档)除外。如果搜索引擎从其他地方链接,它们仍然可以索引您的“不允许爬取”的页面。
这篇文章主要介绍了PHP记录搜索引擎蜘蛛访问网站足迹的方法,实例分析了针对php记录搜索引擎蜘蛛访问足迹的技巧,涉及数据库的创建及php记录各类常见搜索引擎访问的方法,需要的朋友可以参考下。
用过百度站内搜索的朋友,都知道前不久推出了一个绿色收录通道,改善站内搜索的时效性和覆盖率,说明如下: 站内搜索结果数太少?最新的页面搜不到?您可以在本页面提交数据,提升您的站内搜索收录时效性和覆盖率。 方法 1:提交一个种子页面 URL,如网站首页,搜索引擎将从这个页面进行扩散,抓取站点的其他页面。 方法 2:提交网站列表(即 sitemap),列举您站点需要抓取的所有网页,该方法收录效果更好。 注:在此提交的数据将用于改善您的站内搜索质量,同时有机会被百度网页搜索收录,但并没有收录上的优待。 虽然,
site:*. gitee.com intext:账号 ( ftp://*:* 密码 地址)
robots.txt 是存放在站点根目录下的一个纯文本文件。虽然它的设置很简单,但是作用却很强大。它可以指定搜索引擎蜘蛛只抓取指定的内容,或者是禁止搜索引擎蜘蛛抓取网站的部分或全部内容。这篇文章就讲解一下,zblog博客程序中如何设置robots.txt文件
最近发现我的导航网站没有了广告,是的空白一片,想着是不是被禁了,然后登录账户查看,谷歌给非提示是“出现广告抓取工具错误,这可能导致收入减少。”,点击右侧操作才提示抓取工具:Robots.txt 文件无法访问导致的原因,好吧,我第一印象就是怎么可能呢,我又没删除,去网站目录查看果真没有这个文件了,好吧,我的错。
最近我发现搜索引擎收录了很多“夏末浅笑博客”的重复页面,当然了这跟我前一段时间,将站点根目录下的Robots.txt文件删除掉有直接的关系,Robots.txt文件是一个用来告诉搜索引擎执行Robots协议的文件,我们将Robots协议写在Robots.txt文件里面,告诉搜索引擎我的网站哪些页面可以收录,哪些页面不可以收录。
搜索网页中含有该关键字的网页,eg: intext:后台管理,将只返回正文中包含后台管理的网页:
用dedecms织梦系统建站的童鞋,在遇见很喜欢的网站的时候总想知道人家的网站是用什么做的,怎么知道网站是不是dedecms建的呢??
//记录搜索引擎爬行记录 $searchbot = get_naps_bot();
Nginx几乎是当下绝大多数公司在用的web应用服务,熟悉Nginx的配置,对于我们日常的运维工作是至关重要的,下面就Nginx的location配置进行梳理: 1)location匹配的是nginx
Linuxfind命令是功能强大的工具,使系统管理员可以根据广泛的搜索条件来定位和管理文件和目录。它可以按名称,类型或扩展名,大小,权限等查找目录和文件。
Robots协议(又称爬虫协议、机器人协议等)全称为网络爬虫排除标准(Robots Exclusion Protocol),是国际互联网界通行的道德规范,Robots是站点与spider重要的沟通渠道,网站通过robots告诉搜索引擎哪些页面可以捕获,哪些页面不能捕获。其目的是保护网站数据和敏感信息,确保用户的个人信息和隐私不受侵犯。搜索引擎需要自觉遵守,因为它不是命令。
Google Hacking 是利用谷歌搜索的强大,来在浩瀚的互联网中搜索到我们需要的信息。轻量级的搜索可以搜素出一些遗留后门,不想被发现的后台入口,中量级的搜索出一些用户信息泄露,源代码泄露,未授权访问等等,重量级的则可能是mdb文件下载,CMS 未被锁定install页面,网站配置密码,php远程文件包含漏洞等重要信息。
1. 执行系统命令: system, passthru, shell_exec, exec, popen, proc_open
因此建立robots.txt文件是很有必要的,网站中重复的内容、页面或者404信息过多,搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常听到的“降低权重”,这样网站的排名就不好了。
在渗透过程中常常需要通过搜索引擎来针对目标进行信息搜集,在互联网中搜索到我们需要的信息。轻量级的搜索可以搜素出一些遗留后门、后台入口等;中量级的搜索出一些用户信息泄露、源代码泄露和未授权访问等信息;重量级的则可能是mdb文件下载、CMS 未被锁定install页面、网站配置密码和php远程文件包含漏洞等重要信息。利用搜索引擎快速找到我们想要的信息,需要用到一些搜索语法,以百度搜索为例:
经过上篇文章的学习,相信大家对分词的概念已经有了更深入的了解了吧。我们也知道了,SCWS 是 XS 中的一个重要组成部分,但它也是可以单独拿出来使用的。而对于分词器来说,不管是 SCWS 还是现在流行的 IK、Jieba ,其实概念方面都是差不多的。比如说它们都需要字典来做为分词的依据,也会有停用词库这一类的附加字典。今天,我们主要来学习的就是 SCWS 字典相关的一些配置。此外,还有自定义分词器的实现。
一: 用于查找带名称文件的基本查找命令 二:根据权限查找文件 三:基于所有者和组搜索文件 四: 根据日期和时间查找文件和目录 五:根据大小查找文件和目录 一: 用于查找带名称文件的基本查找命令 在当前目录中使用名称查找文件 在当前工作目录中查找名称为rumenz.txt 的所有文件。 # find . -name rumenz.txt ./rumenz.txt 在主目录下查找文件 查找/home目录下名称为rumenz.txt 的所有文件。 # find /home -name rumenz.txt
开放端口:利用fofa查件搜集一波,nmap搜集到135、139、445是filtered状态
文件包含就是将一个文件包含到自己的文件中执行。它可分为本地包含和远程包含,本地包含即包含本地磁盘上的文件,文件名称是相对路径或绝对路径,远程包含即包含互联网上的文件,文件名称是 URL。
开放端口:利用fofa插件搜集一波,nmap搜集到135、139、445是filtered状态
原文链接:https://rumenz.com/rumenbiji/linux-grep-skills.html
0x00 简介 ---- 之前看了seay写的PHP代码审计的书,全部浏览了一遍,作为一个代码审计小白,希望向一些和我一样的小白的人提供一下我的收获,以及一个整体的框架和常见漏洞函数。这也算是这本书的一个学习笔记吧,可以结合我捋顺的思路来看这本书。: ) 0x01 整体 ---- 学习代码审计的目标是能够独立完成对一个CMS的代码安全监测。其通用的思路有: 通读全文代码,从功能函数代码开始阅读,例如include文件夹下的common_fun.php,或者有类似关键字的文件。 看配置文件,带有config关
文章目录 一、robots 二、使用步骤 1.点击获取在线场景 2.查看robots协议 总结 ---- 一、robots 题目链接:https://adworld.xctf.org.cn/task/
grep基本命令 Linux之grep命令 显示不以#开头的行 > grep ^[^#] rumenz.txt 显示#开头的行 > grep ^# rumenz.txt 从单个文件查找指定字符串 > grep "rumenz" 1.txt 从多个文件查找指定字符串 > grep "rumenz" *.html 忽略大小写, 并显示行号 > grep -in "rumenz" 1.txt 显示查找到的总行数 > grep -c "rumenz" 1.txt 查找目录下所有文件,并只输出含有该文本
开放了22的ssh 80的http apache 111的 rpcbind等等。 重点看看到在80端口上运行着Drupal 7和一些敏感的目录文件等等。
开始审计前,先看一下目录结构,判断是否使用框架开发,常见的框架如Thinkphp、Laravel、Yii等都有比较明显的特征
从搜索引擎规范角度看,我们的网站在使用CMS程序之后是需要配置robots.txt文件的。比如WordPress程序目前会自动生成内置的robots.txt文件,但是在使用ZBLOG PHP程序的时候是没有自动生成的,我们需要手动添加到网站根目录。
这是作者新开的一个专栏《BUUCTF从零单排》,旨在从零学习CTF知识,方便更多初学者了解各种类型的安全题目,后续分享一定程度会对不同类型的题目进行总结,并结合CTF书籍和真实案例实践,希望对您有所帮助。当然,也欢迎大家去BUUCTF网站实践,由于作者能力有限,该系列文章比较基础,写得不好的地方还请见谅,后续会持续深入,加油!
子模板文件是从零开始创建 WordPress 主题系列教程的第十五篇,这篇将和像上一篇创建 header.php, sidebar.php 和 footer.php 这些模板文件一样创建更多的子模板文件。
grep awk sed是Linux下文本处理常用的命令,能完成很多神奇的操作,今天就分享一下这三个命令最常见的用法
里面有着大大小小的文件以及子文件夹,当你需要搜索一个名字为:仙士可.txt的文件时
搜索引擎系列的最后一篇了。既然是最后一篇,那么我们也轻松一点,直接来看一套非常有意思的纯 PHP 实现的搜索引擎及分词方案吧。这一套方案由两个组件组成,一个叫 TNTSearch ,另一个则是大名鼎鼎的结巴分词的 PHP 版本。它们都是纯 PHP 实现的,非常轻量级的搜索引擎和分词工具,最主要的是,如果各位大佬有兴趣,可以深入学习它们的源码。之前就一直在强调,所有的原理都是相通的,通过对这两个组件的学习,其实就能清楚 Xapian 和 SCWS 也就是 XS 整个系统是怎么运行的。甚至也可以说,就能了解到 ES 和 IK 是大致是怎么运行的了。
0x001 基础语法 1.1 语法说明 inurl: 在url地址栏中显示的信息页面 intext: 显示在正文信息中的内容页面 site: 显示指定某个域名下的所有页面 filetype: 搜索文件的后缀或者扩展名 intitle: 限制你搜索的网页标题页面 link: 将显示有到指定网页的链接的网页 cache: 将显示在Google cache缓存中的网页 allintitle: 搜索所有关键字构成标题的网页.(allintite:关键字或者url地址) 1.2 操作符说明 + 指定一个一定存在的
作者 | Wray 来自 | http://www.codebelief.com/ Linux系统中的 find 命令在查找文件时非常有用而且方便。它可以根据不同的条件来查找文件,例如权限、拥有者、修改日期/时间、文件大小等等。在这篇文章中,我们将学习如何使用 find命令以及它所提供的选项来查找文件。 在绝大多数Linux发行版中,你都可以直接使用 find 命令而无需进行任何安装操作。如果你想在linux系统的命令行中变得特别高效,那么 find 是你必须掌握的命令之一。 find 命令的基本语法如
BeEF实战 BeEF是一个很强大的XSS演示平台,BeEF有一个控制后台,攻击者可以在后台控制前端的一切。 假如“http://www.xxx/abc.php?id=1”存在xss攻击漏
在系统被入侵后,要想了解下系统被入侵的过程,最好的途径大概就是通过查看日志,对日志进行分析,来还原整个过程的来龙去脉。每次对几百兆的日志进行查看时确实头疼,尤其是对关键字进行搜索时还会出现编辑器卡顿的情况。所以就想着能不能利用脚本去完成一些常规的排查过程,来辅助完成日志分析工作。
目录遍历又称"路径遍历",由于web服务器配置错误导致网站的目录暴露可以被随意浏览,这种被称为"目录遍历"
这两天由于谷歌字体反代域名(fonts.maho.cc)出现了一些问题,使得网站前端长期卡在加载字体CSS文件上,导致网站响应速度飙到了15秒+,这是一个亟待解决的问题。
作者 | Wray Linux系统中的 find 命令在查找文件时非常有用而且方便。它可以根据不同的条件来查找文件,例如权限、拥有者、修改日期/时间、文件大小等等。在这篇文章中,我们将学习如何使用 find命令以及它所提供的选项来查找文件。 在绝大多数Linux发行版中,你都可以直接使用 find 命令而无需进行任何安装操作。如果你想在linux系统的命令行中变得特别高效,那么 find 是你必须掌握的命令之一。 find 命令的基本语法如下: $ find [path] [option] [expre
领取专属 10元无门槛券
手把手带您无忧上云