前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >防 Spam 的终极办法:Comments Link Redirect

防 Spam 的终极办法:Comments Link Redirect

作者头像
Denis
发布于 2023-04-15 06:11:09
发布于 2023-04-15 06:11:09
18400
代码可运行
举报
文章被收录于专栏:WordPress果酱WordPress果酱
运行总次数:0
代码可运行

Comments Link Redirect 这个插件主要功能是把留言者的链接和留言中链接的 URL 转化为一个跳转链接,如:http://blog.wpjam.com/?r=http://superdenis.com/

然后手工在 robots.txt 中添加一行以下代码即可:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Disallow: /?r=*

这样所有留言区的链接既不会被搜索引擎(包括百度,如果百度真如他所说它遵守 robots.txt 协议的话)索引,更不会给予权重。当然该插件并不会减少博客的垃圾留言,但是它能够让这些垃圾留言不能被索引,到你博客上获取权重,这样能够真正保护你的博客

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
​WordPress博客的SEO优化技巧
WordPress系统本身,默认安装的情况下使用默认模板,实际上对搜索引擎并不友好,并没有针对搜索引擎进行很好的设计,这就不如国内的Z-blog博客系统了,针对国人的操作习惯开发的,但是还是有很大一部分的网友再用wp,下面就简单的介绍一些技巧和方法可以使得WordPress能否对搜索引擎更为友好。
李洋博客
2021/06/15
5240
教你如何编写第一个爬虫
2019年不管是编程语言排行榜还是在互联网行业,Python一直备受争议,到底是Java热门还是Python热门也是一直让人争吵的话题。
AI科技大本营
2020/02/24
1.2K0
教你如何编写第一个爬虫
WordPress 站点记得要防范恶意的搜索攻击
什么是恶意搜索攻击?这种恶意搜索攻击,其实非常简单,就是通过既定的网址结构不断对网站发起不良关键词搜索访问,比如 WordPress 的搜索网址结构为 域名/?s=搜索词,而且可能还会顺便将访问的地址
明月登楼的博客
2021/07/02
1.2K0
生成Sitemap站点地图让搜索引擎更好的收录
写博客一般都希望自己的内容能被别人所看到,同时也希望提高自己博客的知名度和收获好评。那么这些最好的方法就是让搜索引擎对你感兴趣,收录你的内容。这就是SEO,中文名叫搜索引擎优化。
西柚dzh
2022/06/09
1.2K1
生成Sitemap站点地图让搜索引擎更好的收录
发现插件生成的robots.txt不能被谷歌和360识别
上次通过《正确的 Win 主机网站伪静态设置方法》重新设置了玛思阁的伪静态,当时由于使用 Rewrite robots 没有效果,就安装了一个生成 robots.txt 的插件,然后发现访问 robots 地址也有了指定的内容。几天却发现 360 全部被 K,仅剩首页,而谷歌也不再收录新页面,一直以为是我的 robots 内容有误,于是搜来搜去,改了无数次 robots 内容。谷歌在【已拦截的网址】选项中总是显示【语法有误】,在 sitemap 提交界面也用英文提示“所有内容被 robots 拦截...”云
张戈
2018/03/26
9980
发现插件生成的robots.txt不能被谷歌和360识别
hexo 博客 SEO 优化
这里记录一下 使用 hexo 如何做 SEO ,有一些主题自带了 SEO 优化建议首先查看自己当前使用的主题是否有这个配置项。
LinkinStar
2022/11/18
1K0
hexo 博客 SEO 优化
酒香也怕巷子深,教你一招,轻松让百度收录你的个人站点
俗话说,酒香不怕巷子深,可是对于我们写技术文章的小伙伴,酒香也怕巷子深呀,为什么呢?
Mculover666
2020/07/16
1K0
酒香也怕巷子深,教你一招,轻松让百度收录你的个人站点
robots.txt 和 WordPress 博客中如何使用
robots.txt(统一小写)是一种存放于网站根目录下的 ASCII 编码的文本文件,它通常告诉网络搜索引擎的爬虫(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎索引的,哪些是可以被索引的。
Denis
2023/04/14
5700
robots.txt  和 WordPress 博客中如何使用
WordPress秒变谷歌AMP加速移动页面并自动推送
谷歌 AMP(Accelerated Mobile Pages)字面意思就是“加速移动网页”,官方解释是:Accelerated Mobile Page (AMP) 是根据开放源代码规范设计的网页。经过验证的 AMP 网页会缓存在 Google 的 AMP 缓存中,从而可以更快速地呈现给用户。 AMP 页面是大大简化了移动页面,旨在提高针对移动页面的访问速度,AMP 的特点如下: AMP 的 HTML 代码是标准 HTML 的一个子集,大大简化了 html 的代码,部分 Html 代码将不再适用,如 tab
沈唁
2018/05/24
2.1K0
Nginx访问日志中UserAgent的一些参考建议
前言 网络上存在各种各样的爬虫与蜘蛛,有的是对网站有帮助的,譬如说:百度(Baiduspider)、谷歌(Googlebot)、Bing(bingbot)等等,但是也有一些纯粹是垃圾爬虫,不但本身对网站毫无帮助,还大幅损耗服务器资源,如:BLEXBot、AhrefsBot、MJ12bot、hubspot、opensiteexplorer、leiki、webmeup 等,所以我们可以通过UserAgent信息来屏蔽垃圾爬虫 nginx配置 将指定的userAgent返回403 if($http_user_a
一朵灼灼华
2022/08/05
1.5K0
新网站 Robots 和 SiteMap 优化
robots.txt是网站管理者写给爬虫的一封信,里面描述了网站管理者不希望爬虫做的事,比如:
Parker
2020/07/22
3.9K0
新网站 Robots 和 SiteMap 优化
给自己的网站加上robots.txt!(来自飞龙临天的整理投稿)
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定的内容。
勤奋的思远
2021/02/23
1.4K0
搜索引擎优化入门
本文适合新手老手,有不对的地方欢迎指正! 如果有什么问题或者建议,请务必留言, :-)
老高的技术博客
2022/12/27
1.1K0
搜索引擎优化入门
前端!来点 SEO 知识学学
之前有同学在前端技术分享时提到了SEO,另一同学问我SEO是什么,我当时非常诧异,作为前端应该对SEO很了解才对,不过仔细想想,现在前后端分离的大趋势下,SPA单页WEB应用也随之兴起,现在的前端新生对SEO不了解也是有原因的,所以本次就带着大家重识SEO!
coder_koala
2021/07/08
1.2K0
前端!来点 SEO 知识学学
SEO分享:彻底禁止搜索引擎收录非首选域名的方法
众所周知,绝大多数网站都会有一个首选域名,从用户体验考虑,通常站长们还会另外解析一个域名,并设置 301 重定向。例如,用户未输入 www 的时候,仍然可以访问到我们的网站,就像访问 http://b
张戈
2018/03/23
4.7K0
WordPress网站robots.txt怎么写及要注意的地方
WordPress网站robots.txt怎么写?robots.txt是网站很重要的一个组成部分。它告诉搜索引擎什么文件可以抓取,什么文件不能抓取。它是搜索引擎和网站之间一个默许的协议,由搜索引擎自觉遵守,,用文本文档来实现,放在robots.txt中。很多新手只知道服务器运维、建设wordpress网站内容、发外链、加友链,却不知道在网站建设初期及正常上线后最重要的robots.txt文件,所以对新手来说,本文内容很重要,建议大家好好看看,这里面有魏艾斯博客自己的体会。
魏艾斯博客www.vpsss.net
2019/01/03
2.8K0
typecho 的 robots.txt 与 sitemap 插件
这篇文章最后修改于 2022-06-23 日,距今已有 153 天,请注意甄别内容是否已经过时!
羽翼博客
2022/11/28
1.4K0
Typecho搜索引擎收录优化
``最早的时候博客是使用的WordPress搭建,基于一些原因( 使用Typecho搭建一个极简又好用的技术博客 ),去年选择了用typecho重做。
雪碧君
2023/02/15
7450
robots协议标准
    前两天刚知道用爬虫抓取page有个协议的问题,尤其是对于open source的爬虫,刚看到一篇blog,写的就是如此,难怪之前看google的robots也和另外一个U.S.的网站相同,感情是大家都商量好了, 可能这方面中国的一些站点这种意识要稍微淡一点。。。同时这也害得毕设还得另谋思路。。。     搜索引擎三巨头打的不亦乐乎,但偶尔也合作一下。去年Google,雅虎,微软就合作,共同遵守统一的Sitemaps标准。前两天三巨头又同时宣布,共 同遵守的 robots.txt文件标准。Google,雅虎,微软各自在自己的官方博客上发了一篇帖子,公布三家都支持的robots.txt文件及Meta标签 的标准,以及一些各自特有的标准。下面做一个总结。 三家都支持的robots文件记录包括: Disallow - 告诉蜘蛛不要抓取某些文件或目录。如下面代码将阻止蜘蛛抓取所有的网站文件: User-agent: * Disallow: / Allow - 告诉蜘蛛应该抓取某些文件。Allow和Disallow配合使用,可以告诉蜘蛛某个目录下,大部分都不抓取,只抓取一部分。如下面代码将使蜘蛛不抓取ab目录下其他文件,而只抓取其中cd下的文件: User-agent: * Disallow: /ab/ Allow: /ab $通配符 - 匹配URL结尾的字符。如下面代码将允许蜘蛛访问以.htm为后缀的URL: User-agent: * Allow: .htm$ *通配符 - 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件: User-agent: * Disallow: /*.htm Sitemaps位置 - 告诉蜘蛛你的网站地图在哪里,格式为:Sitemap: <sitemap_XXXXXX> 三家都支持的Meta标签包括: NOINDEX - 告诉蜘蛛不要索引某个网页。 NOFOLLOW - 告诉蜘蛛不要跟踪网页上的链接。 NOSNIPPET - 告诉蜘蛛不要在搜索结果中显示说明文字。 NOARCHIVE - 告诉蜘蛛不要显示快照。 NOODP - 告诉蜘蛛不要使用开放目录中的标题和说明。 上面这些记录或标签,现在三家都共同支持。其中通配符好像以前雅虎微软并不支持。百度现在也支持Disallow,Allow及两种通配符。Meta标签我没有找到百度是否支持的官方说明。 只有Google支持的Meta标签有: UNAVAILABLE_AFTER - 告诉蜘蛛网页什么时候过期。在这个日期之后,不应该再出现在搜索结果中。 NOIMAGEINDEX - 告诉蜘蛛不要索引页面上的图片。 NOTRANSLATE - 告诉蜘蛛不要翻译页面内容。 雅虎还支持Meta标签: Crawl-Delay - 允许蜘蛛延时抓取的频率。 NOYDIR - 和NOODP标签相似,但是指雅虎目录,而不是开放目录。 Robots-nocontent - 告诉蜘蛛被标注的部分html不是网页内容的一部分,或者换个角度,告诉蜘蛛哪些部分是页面的主要内容(想被检索的内容)。 MSN还支持Meta标签:Crawl-Delay     另外提醒大家注意的是,robots.txt文件可以不存在,返回404错误,意味着允许蜘蛛抓取所有内容。但抓取robots.txt文件时却发生超时 之类的错误,可能导致搜索引擎不收录网站,因为蜘蛛不知道robots.txt文件是否存在或者里面有什么内容,这与确认文件不存在是不一样的。
bisal
2019/01/29
8700
WordPress 博客如何进行链接建设
前面介绍了链接建设的三篇文章,如何构建网站的链接体系架构,通过导入链接提高网站排名,使用向外链接来增强内容的相关性,根据这些链接建设理论的建议和要求,针对 WordPress 博客我们应该如何进行链接建设呢?
Denis
2023/04/15
3210
相关推荐
​WordPress博客的SEO优化技巧
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验