wordpress教程|屏蔽百度等搜索引擎抓取解决方法

有些站长比较喜欢将站点上线测试(不喜欢在本地测试),但是又不想被百度等搜索引擎抓取,那么应该怎么暂时屏蔽呢?今天 boke112 就跟大家简单介绍几种方法。

方法一:

WordPress 站点可以直接登录站点后台 >> 设置 >> 阅读 >> 勾选“建议搜索引擎不索引本站点”并点击【保存更改】即可。

方法二:

直接在网站根目录中新建一个 robots.txt 文件,然后在文件中添加以下代码:

User-Agent: *

Disallow: /

方法三:

通过 noindex 标记来禁止,直接在站点的头文件 header.php 文件中添加以下代码:

<meta name="robots" content="noindex" >

方法四:

通过 PHP 代码禁止(wordpress 站点为例),将以下代码添加到主题目录的 functions.php 当中:

ob_start("Deny_Spider_Advanced");

function Deny_Spider_Advanced() {

$UA = $_SERVER['HTTP_USER_AGENT'];

$Spider_UA = '/(spider|bot|)/i'; //定义需要禁止的蜘蛛 UA,一般是 spider 和 bot

//如果检测到 UA 不为空而且发现是蜘蛛则返回 404

if($UA && preg_match_all($Spider_UA,$UA)) {

header('HTTP/1.1 403 Forbidden');

header("status: 403 Forbidden");

}

}

可以自行替换或添加以上的 spider|bot,多个用|隔开即可。

方法五:

Nginx 禁止,在 server{}中添加以下代码:

#如果抓取的 UA 中含有 spider 或 bot 时返回 403

if ($http_user_agent ~* "spider|bot") {

return 403; #如果是删除已收录的,则可以返回 404

break;

可以自行替换或添加以上的 spider|bot,多个用|隔开即可。

方法六:

Apache 禁止,在.htaccess 中添加以下代码:

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} (^$|spider|bot) [NC]

RewriteRule ^(.*)$ - [F]

可以自行替换或添加以上的 spider|bot,多个用|隔开即可。

发表评论

登录... 后才能评论

发现网站内无您想要的资源或者素材,可以联系站长或者提交工单:提交工单
支持下载网站: 千图网 觅知网 模板客 搬码网 阿奇源码 诛仙资源网
点击上方链接了解下载规则介绍。

本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。

最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或联络我们。

对于会员专享、整站源码、程序插件、网站模板、网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。

如果您已经成功付款但是网站没有弹出成功提示,请联系站长提供付款信息为您处理

源码素材属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源

如果您在下载中遇到资源失效或者无法下载,请复制连接发给站长,站长会在24内补齐缺失的资源下载连接。