虽然建设网站的目的大部分是为了优化搜索引擎排名,实现互联网营销,但特殊情况下,仍会遇到 “不希望搜索引擎收录” 的需求,例如因为一些原因做了一个内容与主站几乎相同的二级站,但因为内容高度相似,关键词排名一部分给了二级站,影响了主站点的排名,这个时候就有这个必要删掉这些收录。这里给出一个能有效禁止搜索引擎收录的解决方案。
一、Robots.txt 只能禁止抓取,无法禁止收录
很多人认为在robots.txt中禁止蜘蛛爬取就等于禁止收录,这是严重的误解。
robots.txt文件可以告诉搜索引擎哪些目录和文件可以抓取,哪些不可以。经过实践发现,即使禁止搜索引擎抓取根目录,robots 文件也并不能实现禁止搜索引擎收录。如果一个网站的外链较多,基本上无法通过正常手段禁止收录。
二、通过Nginx判断user_agent禁止搜索引擎访问,实现禁止收录
既然不能直接禁止抓取,那就干脆禁止蜘蛛等搜索引擎访问,思路是:判断 user_agent,如果是蜘蛛、机器人等搜索引擎的user_agent,就返回403或者404,这样搜索引擎就会认为这个网站无法打开或者不存在,自然也就不会收录了。
这里Nginx的配置代码如下:
if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot")
{
return 403;
}
通过curl模拟搜索引擎抓取,测试以上代码有效,并在多次项目实践中验证了此方法的可行性,实现了彻底禁止搜索引擎收录。
1、文章版权归作者所有,未经允许请勿转载。
2、本站所有文章,如无特殊说明或标注,均为本站原创发布。任何在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们邮箱:526009505@qq.com进行处理。
3、咨询请联系QQ:526009505
2、本站所有文章,如无特殊说明或标注,均为本站原创发布。任何在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们邮箱:526009505@qq.com进行处理。
3、咨询请联系QQ:526009505
你可能也喜欢
- ♥ sem和seo有什么区别?10/26
- ♥ 专门做seo每天都需要在做什么?seo每天一贴能实现吗?06/28
- ♥ 网站的内页如何进行优化?08/07
- ♥ seo关键词排名优化网址该怎么做?07/02
- ♥ google seo sem该如何选择?07/01
- ♥ seo要会写什么?06/29