必威体育Betway必威体育官网
当前位置:首页 > seo技术

通过新浪“屏蔽门”来学习正确的robots.txt文件写法

时间:2019-08-28 14:44:55来源:seo技术作者:seo实验室小编阅读:67次「手机版」
 

燕郊seo

前一段时间由于部分站长robots文件的误读,导致了一则虚假消息的诞生--“新浪封杀门”,消息称新浪博客开始封杀百度蜘蛛,其判断的依据只不过是新浪博客在的robots文件中有一段"User-agent:Baiduspider ",这个其实上传于2005年的robots迷惑了不少站长,真的以为新浪博客开始封杀百度了,一时间网上到处都是外链不好做的呼声,其实如果你熟悉robots的写法,就可以很轻松的识别这条虚假信息。

robots.txt文件放置于网站根目录下,搜索引擎蜘蛛访问一个网站后最新查看的就是robots文件,它就相当于你网站的“门卫”,如果“门卫”拒绝搜索引擎蜘蛛进入,则搜索引擎无法收录你网站的任何界面。

在“百度搜索帮助中心”(http://www.baidu.com/search/robots.html)中,

对如何禁止百度蜘蛛访问是这样定义的 :

User-agent: baiduspider

Disallow: /

仅允许百度蜘蛛的访问:

User-agent: Baiduspider

Disallow:

禁止百度蜘蛛访问特定目录:

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

结合这3种语法,我们再来看看网上流传的新浪博客的robots写法:

User-agent: Baiduspider

Disallow: /admin/

Disallow: /include/

Disallow: /html/

Disallow: /queue/

Disallow: /config/

其真正的目的只是禁止百度搜索引擎访问5个后台目录,和内容页并没有关系,因此说那个robots并不是封杀百度蜘蛛的,而是告诉百度蜘蛛要“去改去的地方”。

一个正确有效的robots文件可以帮助你更好的被百度收录,各位新手站在朋友如果对robots还不熟悉,可以到“百度搜索帮助中心”(http://www.baidu.com/search/robots.html)下载标准案例,将里面的内容改成自己的网址即可。

以上是我的一点体会,希望有朋友们转载的时候可以保留我的链接http://www.jfbest.com 多一份保,留多一份口碑,多一份运气,多一份财富!谢谢!

相关阅读

如何正确分析对手的网站

从小型的企业站到大型的门户站,以及商城网站等一系列企业网站都离不开分析,分析最关键的就是分析竞争对手的网站,孙子兵法中有一句老

如何正确提高网站点击量?

如何正确提高网站点击量?所谓企业网站,就是企业在互联网上进行网络建设和形像宣传的平台。根据行业特性的差别,以及企业的建站目的和

IDEA添加子Module的正确姿势

因需求要增加一个新的测试模块,于是要在一堆Module中再添加一个Module,单纯的我没有丝毫杂念的开始进行添加了。 1. 要在哪个目录

如何用新浪微博做淘宝客,三步实现破零

第一步,注册一个有趣味的微博名字,如减肥瘦身百科,护肤美妆百科,美食营养百科。这样做的目的是便于搜索,目前也是女生关注最多的话题。

揭秘广告软文的五种写法

引言: 如何写出最有价值的软文,一直都是营销推广的核心!应该用怎样的方法,才可以将软文的价值完全发挥出来?又有怎样的写作技巧,让我们

分享到:

栏目导航

推荐阅读

热门阅读