记录生活 学习SEO优化 | 他日若遂凌云志 敢笑黄巢不丈夫
>>Home > 学习笔记 > SEO笔记 > 控制百度搜索引擎收录的方法

控制百度搜索引擎收录的方法

Tags: | | 作者:海天无影

虽然在中国站长肯定都希望自己的网站在百度的收录情况越多越好,但是还是不外乎一些比较牛B的网站例如淘宝,还是屏蔽了百度蜘蛛。再者有很多作弊的站不希望网站的内容被百度快照抓去,以及为了控制蜘蛛固定时间内抓取的有效页面。这些都是需要控制搜索引擎蜘蛛抓去收录的。正好看到百度搜索帮助给出的比较全面的讲解控制、禁止百度蜘蛛收录的robots.txt的方法。

robots.txt文件控制

什么是robots.txt文件?
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定“蜘蛛”在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

robots.txt文件放在哪里?
robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站(比如 http://www.abc.com)时,首先会检查该网站中是否存在http://www.abc.com/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。

我在robots.txt中设置了禁止百度收录我网站的内容,为何还出现在百度搜索结果中?
如果其他网站链接了您robots.txt文件中设置的禁止收录的网页,那么这些网页仍然可能会出现在百度的搜索结果中,但您的网页上的内容不会被抓取、建入索引和显示,百度搜索结果中展示的仅是其他网站对您相关网页的描述。

robots.txt文件的格式
"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

":"
在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:

User-agent:
该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受 到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效, 在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页 同时禁止访问其它所有URL的功能。

Disallow:
该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问 /help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一 条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。

使用"*"and"$":
Baiduspider支持使用通配符"*"和"$"来模糊匹配url。
"$" 匹配行结束符。
"*" 匹配0或多个任意字符。

URL匹配举例

Allow或Disallow的值 URL 匹配结果
/tmp /tmp yes
/tmp /tmp.html yes
/tmp /tmp/a.html yes
/tmp /tmp no
/tmp /tmphoho no
/tmp /tmp/a.html yes
/Hello* /Hello.html yes
/He*lo /Hello,lolo yes
/Heap*lo /Hello,lolo no
html$ /tmpa.html yes
/a.html$ /a.html yes
htm$ /a.html no

robots.txt文件用法举例

例1. 禁止所有搜索引擎访问网站的任何部分 User-agent: *
Disallow: /
例2. 允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")
User-agent: *
Disallow: /
or
User-agent: *
Allow: /
例3. 仅禁止Baiduspider访问您的网站 User-agent:
Baiduspider
Disallow: /
例4. 仅允许Baiduspider访问您的网站 User-agent: Baiduspider
Disallow:

User-agent: *
Allow: /

例5. 禁止spider访问特定目录
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
例6. 允许访问特定目录中的部分url User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
例7. 使用"*"限制访问url
禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
User-agent: *
Disallow:
/cgi-bin/*.htm
例8. 使用"$"限制访问url
仅允许访问以".htm"为后缀的URL。
User-agent: *
Allow: .htm$
Disallow: /
例9. 禁止访问网站中所有的动态页面 User-agent: *
Disallow: /*?*
例10. 禁止Baiduspider抓取网站上所有图片
仅允许抓取网页,禁止抓取任何图片。
User-agent:
Baiduspider
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$
例11. 仅允许Baiduspider抓取网页和.gif格式图片
允许抓取网页和gif格式图片,不允许抓取其他格式图片
User-agent:
Baiduspider
Allow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.png$
Disallow: /*.bmp$
例12. 仅禁止Baiduspider抓取.jpg格式图片 User-agent:
Baiduspider
Disallow: /*.jpg$

Meta信息控制搜索引擎

禁止搜索引擎跟踪网页的链接,而只对网页建索引
如果您不想搜索引擎追踪此网页上的链接,且不传递链接的权重,请将此元标记置入网页的 部分:<meta name="robots" content="nofollow">

要允许其他搜索引擎跟踪,但仅防止百度跟踪您网页的链接,请将此元标记置入网页的 部分:<meta name="Baiduspider" content="nofollow">

PS:针对网页中某一条链接,不希望百度追踪,可以试试rel="nofollow"直接写在某条链接上,百度公开申明支持nofollow的:<a rel="nofollow" href="signin.php">sign in</a>

禁止搜索引擎在搜索结果中显示网页快照,而只对网页建索引
这个方法主要是用于某些作弊手法,比如使用智能DNS判断搜索引擎给出不同页面,而又不想让其他人通过快照发现,就会屏蔽快照。

要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的部分:<meta name="robots" content="noarchive">

要允许其他搜索引擎显示快照,但仅防止百度显示,请使用以下标记:<meta name="Baiduspider" content="noarchive">

注:此标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

JS或iframe控制链接导出

虽然百度现在也支持nofollow语句,但是百度对于robots.txt这个需要严格遵守的命令都不一定完全执行,那么对于nofollow的支持程度就需要怀疑了。再者nofollow只是表示不从本页面追踪这个链接,不向这个链接导出权重。但是这个链接的指向本身还是可能会被收录的。所以为了更严格的控制链接,可以使用JS或者iframe框架来做链接。

JS目前百度是不抓去其中内容的,但是Google已经抓取了,所以用JS导出链接,实在不想让google抓取的话,可以在页面上meta信息中添加noindex、nofollow语句。

iframe框架调用的话,目前好像google都是不支持抓取其中内容的吧。

日志信息 »

该日志于2012-03-07 11:00由 海天无影 发表在SEO笔记分类下, 你可以发表评论。除了可以将这个日志以保留源地址及作者的情况下转载到你的网站或博客,还可以通过RSS 2.0订阅这个日志的所有评论。

24条评论▼点击进行评论

  1. 很详细,谢谢!

  2. :mrgreen: 这法子挺好的~

  3. 老生常谈,不过还是实用就是

  4. robot.txt现在都懒得写了

  5. 不懂这个文件的写法与作用,一直没用。。想百度狠狠地收录

  6. robots.txt很重要

  7. 非常的详细,实用

  8. robots.txt尝试着用下!

  9. 我也来写写robots.txt

  10. 这个文件的编写还是很重要的

  11. 这里说的真详细

  12. 文章分析的好周全,也很实用,谢谢

  13. 这是为什么呢

  14. 做网站这个基础的知识必须了解。

  15. 2265.com 安卓游戏

  16. 2265.com 安卓游戏下载

  17. 我都不知道我的网站里有没有robot文件啊

  18. 写的很详细嘛!

  19. 嗯 不错 收录是不是越多越好啊

  20. 写的很好 学习了

  21. 写的好全面,条理性很不错。
    我有个没解决的问题,就是用all in one seo时设置不收录archieve页面,google不收录,百度却积极的收录,不知道为什么

  22. 很基础的东西,新手看看很不错~!

  23. 写的很详细 很具体 也很实用 希望博主把压箱底的技巧拿出来分享 :mrgreen:

  24. 有点看不懂的,路过。。。

icon_wink.gif icon_neutral.gif icon_mad.gif icon_twisted.gif icon_smile.gif icon_eek.gif icon_sad.gif icon_rolleyes.gif icon_razz.gif icon_redface.gif icon_surprised.gif icon_mrgreen.gif icon_lol.gif icon_idea.gif icon_biggrin.gif icon_evil.gif icon_cry.gif icon_cool.gif icon_arrow.gif icon_confused.gif icon_question.gif icon_exclaim.gif 

« HTML判断浏览器加载css的条件注释语句 浅谈互联网页面价值 »