缘奇科普-奇怪的知识又增加了

网站robots协议的写法及用法

原创版权 未知 字体大小选择: [ ]

什么是robots协议?

 

robots协议,指的是一个robots.txt的文档,如下图。Robots.txt是存放在网站更目录的一个文件。而且是搜索引擎爬虫抓取网站的时候,第一个抓取的文件。

 

robots协议,又叫做搜索引擎协议,主要用于规范爬虫抓取网页。robots协议里面记录着规则,爬虫爬取后会按照规则爬取网站。

 

简单的理解,robots协议里面会告诉搜索引擎爬虫,那些链接是允许爬取的,那些链接是不允许抓取的。

 

robots协议作用

 

robots协议可以指定搜索引擎能收录那些链接,也能指定不能收录那些链接。后面我们讲写法。

 

robots协议语法

 

robots协议的语法分为三个。分别是User-agent、Disallow、Allow。下面我们来一起了解下。

 

User-agent: 指的是那些搜索引擎执行以下协议。如百度:User-agent: baiduspider。而*号可以代表全部,代码为:User-agent: *。

 

Disallow:指禁止抓取的意思。如语法:Disallow: /a ,就是禁止搜索引擎抓取带有/a 这个关键词的链接。

 

Allow:指允许抓取的意思。通常默认就是允许抓取,故很少会用到该命令。

 

织梦官方网站的写法

 

网
 

如何写法robots协议

 

给大家一个非常方便的工具,打击可以在该工具上直接生产。

 

Robots协议生成工具:http://tool.chinaz.com/robots/

 

Robots协议怎么用

 

1、当网站中纯在隐私页面不想被搜索引擎抓取的时候,可以使用robots。

 

2、当网站页面纯在多个链接的时候,可以用robots禁用一条,允许搜索引擎只收录一条。(通常使用静态url后,应该屏蔽动态url)

 

3、建议屏蔽搜索路径。



发表评论 (已有 条评论)

  

评论列表

    快来评论,快来抢沙发吧~