郑州七彩网站建设公司 专注于郑州网站建设,郑州网站推广 网站优化 网络外包 SEO推广
手机:17752505227(朱) 15093469957(胡)
***:2208778835
电话:0371-56768628
七彩科技是郑州网站建设行业标杆企业,公司专注于郑州网站建设,郑州做网站,商城网站建设,郑州建站,郑州商城建设等业务,竭力为客户提供优质的网站建设服务。建站于精,值得您的信赖!***: 咨询***:0371-56768628。
七彩科技网站建设***:
"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
":"。
在该文件中可以使用#进行注解,具体使用方法和UNIX 中的惯例一样。该文件中的记录通常以一行或多行User-agent 开始,后面加上若干Disallow 行,详细情况如下:
User-agent:
该项的值用于描述搜索引擎robot 的名字, 在"robots.txt" 文件中, 如果有多条User-agent 记录说明有多个robot 会受到该协议的限制,对该文件来说,至少要有一条User-agent 记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中, "User-agent:*"这样的记录只能有一条。
Disallow :
该项的值用于描述不希望被访问到的一个URL,这个URL 可以是一条完整的路径,也可以是部分的,任何以Disallow 开头的URL 均不会被robot 访问到。例如"Disallow: /help"对/ml 和/help/ml 都不允许搜索引擎访问,而"Disallow: /help/"则允许robot 访问/ml,而不能访问/help/ml。
任何一条Disallow 记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow 记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
下面是一些robots.txt 基本的用法:
禁止所有搜索引擎访问网站的任何部分:
User-agent: *
Disallow: /
允许所有的robot 访问
User-agent: *
Disallow:
或者也可以建一个空文件"/robots.txt" file
禁止所有搜索引擎访问网站的几个部分(下例中的cgi-bin、tmp、private 目录)
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /private/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBot
Disallow: /
只允许某个搜索引擎的访问(下例中的WebCrawler)
User-agent: WebCrawler
Disallow:
User-agent: *
Disallow: /
常见搜索引擎机器人Robots 名字
名称搜索引擎
Baiduspider http://
Scooter http://
ia_archiver http://
bot http://
FAST-WebCrawler http://
Slurp http://
BOT http://n.com
robots.txt 举例
下面是一些***站点的robots.txt:
我们相信我们能做的更好,相*********的技术创造出更***的作品!
郑州郑州网站建设公司 郑州郑州网站制作公司 郑州网站推广公司 郑州网站开发公司
更多小知识可以百度一下郑州网站建设小达人,或者百度一下郑州网站建设七彩科技,我们将提供***优质的服务!