当前位置:酷酷问答>生活百科>网站robots.txt怎么写,robots.txt写法大全解析

网站robots.txt怎么写,robots.txt写法大全解析

2024-09-20 07:01:33 编辑:zane 浏览量:573

网站robots.txt怎么写,robots.txt写法大全解析

的有关信息介绍如下:

网站robots.txt怎么写,robots.txt写法大全解析

网站robots.txt怎么写,robots.txt写法大全解析。robots文件的作用是告诉搜索引擎蜘蛛,网站的哪些文件夹可以抓取,哪些文件夹不能抓取,从而确保我们网站的隐私内容不会被收录。

robots.txt文件是什么?

robots.txt是存放在网站根目录下的一个TXT文本文档,它是网站和蜘蛛之间的一个协议(蜘蛛协议)。

robots.txt文件哟什么用?

robots.txt的作用是告诉搜索引擎爬虫,网站的哪些文件夹可以抓取,哪些文件夹不能抓取,从而确保我们网站的隐私内容不会被索引。

书写robots文件注意事项:

1.robots文件的后缀必须是.txt;

2.robots文件应该存放在网站的根目录,而且所有字母都必须小写;

3.在写robots文件的时候,User-agent、Disallow、Allow、Sitemap这些词开头第一个字母必须大写,后面的字母则要小写;

4.特别注意,在:后面必须有一个英文状态下的空格。

自定义搜索引擎:

用User-agent:来定义搜索引擎,其中*表示所有

百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot

User-agent:* 表示定义所有蜘蛛

User-agent: Baiduspider表示自定义百度蜘蛛

User-agent: Googlebot表示自定义谷歌蜘蛛

大家可以参考百度或者某宝的robots.txt,他么就有对个别搜索引擎爬虫禁止抓取。

禁止访问和允许访问:

禁止所有搜索引擎访问:

User-agent: *

Disallow: /

=====华丽丽的分割线=====

允许所有搜索引擎访问:

User-agent: *

Allow: /

注意:在:后面/前面有一个英文状态下的空格,空格必须有,必须是英文状态下的

禁止搜索引擎访爬虫问网站中的某些目录:

假设【abc】是我网站根目录的一个文件夹,写法分别如下:

User-agent: *

Disallow: /abc

禁止搜索引擎访问abc文件夹及abc文件夹下面的所有文件

=====华丽丽的分割线=====

User-agent: *

Disallow: /abc/

禁止搜索引擎访问abc文件夹下面的所有文件,但是abc文件夹是允许被访问的

禁止搜索引擎爬虫访问某一类文件:

例如我们要禁止搜索引擎蜘蛛访问css、js、php等文件,可以这样写:

User-agent: *

Disallow: /*.css$

Disallow: /*.js$

Disallow: /*.php$

注意:*表示所有,$表示结尾

禁止访问网站中的动态页面:

User-agent: *

Disallow: /*?*

注意:?表示动态路径,*表示所有。

只允许搜索引擎爬虫访问网站首页:

User-agent: *

Disallow: /*

最后是我一个网站的robots.txt的文件,我是这样写的,大家可以作参考:

版权声明:文章由 酷酷问答 整理收集,来源于互联网或者用户投稿,如有侵权,请联系我们,我们会立即处理。如转载请保留本文链接:https://www.kukuwd.com/life/43681.html
热门文章