解决网络需求 传递网站价值

顾问一对一指导 + 排名上首页 + 帮您找客户 + 获客不再难!

seo网站优化
当前位置:首页 > 知识学堂 >

robots.txt文件有什么作用

  很多站长在建成网站后,都会在网站的根目录,添加robots.txt文件,那这个robots.txt文件有什么作用呢?
robots.txt文件有什么作用
  一、robots.txt协议文件有什么用?
  搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。
  二、网站设置robots.txt的几个原因。
  1:设置访问权限保护网站安全。
  2:禁止搜索引擎爬取无效页面,集中权值到主要页面。
  三、怎么用标准写法书写协议?
  有几个概念需掌握。
  User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。
  Disallow表示禁止访问。
  Allow表示运行访问。
  通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。
  四、robots.txt文件放在那里?
  此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。
  五、哪些时候需要使用该协议。
  1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。
  2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。
  3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。

发布时间:2021-08-26 浏览次数:62

TAG标签: 网站SEO优化
网站建设,网站优化
一然科技是值得信赖的网站搭建公司。多年来持续为众多企业提供网站建设,网站制作,网站推广,APP开发,网络营销,seo优化,营销型网站建设,手机网站建设,H5响应式网站制作等互联网业务已经有15年之久,让企业与用户快速连接起来。