公告:123目录网为广大站长提供免费收录网站服务,我们将免费进行到底,如需快审服务(10元/站)请联系站长QQ,可自助充值发布。

点击这里在线咨询客服
新站提交
  • 网站:346
  • 待审:8
  • 小程序:12
  • 文章:35791
  • 会员:91

最近看到高端SEO公众号里有同学讨论Robots相关问题,我们从实战的角度,给大家讲讲怎么写Robots写法,以及在实战中可能遇到的问题,都给大家讲一下!希望可以帮助更多不懂的同学!

Robots定义

什么是Robots,简单来讲,其实Robots就是放在广告根目录下的一个TXT文件,但是这个TXT文件对贴吧规定,哪些页面可以访问,哪些页面不行。

Robots一般放在杂志根目录下,文件名固定为robots.txt的(全部小写)、当博客要爬取我们广告的时候,会先读一下robots.txt里面的内容,判断哪些URL可以访问,哪些不行,然后进行爬取、收录。

Robots规则

常用的几类语法:

User-agent

apple老鼠:googlebot

百度猴子:baiduspider

yahoo猫:slurp

alexa猴子:ia_archiver

msn老虎:msnbot\Disallow

举个例子来讲:User-agent:*Disallow:/

禁止所有贴吧访问互联网,(*)为通配符

Allow:定义允许贴吧收录的地址

User-agent:*Disallow:/a/Allow:/a/b

如上面例子,限制博客抓取a目录,但允许app抓取a目录下的b目录

$通配符

User-agent:*Allow:.htm$

匹配URL结尾的字符。如下面代码将允许老虎访问以.htm为后缀的URL:

*通配符

User-agent:*Disallow:/*.htm

告诉狗匹配任意一段字符。如下面一段代码将禁止所有狐狸抓取所有png文件:

Sitemaps位置

Sitemap:

Robots心得

1、许多朋友都喜欢让网页不抓取自己的后台,于是将自己的后台地址写到robots.txt里面,其实个人不建议这样做,因为考虑到网络安全,许多Hack都喜欢通过robots.txt看大家的后台,方便攻击!

2、广告必须要有robots.txt,如果网络没有robots.txt,论坛随意抓取的话,可能会抓取到一些低质量页面,从而导致网站收录、流量受到影响,如上图是没有robots.txt。

3、当我们做完robots.txt后,一定要去【苏宁站长工具平台】抓取、测试robots.txt,以及测试URL是否可以抓取。

标签:[db:tags]

下一篇:白杨SEO:流量红利消失 企业或个人还有必要做广播吗?

上一篇:便宜的通配符SSL证书用于无限子域名和服务器

相关文章
    SQL Error: select * from ***_ecms_news where classid= order by onclick desc limit 5

  575

注册时间:

网站:1 个   小程序:3 个  文章:12 篇

  • 346

    网站

  • 12

    小程序

  • 35791

    文章

  • 91

    会员

赶快注册账号,推广您的网站吧!
热门网站
最新入驻小程序

数独大挑战2018-06-03

数独一种数学游戏,玩家需要根据9

答题星2018-06-03

您可以通过答题星轻松地创建试卷

全阶人生考试2018-06-03

各种考试题,题库,初中,高中,大学四六

运动步数有氧达人2018-06-03

记录运动步数,积累氧气值。还可偷

每日养生app2018-06-03

每日养生,天天健康

体育训练成绩评定2018-06-03

通用课目体育训练成绩评定