深圳SEO专注深圳企业网站SEO优化,企业网络品牌营销推广服务!
当前位置:深圳SEO > SEO优化 > 正文

相信各位站长都知道你的网站中有robots文件,但他的作用有

01-18 SEO优化

相信各位站长都知道你的网站中有robots文件,但他的作用有哪些?还是有些站长一知半解的,接下来篇章教大家robots怎么用。

一、我们一个新站如果没把站内布局做完,可以用robots文件设置禁止搜索引擎抓取访问,它禁止全部蜘蛛爬行的语法是:

User-agent: *

Disallow: /

如果你想禁止个别搜索引擎蜘蛛,我拿谷歌的举例:

User-agent: Googlebot

Disallow: /

按理说我们设置了禁止这样蜘蛛就不会爬行了,然而事实真是这样吗?

篇章的答案是否定的。请看案例(以百度蜘蛛为例)

大家在百度搜索“淘宝”就能看到了,截图:

淘宝robots

结果显示:“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述”

而且是可以访问,深圳SEO(ps:这个是大的网站是特殊例外,笔者也想过之前做过查证,而且确实有这样的网站,深圳SEO优化只是在无意中看到的当时没有记录,实在抱歉今天再找却记不起来了)

应用:新网站测试,站长心想没有提交蜘蛛应该不会被收录,谁知被奇妙的收录了(ps:可怜的优化策略没有上马,就这样跟百度蜘蛛邂逅了)之后采取robots屏蔽发现这些需要时间不能达到预期效果,网站被竞争者窃取,由于时间紧急的原因,最后是关闭服务器提交死链才消除百度搜索收录记录。

2、robots.txt具有屏蔽死链接的作用,提交后会不会立马这些死链接会消失收录?

篇章的答案是否定的,因为我们都知道百度在各个省都有各个百度的服务器,因此不可能同时清楚缓存,为此我们可以ping一下百度。

操作过程:

一、打开系统的运行,快捷键是“WIN+R”

二、输入ping-空格-百度域名-最后回车

操作完我们会看到这样的:

ping百度

我本地是上海的IP,它显示的是115.239.211.112 各位的IP肯定跟我不一样,因此验证了我上面所说。

不过想快速消失死链百度站长平台倒是有一个“死链提交”的功能,大家可以去看看,那是快速清除死链的方法,前些天试了一下,还挺好用,很快就能得到响应:

站长平台死链提交

SEO篇章()语录:再牛逼的优化技术 也拼不过冒着傻气的坚持。

Tags:seo 网站优化

版权声明: 本文由 深圳SEO 发布,转载请保留链接: http://seo.longseor.com/seoyh/5903.html


【读者注意】:本站部分文章收集于互联网,若有文章侵犯了您的合法权益,请您联系我们,我们会及时的与您沟通处理,谢谢您的理解!联系QQ:912037469

SEO博主Raleigh
欢迎大家来到深圳SEO,深圳SEO由博主(一鸣叫兽)创立,QQ:912037469;旨在免费分享SEO教程,SEO基础教程,包括深圳SEO公司优化教程,深圳SEO网站优化案例,深圳企业网络品牌营销推广,深圳SEO公司网站优化就找一鸣叫兽!
  • 文章总数
  • 344315访问次数
  • 建站天数
  • 标签