robots.txt是搜索引擎中访问网站的时候要查看的第一个文件,这个文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。通常网站在开发阶段或者升级都会通过robots.txt来封禁搜索引擎的抓取,这虽然能避免蜘蛛抓取不必要的页面,但也对网站完全后的收录造成一定的影响,蜘蛛迟迟不来抓取。今天在百度站长平台看到有这方面的介绍,于是引用过来。
【处理方式】
1.修改Robots封禁为允许,然后到百度站长后台检测并更新Robots。
2.在百度站长后台抓取检测,此时显示抓取失败,没关系,多点击抓取几次,触发蜘蛛抓取站点。
3.在百度站长后台抓取频次,申请抓取频次上调。
4.百度反馈中心,反馈是因为误操作导致了这种情况的发生。
5.百度站长后台链接提交处,设置数据主动推送(实时)。
6.更新sitemap网站地图,重新提交百度,每天手工提交一次。
通过以上的处理后,接下来就是等待了。
网站因为改版或者刚上线禁用robots之后恢复
分享到:
![](/e/data/images/nouserpic.gif)
-
50193
网站
- 11171
小程序
-
11825
文章
-
2
会员
热门网站
- 52PCGame论坛 bbs.52pcgame.net
- 飞华两性频道 sex.fh21.com.cn
- 69乐园 69leyuan.lofter.com
- 玛雅(MAYA)官方网站 maya.com.cn
- 阿里钱盾 qd.alibaba.com
- 云南省国家税务局网上办税服务厅 etax.yunnan.chinatax.gov.cn/zjgfdzswj/main/
- 上海贵族宝贝论坛 guizubibi.com
- 三众能源 sanzenenergy.com
- 读秀网 duxiu.com
- 9877小游戏 099y.com
最新入驻小程序
热门文章
- 如何解除百度提醒网站存在安全风险方法 07-26
- 百度产品运营到底要做什么 07-26
- 关于域名历史的查询和处理 07-26
- 农林副产品要如何进行网络营销销售 07-26
- Google网站管理员工具 07-26
- 网络产品和传统产品的区别 07-26
- 医院该如何打造品牌服务策略 07-26
- 阿里巴巴关键词排名优化最常见最有效的几种方法 07-26
- 百度竞价推广计划及思路 07-26
- 关于网络营销的五大阶段介绍 07-26