企业网站建设好后,网络公司可能会很容易忽视robots文件的存在,对其进行错误覆盖或全部封禁robots,而造成了不必要的损失。robots是搜索生态中很重要的一个环节,同时也是一个很细节的环节。
那么,如果误操作封禁了robots怎么办?锐艺传播为我们分享下网站robots误封禁后该如何操作?
【案例】
企业网站在建过程中,为了避免搜索引擎抓取到测试地址,要求技术人员设置了Robots封禁处理。1个月后,该网站正式起用正式地址,开通后,Robots封禁文件忘记解禁,一段时间进行检查收录发现收录为0条,关键词更是找不到。
【处理方式】
要求技术人员修改Robots封禁为允许,然后到百度站长后台检测并更新Robots。
在百度站长后台进行抓取检测,此时显示抓取失败,没关系,多点击抓取几次,触发蜘蛛抓取站点。
在百度站长平台抓取频次,申请抓取频次上调。
百度反馈中心,反馈是因为误操作导致了这种情况的发生。
百度站长后台链接提交处,设置数据主动推送(实时)。
更新sitemap网站地图,重新提交百度,每天手工提交一次。
以上处理完,接下来就是等待了,经过一段时间后,数据就开始慢慢回升到正常状态!
【案例总结】
最后,总结反思一下,希望大家都避免类似问题。大家要经常关注百度站长平台,关注相关数据变化,从数据变化中及时发现问题。