如果我们在检查自己网站的时候,发现网站出现了异常,比如突然权重掉了,或者是发现网站被k了,那么会有什么情况导致的呢?我们可以首先从下面几个情况开始排查。
一、网站日志分析
从日志中,可以发现很多的问题,分别如下:
1)、大量5xx错误,尤其500错误,说明服务器问题,导致无法提供稳定的抓取响应,需要运维介入解决;
2)、大量4xx错误,尤其404错误最常见,需要干掉站内页面中存在的死链接,屏蔽掉SEO爬虫发现404页面的入口;
3)、大量301循环跳转,会导致SE爬虫陷入抓取死循环;
4)、抓取频率、抓取量降低,需要注意服务器响应时间和响应速度是否有下降作为切入点;
5)、抓取停留时间变少,尤其相对历史水平大于30%,并同时存在抓取页面收录震荡,需要改善页面质量。
二、关键词大量叠加
不了解SEO的人们,往往把网站的标题写得非常长。在title标签、keywords标签、description标签里,往往堆积着大量的关键词。也有部分好像了解SEO优化的人,喜欢在网页上(一般是页脚)毫无理由得摆放良多关键词。这是网站被封非经常见的一个因素。
三、robots.txt写法是否正确
robots.txt文件用来阻止搜索引擎蜘蛛抓取某些目录或某些文件,虽然这个功能很有用,但是很容易出错。如果你的robots.txt文件设置有问题,搜索引擎蜘蛛就没办法抓取你的网站了。正常设置和有错的设置可能差别非常微小,要多次检查,确保无误。
当然了,除了以上三点之外,外链或者是网站被攻击也是会导致网站被k,这些都是要根据具体情况来具体分析的。