首要查找引擎是个极端杂乱的东西,会有许多规矩在背面影响到一个页面的录入、排名等等,SEO能了解到的往往仅仅其间一小部分;现代查找引擎大多采纳的是机器学习的规矩,是人工指定学习样本后,由机器去拟定详细的规矩。哪怕算法设计者,也无法100百分之的确认规矩的细节。
并且,最要害的是市面上的查找引擎书上面所写的东西,未必是百度等商业查找引擎实践在用的,许多时分两者收支也不小,已然从查找引擎原理来推导不是全能的,那么还能够结合排名等成果现象,来反推查找引擎的规矩。
举个最简略的比如,100篇和同一个要害词相关的文章,其间50篇有图片、50篇没图片(其它要素假定都对等)。搜这个词的排名时,前50名里边有40名是有图片的文章,那么就能够大略反推出定论,文章里边加图片是一个有利于排名的要素。
经过坚持长时刻调查,剖析许多比如,能够了解到许多他人不知道的查找引擎规矩,单了解查找引擎的规矩用途不大,还要了解详细能够怎么做,才干做出作用来。剖析竞争对手的网站,是陈词滥调却的确重要的工作。