一、搜索引擎的算法经历了以下四大阶段的变化:
1、人工目录
主要用在2001年前,最早的雅虎模式,那时候SEO非常简单,只要把申请提交时候的资料进行技巧化的撰写,就可以获得较好的排名。
2、文本分析
2003年之前,这时候的谷歌和百度虽然有链接分析技术,但是其算法主要还是以文本分析为主,做SEO也非常简单,网页中把title和meta以及网页内容中的关键词密度提高,就可以轻松获得排名。
但是到了2004年初,出现了大量批量出现的垃圾站群,严重影响了google的内容,当时一段时间,搜索一些领域的热门词,谷歌前三页最少20多个都是垃圾站。最后导致了谷歌算法改进与排名大清洗。
3、链接分析
2004年到2009年,这段时间,SEO圈中最流行的一句话就是:内容为王、链接为皇!这一时间段,搜索引擎最看重的就是反向链接,反向链接越多,对排名越有利。于是就导致了后来的垃圾链接、买卖链接、黑链接的泛滥,最后不得已,搜索引擎升级算法,批量清理靠垃圾连接和黑链接获得排名的网站。
4、智能分析
提到智能分析,不得不提2006年发生的一件事,当初CN域名突然一块钱就可以注册,很快我就发现百度更新速度变慢,于是就预言百度硬盘将不够用。果不其然,接下来一年,中国垃圾站泛滥到了不可想象的程度,让百度苦不堪言,接着百度开始人工删除垃圾内容,同时提升原创内容分析技术。
2009年之后,SNS越来越流行,各种新应用层出不穷,各大搜索引擎的算法也进一步向智能分析迈进,融入了更多社会化网络分析的元素。不过,搜索引擎算法改变的核心原则永远不变,那就是:
1、防止垃圾网站的作弊手段
2、提升用户体验的技术分析
所以,不管搜索引擎的算法如何改变,我们只需要站到用户的角度,了解用户的需求,就可以推理出最新的算法。
二、最新SEO算法的经验分享
我喜欢把复杂的事情简单化,所以我只分享最重要的三点:
1、内容质量控制
2、关键词的布局
3、链接结构优化
4、浏览轨迹优化
1、内容质量控制
内容质量控制永远都是搜索引擎算法的第一重要目标,什么样的内容吸引搜索引擎呢?
答案:吸引用户的自然吸引搜索引擎!站到SEO的角度,如何规划网站的内容和编辑呢?
1)、内容的原创性:
搜索引擎最喜欢的就是原创内容,但是搜索引擎如何判断原创内容呢?简单分析一下,结果自然就有了。
A、你网站有的内容,别的网站没有,那么就是你的原创。
B、你网站有的内容,别的网站也有,那搜索引擎就需要分析一下了,可以从收录时间,文章中的链接等方面进行智能分析判断。这点谷歌要优于百度,百度仍然是权重高的网站有优势。
2)、内容格式丰富:
纯文字的内容肯定不如图文并茂,同时,像非网页格式的文档,在搜索结果排名中也有优势。例如,不管你在谷歌还是百度中搜索:SEO会刊排在前面的都直接是PDF文档。
3)、内容的转发数:
百度推出了“百度分享”功能,将直接统计网页被分享的次数,从一定程度上可以作为网页是否受欢迎的一个重要因素。
4)、站内内容打分:
我们在谷歌中搜索,经常会发现谷歌把用户最想看的内容都抓了出来,甚至“评星”都被索引出来了。
对排名非常不利的内容策略:
1、网站中大量重复的内容
2、网站中都是纯采集的内容
3、内容更新的频率起伏太大
2、关键词的布局
一个网页,要在6个地方合理重复出现关键词,这样关键词在一个网页中的频率就会非常的自然合理,这6个地方分别是:
1)、title
2)、meta
3)、H1
4)、B
5)、alt
6)、link
3、链接结构的优化
搜索引擎蜘蛛对网页的抓取,永远靠的都是顺着超链接去爬行,所以链接结构优化主要分两部分:
1)、外部链接建设
2)、内部链接优化
4、浏览轨迹的优化
关注百度的都会发现,百度的广告越来越智能,特别是百度联盟广告,它不再是按照网页内容进行匹配广告,而是会根据用户浏览行为来展现吸引用户的广告。这说明一个重要的问题,百度来记录和分析用户的浏览轨迹。
那么,站到浏览行为分析的角度,也可以判断出网页的受欢迎程度。
例如:
1)、跳出率
2)、浏览时间
3)、浏览深度
4)、点击率
5)、其他行为
可以进行判断,我前一段曾做过一个测试,后来证明了这方面对排名果然有影响。
暂无评论内容