SEO的系统化优化策略
发布时间:2016-07-27
SEO说到底是一种营销方式,基本的游戏规则包括三点,1.在搜索用户中发现自己的目标用户,2.将搜索用户拉到自己网站来,3.将搜索用户变成自己的用户。这个套路依稀让我想到了怎么把大象装进冰箱 :)
SEO说到底是一种营销方式,基本的游戏规则包括三点,1.在搜索用户中发现自己的目标用户,2.将搜索用户拉到自己网站来,3.将搜索用户变成自己的用户。这个套路依稀让我想到了怎么把大象装进冰箱 :)
【在搜索用户中发现自己的目标用户】
目标用户的界定,实际上是一种匹配。搜索用户信息检索需求表现为搜索用的词,而作为网站可以提供什么信息服务,则由自身的业务和内容生产能力来决定。这个匹配过程,其实就是了解自身,用自身的特性,去框搜索用户的过程。最终的产出将是一个符合自己业务的搜索关键词库。
那么,这个关键词库如何来? 基本的关键词获取方式大家都知道,无非是自身,搜索引擎,竞品。包括但不限于以下方式:
1.自身商品或者服务相关的名词,品牌词,属性词等等;
2.站内搜索词;
3.自己的网站在搜索引擎获得曝光和流量的词;
4.百度相关搜索词;
5.百度凤巢扩词接口扩出来的词;
6.百度指数中的相关词;
7.竞品站点上结构化的数据;
8.上述关键词切词后获得的词;
关键词的导入与数理是一个繁杂的工作,也会伴随着对于自身业务的理解,对于搜索用户的了解,而不断完善。最终的产出,将是一个持续流入的关键词库,关键词有明确的词性界定,关键词之间有多维的关系。另外,最好还需要有关键词搜索量与竞争难度等信息。关键词的整理也是一件有趣的事情,一切有效的商业行为都是为了满足人的需求,而研究关键词,就是在研究需求。了解需求,满足需求,是一个小的闭环。
关于关键词特征,举个简单的例子(来自于百度),
实质上,百度大搜召回的模板,就对应着搜索的行为模式。
不同行业的模板,需要自己在大量领域内关键词的基础上去提取特征。
关键词库的整理有些可以通过系统化的方式来实现,比如站内搜索词的导入,百度相关搜索词的抓取,利用凤巢接口获得凤巢扩词,以及切词,词性定义等等。由于与业务紧密耦合,还是有很多非结构化的事情,需要结合人工处理。慢工出细活,在关键词上花再多时间也是值得的,就像商店想卖东西,需要琢磨客户需求,再去迎合客户类似。
实际上,对于用户需求的挖掘,可以从很多地方找到应用。比如广告投放中,DMP公司从事的就是用户特征提取分析的工作,数据用来供广告投放做到精准营销;再如站内的精准化推荐,根据系统track到的用户行为,给用户做相关推荐,等等。
更好的了解目标用户的需求是成功的第一步,对于SEO而言,就是建一个好的词库。有了词库,才能明确需要推动什么信息的生产,来满足搜索用户的检索需求,有了词的关系,才能更好的构建页面内的信息维度,才能更好的布局内链,集聚相关语义的权重。
【在搜索结果页中触达用户】
很多SEO的初学者会问,学好SEO需要看什么书? 我经常回答,搜索结果页(SERP,SearchEngine Result Page)就是学习SEO最好的资源。由于搜索引擎的算法持续更新,所以搜索结果页才能告诉你当前什么样的做法更能获得好的排名,哪类词商业化很严重,靠纯SEO很难获得流量,等等。毕竟事实胜于一切。
SEO的基本套路无非是对搜索引擎的程序更加友好,满足搜索用户的信息检索需求,给搜索用户更好的体验。
当然也不乏一些黑帽或者擦边的做法,比如利用搜素引擎的一些规则漏洞快速提升排名,最典型的是贻害无穷的点击器;或者利用与搜索引擎的关系做些阿拉丁投放,阿拉丁的特征很明显,搜索结果条目的样式有result-op字样,电商行业曾经与百度合作过的百度微购也属于阿拉丁的范畴;再或者与百度进行换量之类,不过这需要关系和渠道。
抛开上述这些资源和渠道的影响外,回归到SEO的基本套路上来,目标就是要尽可能多的占到搜索结果页的前几位,这样才能实现触达用户的目标。那么问题就变成了如何更多的接近我们的用户呢?
简单介绍一下搜索引擎的工作原理,
搜索引擎的工作分为离线部分和在线部分,离线部分负责抓取网页,构建倒排索引,在线部分负责提供前台搜索接口,根据用户query的词取倒排索引,计算排名,进行一些本地化/个性化的处理,最后返回10条结果的搜索结果页。整个信息流自左向右流动。
根据上面说到的原理,触达用户的目标就变成了:
1.站内存在跟用户query词相关的页面,这一步是内容与页面的覆盖
2.这个页面被搜索引擎抓取,索引,并且在参与排名的索引库中
3.这个页面获得好的排名
4.这个页面的title,description,缩略图这个小的广告创意能吸引用户点击
5.这个页面能满足用户需求,而不是很快跳出,去访问别的搜索结果条目
6.这个页面能帮助网站达到品牌曝光,或者转化的目标
对应到漏斗模型,如下图所示:
上面的漏斗模型也表征了SEO业务层面上的数据链路,而从系统上支持上述链路的数据监控,可以清楚的知道目标,产出,和中间过程的每一步细节,从而可以更好的利用数据驱动SEO工作。对于漏斗模型优化的一般做法是,找漏斗中的瓶颈,并针对性的优化,并根据后续节点的效果反馈,进行策略或者实施的调优,形成闭环。
下面简单说说漏斗中各步的数据处理。
【内容与页面】
内容是是原材料,有了原材料,才能保证厨子是用武之地。一般情况下,内容生产以业务目标为导向,对于重度依赖SEO流量的领域,SEO对于内容生产会有较大的发言权。总的来说,内容生产要能覆盖目标用户的搜索需求,比如用户搜索了"孕妇吃芹菜好不好"这样的长尾,如果站内都没有相关的内容,那就没办法做相应的页面,拿到SEO流量也就无从谈起了。如何根据搜索用户需求更好的组织内容生成,一般需要公司上层的支持。如果自己没有编辑团队,也可以考虑建立一支兼职团队。3C/女性时尚/医药电商一般都有很强大的编辑团队,比较典型的是太平洋(在香港上市了); 据我所知,途牛维护着一支很好的兼职团队。
除了编辑之外,站内搜索聚合,采集外站再处理加工,也是经常使用的内容生成方式。
很多以业务目标为导向的公司,并未能从公司战略层面上给予内容生产足够的重视,没有意识到信息资产的价值,从而造成SEO人员巧妇难为无米之炊。站内大量优质的领域内的内容,以及内容生产的能力,是超越SEO的,即便SEO不再存在,或者换成别的形式,内容也可以对自身用户带来很大的价值。
从关键词,到内容和页面,完成了需求分析和生产。内容在页面上如何布局,如果处理好内容的结构化,从而更符合搜索引擎的口味,还有很多细致的工作要做,这里不展开。
【抓取与收录】
搜索结果页是站点之间竞争用户的战场,要想在竞争中获胜,首先你得站到战场上去。根据之前说到的搜索引擎的原理,我们知道,要在搜索结果页中出现,首先生产的页面要被搜索引擎的蜘蛛抓取。蜘蛛发现网页,正常情况下是通过站内的链接,和站外的链接,按照广度优先的原则,提取页面中导出的URL。一般来说,站长还可以通过提交Sitemap,Ping通知蜘蛛,手动提交等方式,帮助蜘蛛发现有效的URL。
前面说到,通过链接抓取网页,按照广度优先的原则。一般的小站,搜索引擎从起点页抓取三四层的深度也就不错了,一般这个起点页都是网站首页。所以SEO要将网站整体设计成扁平的结构,有些时候需要为蜘蛛搭一些梯子,帮助它在较短路径上接触到更多的URL。举个例子,
一般情况下,一个页面内导出链接不能过多,超过某个值蜘蛛就不抓了。之前的经验是100,但是这个数值还是跟网站和具体页面有关。在网站层级和单页导出链接总量两个约束条件下,还有一点文章可做,那就是时间。单个页面导出链接最多是100,如果我每天换掉其中的50个呢? 一个最简单的实现方式是借助于缓存机制,固定的取50个,另外再在全集中随机取50个,这50个设置缓存时间1天,1天后失效,再随机取50个,这样可以最大化导出链接的时效性,就像广告的分时段轮播一样。这里的数字可以根据实效进行调整。站内如此,对于批量交换的外链,也可以按照类似的方式实现。
对于移动页面,有两种主要的机制通知到蜘蛛PC页与移动页的对应关系,一是在PC页头部加上mobile-agent的meta属性,二是在站长工具提交PC/移动页对应关系的正则(也可以提交全量的URL地址对)。
抓取这个环节至关重要,站长平台的抓取频次,和通过accesslog分析得到的抓取明细,都需要时刻监控。小站的log文件,市面上有些一些日志分析工具,自己写也OK。对于大站的log,很多都存储于hadoop这样的分布式存储上,一般需要定制程序去分析处理。为了即时分析处理,快速反馈,可能需要接入流式计算框架(kafka+storm)。
对于蜘蛛抓取行为数据的使用,可以用来评估蜘蛛对于站内页面价值的评定,可以用来反馈辅助抓取所做的一些优化的效果,可以预估新生成页面被搜索引擎接受的程度,等等。没有使用价值的数据是没用的,数据跟具体的应用场景结合起来,才能体现其价值。
对于抓取的页面,蜘蛛建立倒排索引后,会进行价值判定,按照价值高低,存储在分级索引库中。高级别的索引库才会参与最终的搜索排序。
一般SEO开始学的时候,都会接触到site语法,基本上所有常见的搜索引擎也都支持site语法去查询域名或者目录级的收录量查询。在site查询语句的后面加上一个词,可以查询得到该域名与这个词相关的页面。比较有价值的是,site语法查出来的结果,按照网页的价值倒序排列。这个特征便使得依据相关性内链,提升第二页/第三页落地页的排名成为可能。
【排名与流量】
对于有搜索量的词,获得好的排名,几乎确定了能获得流量。这里说几乎,因为还有一个点展比(点击量除以曝光量)的概念。按照谷歌的规律,PC搜索结果中,前四位获得点击的几率是42%,12%,9%,6%。
先说排名。说到搜索排序,有很多场景下可以用到,比如在搜索结果页中的推广链接区域有个排序;在淘宝里面搜索,商品返回的结果列表有个默认的排序;App Store中搜索也会按照一定的规则返回结果列表;同样的,在广告投放中候选广告创意去竞争一个展示机会时也有一个排序。这些排序与自然搜索的排序有一个共同点,即为了用户体验,将最好的,最符合用户需求的排在前面,从而提升用户体验。
影响自然搜索排序的因子应该很多,众所周知的,如网站自身的权威性与价值,网页的导入链接权重,网页结构/速度,网页内容的原创性,以及最重要的,用户搜索词的出现频次,页面Title与H标签中出现搜索词的频次,等等。这是事前的因素。
有一点特别要提及的,搜索引擎为了构建良好的搜索竞争生态,对新站有个补偿机制。这也是实际有效的排序因子。
还有一点事后的因素,获得排名,用户点击,之后是否还点击了别的搜索结果。如果你的页面排在某个词的搜索结果第一位,搜索用户点击了你以后,还总会点击第二位的结果,那显然第二位的结果更符合用户需求,排序如何变化可想而知。这点可以从百度公开的专利中找到依据,点击器也是利用这个原理来实现的。
获得排名的搜索结果,展现给用户的信息包括,页面Title,Description或者页面内提取的信息摘要,缩略图,首页的子链接。后面两者可能有,也可能没有。还有一个相对次要的因素,搜索结果的域名/链接摘要。如何在获得曝光的情况下,吸引用户点击? 除了让自己的排名尽量靠前外,可以做的事情还包括,优化Title/Description的文案,在页面主体区域提供合适尺寸的图片增加被作为缩略图的几率等。搜索结果条目示例如下:
百度自己的产品虽然有被提权的嫌疑,但是从SEO的角度看,仍然有很多值得学习的地方。对于一些如果不确定,可以研究百度自己的产品,看具体的实现方式。
经过了关键词,内容,页面,抓取,索引/收录,排名,流量,这个漫长的链条,我们再回头来看封面上的漏斗模型,可以从中反思,我们的短板在哪里,机会又在哪里。如果将这些数据汇集在一起,随时利用这个数据链去监控网站的SEO状况,利用数据对一些优化操作进行效果监控,甚至通过定义一些自动化的策略,使得系统自己可以实施一些优化操作,并利用数据反馈,再调整,再优化,实现智能优化,真正发挥数据的威力。
【流量到转化】
SEO流量获取的问题解决以后,就要考虑怎么去承接这些流量了。与广告类似,流量的目的一般是两个,品牌曝光,直接效果。品牌曝光一般难于做效果监控,所以本篇主要聊直接效果。
实际上,承接的效果如何,对于获取流量的能力又有很大的影响。外部来说,内容不满足搜索用户的需求,跳出率高,搜索引擎里面的排名会掉。内部来说,老板看的是最终目标,曝光量大,转化多,成单多,可以让老板更重视SEO,给更多资源,有了资源,就可以更好的做SEO,从而形成一个良性循环。
以直接效果为目标的流量,转化可能受到四个因素的影响,
1.流量的质量,或者说流量背后的用户跟自身需要服务的用户的重叠程度,把不相干的流量引来,可能是做无用功,用术语说,就是要做到精准营销;
2.用户触达站点时对于有几分信任,有信任作为背书,往往转化也会高些,比如知名品牌的官网往往转化会高,搜索一般的商品品牌/店铺名的流量,本身对目标有认知,转化也会高一些;
3.自身提供的产品或者服务本身的特性,有些情况下用户决策很快,比如单价较低的,标准化的东西的购买,这种比较容易形成转化;
4.给用户第一眼看到的内容,就电商这个行业来说,页面上展现相关的促销信息,或者提供给用户更多的选择机会,则会有更高的概率转化,比如列表页优于单页。
不同的行业/不同的承载方式(网站/APP/微信/淘宝店/自媒体等),有不同的流量获取渠道和方式,不同渠道的流量占比也会各有不同。比如京东的网站,应该包括但不限于如下一些渠道,直接访问,搜索引擎(PPC/品专/SEO),导航站,返利站,导购站,输入法弹框,网盟(自有/第三方),广告,微信入口等,具体到SEO,两年前听到一个未经证实的数据,京东SEO流量占总流量的比例大概11%。作为对比,某知名在线旅游网站,SEO流量占比达到了30%。对于垃圾站群推的文学/影视类网站,SEO流量的占比应该不低于90%吧。不同渠道的流量,转化率也会有所差异。对于电商来说,直接访问的流量,返利/导购网站来的流量,一般都有相对明确的目的,也有一定的认知,所以决策曲线短,成单的概率大。下面画了一幅很假的饼图充数:)
整站的整合营销,考虑的是整体的ROI,有些时候为了配合大规模的促销活动,也会放低ROI的标准,因为高转化的优质流量毕竟是有限的。当然,调节的细部手段还有提高网盟CPS结算的返点,与搜索引擎等流量入口达成临时合作等等。可能有些未尝试过的流量,可以少量测试,总的策略是确保总量的前提下,提高总体ROI,可以用CPA或者CPS的方式做内部衡量。
【流量跟踪】
最后简单说说Track。我们一般统计流量,会用GA,百度统计,CNZZ,51.la之类的统计工具,或者模仿这些工具,自己做个流量track系统。对于外投的流量渠道,往往根据链接参数中的track码来区分来路,相对常见的是GA中定义的一套,
当然,如果你不喜欢,你可以自己搞一套,比如tracker_u这样奇怪的东东。
对于用户进入站内以后的行为,会根据用户session存活周期,或者cookie埋的guid之类来监控。页面上埋js代码,用户页面跳转或者点击页面内元素的动作,都会被js发送到后台数据库,作为后续分析的依据。对于效果类流量的效果反馈,最直接的就是比如下载,订阅,或者加购物车,成单之类。
数据驱动的决策是科学的,拍脑袋依靠经验做的决策是耍流氓。所以说,流量之后,用户进入站点以后的行为的数据采集,不仅仅对于流量效果是个反馈,同时在站内进行精准推荐,或者在不违反用户隐私的前提下,将数据加工后,以类似于DMP的方式放到ADX中进行售卖,也是变现的一种方式。