在过去的几年里,SEO经历了广泛的变化和变化,每天都在进行。虽然大多数传统的营销策略(在很大程度上)仍然适用于今天的数字营销,但SEO的变化极大地改变了营销环境。如果不是全部的话,这些变化中的大部分都帮助改善了互联网,尤其是搜索。然而,一些人仍然坚持“老方法”,试图使用过时的SEO实践来提高其品牌的有机搜索的可见性和性能。一些策略在几年前是有效的,但现在不像以前那么有效了。然而,许多新的市场营销人员/小企业主仍然在使用这些“僵尸”SEO技术(这些策略应该已经消失了,但不是由于某些主要原因)。它们不仅无效,而且以下12种过时的SEO实践中的许多都对您的品牌、网站和其他数字资产的健康存在潜在的危险。
1. 滥用关键词的网站管理员和“营销人员”有很多方法继续误解关键词在一般SEO活动中的作用,以及如何在日常策略中使用它们。让我们仔细看看特定类型的关键字滥用和管理不善,包括不相关的使用、关键字密度编写和关键字填充。
1)不相关的关键词定位/混淆搜索引擎优化新手往往试图将自己的内容和信息局限于关键词研究(除此之外,别无他法)。这些“营销人员”将塑造内容及其元数据,以表示与之不匹配的关键字,并指示用户搜索大量关键字的适当意图。这使得品牌在有机会与读者交流真实信息之前就失去了读者的注意力。如果营销关键词与页面上的内容不一致,这种脱节会阻碍内容的成功,即使内容质量很好。不要试图误导用户,也不要为了增加可见性而导致用户使用大容量关键字错误表示内容。百度知道它是什么样子的,它可以被定义为一种过时的SEO实践(在很多情况下是“黑帽”SEO技术)。
2)关键词密度,就像很多以关键词为中心的营销策略一样,是针对特定的“关键词密度”,而写作只是没有达到它的目的。百度不再依赖于关键字密度(或特定关键字的使用与整个页面内容的比例)来确定web页面是否是回答搜索查询的有效源。它比简单的爬行关键词要高级得多;像百度这样的搜索引擎使用很多信号来确定搜索结果。尽管关键字对于它们所代表的主题和思想仍然很重要,但它们并不是高价值搜索查询排名的“生命线”。内容质量和消息传递方式是这方面的生命线。
3)关键词优化可能是搜索引擎优化书籍中最古老的技巧。SEO是关于关键词的,这是一个传统的说法,对吧?因此,在我们的网页上加载关键词,尤其是那些我们在整个网站中积极定位的高价值关键词,将有助于我们获得更高的搜索排名,并超越我们的竞争对手?绝对不是。搜索引擎早就知道什么是关键字填充,什么是不自然的文本组合。他们注意到这些都是试图操纵搜索结果和降低内容。是的,可能仍然有一些有价值的内容充满了简单的关键字,不管是有意还是无意,因为它不会降低用户的实际价值。在过去,网站管理员认为游戏系统会尝试将高价值的关键字隐藏在网站的页脚中,或者更粗略地说,将这些关键字的颜色设置为与网站背景相同的颜色,从而有效地隐藏它们,并为搜索引擎爬虫专门填充它们。一些网站管理员尝试了链接。(提醒你不要这样做是很重要的。)记住,您是为人类而写,而不是为搜索引擎而写。
2. 为机器人写作很重要的一点是要明白,非自然的写作最终也是非自然的。搜索引擎也知道这一点。他们的信念是,为互联网写作意味着我们应该重复一个主题,每次我们提到它的时候都要用它正确的名字,并在同义词和同义词版本中工作,以便“涵盖所有的基础”。当爬行时,搜索引擎爬行器将看到重复的关键字,并出现在几个不同的版本中,因此页面在使用的关键字更改方面排名第一(一次又一次……反复使用这种SEO“技巧”。目前,这种方法不可行。搜索引擎已经足够先进,可以理解重复的关键字、它们的变化以及经常出现的糟糕内容的不良体验。为人类而写,而不是搜索引擎爬虫或任何其他机器人。
3.在SEO领域,任何试图“玩”系统的尝试通常都是不成功的。但这并不妨碍SEO从业者的尝试。尤其是当这些策略为品牌、网站或相关数字资产带来重大改善时。当然,文章目录可以工作。在很长一段时间里,他们都做得很好。文章联合经常被认为是最早的数字营销形式之一,对于那些了解它的人来说,这是一个方便的成就。这是有道理的,因为这个想法类似于其他已经使用联合内容的频道,比如电视和印刷品。但百度最终在2017年发布了蓝天算法的更新,改变了SEO的“游戏规则”。蓝天破坏了搜索,目标是销售软文本、目录和其他提供垃圾邮件的网站(无论是写得不好、没有意义,还是从别人那里偷来的)。在当今世界,文章营销背后的理念毫无意义。您的高质量的内容需要原创,并显示专业知识,权威和信誉。
4. 内容“洗黑钱”通常使用软件来完成内容“洗黑钱”是一种黑帽SEO策略,它试图使用不同的单词、短语或长句组织来重新创建高质量的内容。从本质上讲,最终的结果是一堆与原始材料观点相同的文章。这不再有效并不奇怪。尽管人工智能在创造内容方面取得了进展,但机器生产的任何东西的质量仍然低于人类生产的东西——一些原创的、有用的和实质性的东西。
5. 经过多年的购买链接,这个问题仍然困扰着网站管理员。像大多数SEO策略一样,如果它看起来可疑,你可能不应该这么做。购买链接也不例外。曾几何时,快速为大量站点链接付费是一种常见的做法。现在,我们需要维护和优化反向链接配置文件。就像我们监管的网站一样,有太多的反向链接指向低质量的网站,这可能对网站的健康有害。百度可以很容易地识别低质量的站点,它还可以识别这些站点何时发送大量不应该发送的链接。今天,如果你想在法律上帮助提高你网站的权威性和可视性,你需要的是链接,而不是雇人来建立链接。
6. 锚文本内部链接是任何优秀网站结构和用户体验的特征。这通常是通过锚文本完成的,锚文本是一个HTML元素,它允许我们告诉用户,如果我们单击一个链接,将看到什么类型的内容。锚文本有很多种类型(品牌、裸文本、精确匹配文本、网站/品牌名称、页面标题和/或标题等),但根据使用情况,某些锚文本肯定比其他锚文本更受欢迎。在过去,使用精确匹配和关键字丰富的锚文本是标准的SEO最佳实践。自“石榴算法”发布以来,百度在识别过度优化的内容方面做得更好。这又回到了生成结构良好、用户友好和自然内容的黄金法则。如果你为搜索引擎而不是用户进行优化,你很可能会失败。
7. 过时的关键词研究策略在过去的五到十年中经历了一些剧烈的变化。营销者过去拥有大量的关键词层面数据,这样我们可以看到什么对我们的品牌有效,什么对我们的品牌无效,同时,它可以帮助我们更好的理解定位和用户意图的概念。大多数搜索引擎优化都是带有关键字“(未提供)”的策略。在接下来的几年里,出现了一些工具来复制关键字数据。但是不可能完全正确地再现它。然而,即使现在有了这些剥离的关键字数据,营销人员仍然需要做自己的关键字研究,以了解行业、竞争对手、地理区域等。为了做到这一点,许多营销人员求助于百度的免费关键字研究工具。尽管这些数据多年来一直受到审查,但它是百度的免费产品。它提供了我们以前无法获得的数据,所以我们许多人(包括我自己)继续使用它。但重要的是要记住关键字数据的实际表示形式。关键词研究工具的竞争只涉及付费竞争和流量,因此围绕这些数据构建有机搜索策略是没有用的。一些替代方案是Moz关键字资源管理器工具和Symrush关键字魔术工具,两者都是付费工具。百度指数也有助于这类竞争分析,而且是免费的。
8. 拥有所有关键字变化的页面曾经是一个有用的策略,用于根据品牌及其信息对所有高价值的关键字进行排名。幸运的是,算法的更新,如飓风算法和清风算法,以及其他帮助百度了解到,在同一个词的变化,事实上,是相关的同一个主题。围绕这些实体的最好和最有用的内容应该是最可见的,因为它为用户提供了关于主题的价值,而不仅仅是单词的变体。事实上,这将导致残酷的网站自我侵犯,它使网站相当难以使用和导航,因为内容将是惊人的相似。仅仅负面的用户体验就足以证明不这么做是正确的。但是百度比忽略这种做法更了解这一点,这使得它成为一个不需要动脑筋的问题。这种策略不断发展,最终导致了许多内容字段的出现,这些字段只关注流量关键字的价值和可见性。这是由于优化网站的“老方法”——搜索关键字和搜索引擎,而不是用户和他们的搜索意图。
9. 针对精确匹配搜索查询定位和精确匹配搜索查询的策略,我们希望只搜索流量数据,而不是因为搜索查询或其答案实际上与业务相关。这种策略在百度搜索引擎完全部署到优化之前就已经成为一种流行的实践。营销人员将努力在精确匹配的搜索查询中排名第一,以触发一个突破框,并提高网站点击率。
10. 在某种程度上,为精确匹配的域在url中包含高值关键字是有意义的。但是当它变得令人困惑或误导时(例如,它会导致糟糕的用户体验),您必须画一条线。域名的一个主要的最佳实践是保持它与你的品牌一致。品牌名称应简短、简洁、有意义。为什么你不想从你的域名得到同样的东西?很久以前,百度用于为域分配精确匹配,因为使用它们作为排名信号是有意义的。这些行为数据现在已经帮助百度做出了这样的改变(和许多其他的),这是常识和重要的清理行动。以品牌的名义经营好公司,提供优质的产品/服务。当您的品牌与搜索它的用户相关时,百度将使您的品牌可见。
11. XML站点地图频率我们绝不应该试图操纵搜索引擎爬虫程序使我们的站点比其他站点爬行得更多,因为搜索引擎爬虫程序认为已经发布了新内容或对站点进行了重大更改。然而,由于网站管理员在过去已经这样做了,网站地图的使用与最初的意图有很大的不同。以前,网站管理员可以为站点地图上列出的站点的每个页面提供一个优先级编号,范围从0.0到1.0。由于它从未被正确使用过,爬行动物甚至没有观察到它的频率水平。相反,搜索引擎只抓取他们认为需要抓取的东西。确保在搜索引擎优化中遵循XML站点地图最佳实践。网站地图对于每个网站来说都是非常重要的元素。
12. 面对低质量的内容。在我们的世界里,曾经有一段时间垃圾内容的排名仍然很高。但是时代变了!被盗的内容、稀疏的内容、关键字填充的内容、不可信的内容——所有这些内容都曾经可以通过搜索引擎爬虫获得并返回给用户