当前标签 / SEO / 总共7篇

你的网站需要站点地图 XML 和 HTML sitmap 的七个理由

网站地图会引导你的网站访问者去他们想去的地方。如果他们还没有从下拉菜单中找到他们要找的东西,他们就在这里转弯。除了帮助访问者浏览您的网站(这应该是任何营销工作的主要重点)之外,使用站点地图还有许多其他原因。首先,重要的是要了解有两种类型的站点地图:

  • XML sitemaps
  • HTML sitemaps

什么是 XML sitmaps

XML sitmaps 可以帮助搜索引擎和爬行器发现网站上的页面。这些站点地图为搜索引擎提供一个站点的 url,并提供一个站点上所有页面的完整地图。这有助于搜索引擎对它们要抓取的页面进行优先排序。网站地图中的信息显示了一个网址相对于其他网址的页面变化频率,但这不太可能对排名产生任何影响。对于大型网站来说,XML站点地图非常有用,否则蜘蛛可能要花很长时间才能在网站上爬行。

每个网站都有特定数量的爬网预算分配给他们的网站,因此没有搜索引擎会在第一次遇到每个网址时简单地对其进行爬网。对于搜索引擎来说,一个 XML sitmaps 是一个很好的方法来建立它想要爬取的页面队列。

阅读更多

网站没有谷歌排名的原因汇总

网站在谷歌上排名越高,其曝光量就越高,获得客户的几率就越大,客户量也会随之提升。除此之外,高排名还可以帮助你的公司树立自身行业权威。据国外一篇调查报告,谷歌上排名越高的网站,往往越是受到用户的信任。这些就是为什么所有人都希望自己网站能够排到谷歌第一位的原因。但事实上,99.9% 的网站排名情况都不理想,甚至连个低些的排名都没有,那是为什么呢?以下内容将回答这个问题。

急于求成

SEO 是一个比较长期的过程,如果你急于求成,想在几天或者十几二十天就看到明显效果,往往只会有个失望的结果。就像一个孩子样,他不可能一夜之间长成大人。就像谷歌自己说的一样,现在的 SEO 没有捷径。谷歌 SEO 已经不能像原来那种简单地堆外链,就能迅速提高排名了,它越来越倾向于对于整个网站情况的综合考量,你的网站是否能够输出足够有用的价值。制定 SEO 策略,具体实施,观察结果都需要时间,这些事情都要一步步做。即便你所有的 SEO 操作都是合理的,那也需要时间让谷歌认知到,谷歌爬虫会反馈它观察的一切,通过一段时间的评估,再表现在网站的排名上。一般来说,经过合理优化,网站要三个月能看出效果;如果关键词是热词,那需要的时间就更长了。当然,如果是竞争不怎么高的关键词,需要的时间就会短一些了。

谷歌角度

谷歌一直在研究理解人们的搜索目的,以便给用户提供最精确的搜索结果。如果是一句完整的问题还好说,但我们常用的搜索词,往往只是一个单词,或者两三个单词构成的词组,这样的搜索方式能够提取的意图信息就很少了。针对这种情况,谷歌往往会反馈多元化的搜索结果。比如,搜索蛋糕这个词,它的搜索结果里会有蛋糕的图片,售卖蛋糕的店,做蛋糕的方法等。所以,排名做到越高,越要考虑谷歌想要展示的结果和你的定位是否相同。有时候如果你的关键词卡在比较靠前的位置,往往就是这个原因,而不是你做的还不够好。

阅读更多

国外谷歌SEO大神总结的200+个谷歌排名因素

谷歌算法是一套复杂的、智能的计算程序,谷歌通过它计算出每个网站的评分,进而给予对应的排名。在这套复杂的程序中,谷歌会应用数以百计的网站信息作为排名因素参与到算法的计算中。国外知名的谷歌 SEO 大神:Brian Dean,对这些排名因素进行了很好的总结,本篇文章将参考他的结论进行系统的说明。下面提到的众多排名因素中,有些是谷歌已经明确证实的,有些是推测出的,还有部分存在着争议。但无论怎么样,这些信息都可以作为我们参考的对象,帮助我们更好地理解谷歌算法。

域名因素

1. 域名年龄

相对来说,老域名比新域名更加具有优势,更容易获取谷歌信任。但,域名年龄相差只有一年,甚至几个月的时间,这种优势将微乎其微。域名年龄确实是个排名因素,但它的重要性不高。

2. 域名中包含关键词

域名中包含关键词的作用已经不像过去那么明显,但它仍然可以提高网站与关键词的相关性。

3. 域名中首个词语是关键词

把关键词作为域名中首个词语,要比放在中间或者最后,更加有点优势。

4. 域名到期时间

一个正常的域名通常拥有几年的到期时间,表明网站拥有者确实是打算长期运营这个网站。而,不正规的行业使用一个域名往往不超过一年。所以,一个域名到期时间的长短,也可以作为一个排名因素,尽量保持域名的到期时间超过一年。

阅读更多

设置Meta Robots标签和Robots.txt的最佳实践

数字营销人员和 SEO 专家知道搜索引擎索引是多么重要。这就是为什么他们尽最大努力帮助谷歌和百度正确地抓取和索引他们的站点,在页内和页外优化上投入时间和资源,比如内容、链接、标签、元描述、图像优化、网站结构等等。

但是不可否认高级网站优化是搜索引擎成功收录的基础,去忽略搜索引擎的优化技术可能会让你的网站对搜索引擎提不去兴趣。如果你从未听说过 robots.txtmeta robots 标签、sitmap.xmlmicroformatsX-Robot 标签,你可能需要重视一下了。

不过你之前不曾听说也没关系。接下来在本文中我将解释如何使用和设置 robots.txtmeta robots 标签。

什么是 robots.txt

robots.txt 是一个文本文件,用于指导搜索引擎机器人(也称为爬虫、机器人或爬行器)如何爬行和索引网站页面。理想情况下,robots.txt 文件被放置在网站的顶层目录中,这样机器人就可以立即访问它的指令。为了将命令传递给不同类型的搜索爬虫,robots.txt 文件必须遵循 Robots exclusion protocol (REP) 中的特定标准。REP 创建于 1994 年,之后在 1996 年、1997 年和 2005 年进行了大量扩展。

robots.txt 文件一直在逐步改进,以支持特定的爬虫程序指令、uri 模式扩展、索引器指令(也称为 REP 标记或 robots 元标记)和微格式 rel= nofollow

阅读更多

SEO标题,内容,锚文本,友链优化最佳实践

关于个人博客网站的 SEO 优化有什么实际操作上的建议呢,本文针对网站的 SEO 标题优化, SEO 内容优化,SEO 锚文本优化,SEO友情链接优化来说明如何提高搜索引擎的收录。

学习SEO的门槛是什么

学习 SEO 的门槛很低,你不需要学习编程技术,甚至不用懂的前端的 HTML 标记语言。很多朋友可能会说了,不懂 HTML 标记语言怎么可能做好 SEO 呢?我可以肯定的说这个不会有太大影响,你只需要知道几个标签的作用即可,当然了,来本站的大多数可能是程序员,对做 SEO 更不在话下,所以你已经具备了进入 SEO 的先决条件,接下来我们来看看怎么通过实践来真正的提高我们网站的 SEO.

最重要的SEO优化文章标题关键字

我认为最重要的SEO优化,其实也是最简单的优化方式,那就是对文章标题进行优化,在标题中尽量包含长尾词,什么是长尾词呢?后面我再做出解释,我先来说说标题的重要性。搜索引擎首先会来到我们的网站首页,然后依次去寻找上面的导航,和首页的重要标签例如 <h> 标签,也就是标题。标题所使用的 <h> 标签对于搜索引擎来说是很重要的,他会以这个标题为依据来初步抓取里面的关键字来判断你的内容可能是什么,是不是它最需要的,就像我们看书一样,肯定是先看这本书的名字,从名字上初步判断是不是我们想要读的书籍。

阅读更多

个人博客文章内容多长利于SEO优化

今天我们来聊聊一个和技术无关的话题,如何 控制和优化文章内容的长短来提高SEO,这个问题很多人可能会嗤之以鼻,心里会想这就是扯蛋,文章长度怎么会影响SEO呢。很多人都是这么认为的:

  • 我们应该从用户角度出发,考虑用户体验,别搞什么SEO长度优化,没多大作用。
  • 你如果要写的内容很多就写长一点,如果要写的内容少就写少一点,没有啥可考虑的。

和上面持相同观点的人不在少数,这些观点我也部分认同,但是事实上文章的长短确实会影响搜索引擎的喜好和收录,主要有下面几个原因。

SEO优化文章不能过短

有的朋友在写博客的时候喜欢将文章分成很多部分,这样做会有一些问题是 搜索引擎不容易判断出文字的主题 是什么,也就判断不出与什么关键词最相关。一般情况下我们的 搜索引擎会对标题中的关键字进行提取,但是如果你的文章内容太短,内容中的关键字和标题关键字就匹配度不高,这样搜索引擎会认为你的文章有抄袭或者贴标嫌疑。

阅读更多

Hexo Next博客配置和SEO优化

SEO优化

在Gitlab上面搭建的博客,最近又买了域名给搭建了起来,文章有了,但是发现百度和Google的索引量比较少,乘着国庆假期抽空又折腾了一番,添加了百度和google收录,更换了静态资源cdn地址,对静态资源进行了压缩。

静态资源压缩

百度收录

在搜索引擎中输入site:<域名>, 如果没有被收录可以点击“网址提交”来提交网站。百度链接提交

生成站点地图

我们需要使用npm自动生成网站的sitemap,然后将生成的sitemap提交到百度和其他搜索引擎。

npm install hexo-generator-sitemap --save     
npm install hexo-generator-baidu-sitemap --save

阅读更多