Hexo个人博客SEO优化指南


安装sitemap

  1. Windows环境下直接在博客根目录打开Git Bash,运行命令:

     npm install hexo-generator-sitemap --save 
     # sitemap.xml    提交给谷歌搜素引擎
     npm install hexo-generator-baidu-sitemap --save 
     # baidusitemap.xml    提交百度搜索引擎
  2. 在站点配置文件_config.yml中添加以下代码:

    Plugins:
    - hexo-generator-baidu-sitemap
    - hexo-generator-sitemap
    
    baidusitemap:
       path: baidusitemap.xml
    sitemap:
       path: sitemap.xml
  3. 修改站点配置文件_config.yml,添加url,其次就是Hexo文章默认的链接是:year/:month/:day/:title/这样的链接对SEO十分不友好,所以应改成title.html格式:

    # URL
    ## If your site is put in a subdirectory, set url as 'http://yoursite.com/child' and root as '/child/'
    url: http://mahoo12138.github.io
    permalink: :title.html
    permalink_defaults:
  4. Hexo编译,提交站长平台

    Hexo g && hexo d后会在/public目录下生成sitemap.xmlbaidusitemap.xml,这就是站点地图。 之后就可以提交到各大站长平台了。

添加关键词

站点关键词

在博客根目录下找到_config.yml文件,在所示地方添加keywords: 关键字1,关键字2,关键字3…,采用英文逗号隔开,注意keywords关键词之间的空格

title: Mahoo Blog
subtitle: 记录技术成长的每一瞬间
description: 一切的恐惧都来源于无知!
keywords: 老黄博客,Mahoo Blog,Stm32,Mahoo,Mahoo12138
author: Mahoo Huang
language: zh-CN

文章关键词

打开主题路径内的head.ejs文件,不同主题所在路径和文件都可能不同,Next主题是 head.swig,我的主题是head.ejs,添加如下代码:

# next theme   head.swig
{% if page.keywords %}
  <meta name="keywords" content="{{ page.keywords }}">
{% elif page.tags and page.tags.length %}
  <meta name="keywords" content="{% for tag in page.tags %}{{ tag.name }},{% endfor %}">
{% elif theme.keywords %}
  <meta name="keywords" content="{{ theme.keywords }}">
{% endif %}

# matery theme    head.ejs
 <% if (page.keywords){ %>
    <meta name="keywords" content="<%- page.keywords %>" />
 <% } else if (theme.keywords){ %>
    <meta name="keywords" content="<%- theme.keywords %>" />

添加上述代码后,主要是检测文章内是否有关键词,之后还要在\scaffolds\post.md中 添加:

keywords: 

就可以在新写的文件里添加keyword,格式为[keyword1,keyword2,keyword3] 。

配置robots.txt

robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元资料) 。

简单来说,它就是网站和爬虫之间的协议,规定了哪些文件可以访问,哪些文件禁止访问。

在博客根目录下的source新建robots.txt写入:

User-agent: *
Allow: /
Allow: /home/
Allow: /archives/
Allow: /about/

Disallow: /vendors/
Disallow: /js/
Disallow: /css/
Disallow: /fonts/
Disallow: /vendors/
Sitemap: http://lansus.coding.me/sitemap.xml
Sitemap: http://lansus.coding.me/baidusitemap.xml

在编译后这个文件会出现在blog/public中 ,控制的就是该目录下的文件。


文章作者: Mahoo12138
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Mahoo12138 !
评论
 上一篇
STM32的SysTick定时器初体验 STM32的SysTick定时器初体验
注:本文属博主学习时所作笔记,内容源大参考于野火的《零死角玩转STM32F103》以及部分网络资料,笔记内容仅作为自己参考,免去频繁查询参考手册的麻烦,如有错误,还请指出! SysTick介绍SysTick 属于CM3内核的外设,它可以产生
2019-11-11
下一篇 
小记C语言中的宏定义及条件编译 小记C语言中的宏定义及条件编译
普通宏定义#define PI 3.14 #define a (1+2) //添加括号使语义表达更清楚 printf("%s:%d","PI",PI); //引号中的宏定义不会被替换,输出:PI:3.1
2019-11-02
  目录