海南地区做神马搜索的SEO优化,其实和主流搜索引擎的逻辑差不多,但得针对神马的算法特点做些调整。本文就从实战角度聊聊最近做的一些海南神马SEO优化操作。
TDK优化
TDK就是
title、
description、
keywords的统称。不过
keywords在神马搜索里权重已经很低了,基本可以忽略,重点还是
title和
description。
title优化
title的分隔符建议用
-或
,神马搜索对这两种符号的识别都还不错。长度方面,PC端建议控制在30个汉字以内,移动端20个汉字左右,超过会被截断。
海南地区的网站优化,建议
title格式如下:
- 首页:网站名称海南XX服务/产品
- 频道页:频道名称网站名称海南
- 文章页:文章标题频道名称网站名称
如果文章标题不长,可以加个地域关键词,比如
文章标题海南SEO网站名称。
推荐做法:
- 每个页面标题要唯一,别所有页面都用默认标题
- 标题要明确,包含最重要的内容
- 简明扼要,别堆砌无关信息
- 重要内容放左边,用户浏览习惯是从左到右
- 用用户熟悉的语言,别搞太生僻的词汇
description优化
description不会直接影响排名,但会影响点击率。长度建议PC端78个汉字,移动端50个汉字左右。
百度推荐的做法也适用于神马:
- 首页、频道页等没有大段文字的页面,适合用description
- 描述要准确,别堆关键词
- 每个页面描述要不同
- 长度适中,别太长也别太短
举个例子,第一个结果没写description,摘要看起来就没啥价值;第二个写了description,摘要更清晰,用户一看就知道内容是啥。
页面内容优化
使用html5结构
如果条件允许,建议用html5语义化标签,比如
header、
footer、
section、
aside、
nav、
article等。这样结构更清晰,对搜索引擎也更友好。
更多html5标签可以参考:All HTML5 Tags
唯一的H1标题
每个页面最好有一个唯一的H1标题,但html5里H1可以多次出现,每个结构标签都可以有自己的H1。
首页的H1用站点名称,内页的H1用页面标题,比如分类页用分类名,详细页用详细标题。
<!-- 首页 -->
<h1 class="page-tt">海南SEO优化</h1>
<!-- 分类页 -->
<h1 class="page-tt">海南SEO教程</h1>
<!-- 详细页 -->
<h1 class="page-tt">海南神马SEO技巧</h1>
img设置alt属性
img必须设置
alt属性,如果宽度和高度固定,建议同时设置固定值。
<img src="" alt="海南SEO优化" width="200" height="100" />
nofollow
对不需要跟踪的链接,设置
nofollow,比如博客评论、论坛帖子、广告链接等。这样可以阻止蜘蛛爬行,避免权重分散。
<a href="http://example.com" rel="nofollow">广告链接</a>
正文
内容方面:
- 自然写作,别刻意堆关键词
- 高质量原创内容,别抄袭
- 吸引用户阅读,别太枯燥
- 突出卖点,让用户知道你能提供什么
- 增强信任感,比如展示案例、客户评价
- 引导进一步行为,比如咨询、购买
用户体验方面:
- 排版合理,字体、背景要易读
- 重要内容放页面顶部,用户一眼能看到
- 内容与广告区分清楚
- 第一屏要有实质内容,别让用户下拉
- 广告别太多,别影响阅读
- 图片、视频有助于理解内容的话,尽量用
- 避免过多弹窗,影响用户体验
URL优化
URL设计原则:
- 越短越好
- 避免太多参数
- 目录层次尽量少
- 文件及目录名要有描述性
- URL中可以包含关键词(中文除外)
- 字母全部小写
- 连词符用
-而不是_
- 目录形式而非文件形式
URL静态化
虽然现在搜索引擎能爬行动态URL,但静态URL更利于收录和用户体验。建议尽量做静态化。
具体讨论可以参考:URL静态化还是不静态化?
URL规范化
1、统一连接
http://www.domainname.com
http://domainname.com
http://www.domainname.com/index.html
http://domainname.com/index.html
以上四个都是首页,但对搜索引擎来说是四个不同的URL,可能会被误认为是作弊。建议自己规范好,避免重复。
2、301跳转
如果URL变了,一定要把旧地址301指向新地址,不然之前的收录和权重就白费了。
3、canonical
这个标签表示页面唯一性,用在参数传递时,比如:
//:domainname.com/download/app.html
//:domainname.com/download/app.html?from=123
//:domainname.com/download/app.html?from=456
以上三个页面其实内容一样,只是为了追踪来源。为了确保搜索引擎认为是同一个页面,可以在
head里加
canonical标签。
<link rel="canonical" href="//:domainname.com/download/app.html" />
robots
robots.txt
搜索引擎蜘蛛访问网站时,会先看robots.txt文件,指导蜘蛛禁止抓取哪些内容或只允许抓取哪些内容。文件放在站点根目录。
以海南某网站的robots.txt为例:
- User-agent 表示规则适用哪个蜘蛛,表示所有
- # 表示注释
- Disallow 表示禁止抓取的文件或目录,每行一个
- Allow 表示允许抓取的文件或目录,每行一个
- Sitemap 表示站点XML地图,S要大写
下面表示禁止所有搜索引擎抓取任何内容:
User-agent:
Disallow: /
下面表示允许所有搜索引擎抓取任何内容:
User-agent: *
Disallow:
注意:被robots禁止的URL还是可能被索引,只要有导入链接指向它。比如淘宝禁止百度抓取,但百度搜索里还是有显示。
更多关于robots.txt可以参考:如何使用robots.txt及其详解
meta robots
如果不想URL出现在搜索结果中,可以设置meta robots:
<meta name="robots" content="noindex,nofollow">
上面代码表示禁止搜索引擎索引本页,禁止跟踪本页链接。
SEO工具
- 神马搜索风云榜:查看热门关键词
- 神马指数:分析关键词搜索趋势
- 神马站长平台:提交网站、查看数据
- meta seo inspector:检查标签,谷歌插件
- seo in china:查看神马收录数据,谷歌插件
- check my links:检查链接,谷歌插件
- seo quake:统计数据,谷歌插件