SEO 优化方式
- SEO
-
手动优化网站,长期做法;
- SEM
-
买排名,短期做法;
SEM 有见效快、范围广、操作简单、季节性优势;但有价格贵、波动大、恶意点击问题(模仿真实IP搜索点击指定竞价广告,让你造成预算快速消耗或广告提前下线)。
|
本文主要介绍 SEO
网站主动收录
-
sogou: http://fankui.help.sogou.com/index.php/web/web/index?type=1
-
Google:https://www.google.com/webmasters/tools/submit-url
-
bing:http://www.bing.com/toolbox/submit-site-url
-
神马:https://zhanzhang.sm.cn/
-
YANDEX
-
Ecosia
-
Yahoo
-
Naver
-
DuckDuckGo
1. 链接提交尽量全 2. 确认站点类型是否有移动端适配,建议自适应 3. 提交备案号 4. 大概提交一个月左右可能被收录
页面布局
HTML
代码注意
<h>
标签
-
h1-h6 依次减弱
-
h1 / h2 不建议在一个页面中同时使用
-
h1 / h2 建议包含关键词
-
h1 / h2 建议只出现一次
-
h3/4/5 不建议使用
-
h6 可用于友情链接,降低友情链接对页面关键词的影响
Nofollow
当超级链接中出现 nofollow
标签时,搜索引擎不考虑此链接的权重,也不参与排名
-
写在meta标签上,告诉爬虫不要抓取网页上的外部和内部链接;
<meta name="robots” content="nofollow” />
-
写在超链接a标签中,告诉爬虫不要抓取特定的链接,如
rel="external nofollow"
-
网站链上垃圾网站会降低权限,对可以的第三方链接使用
nofollow
标签 -
网站版权、备案、站外链接都应该加
nofollow
标签
robots.txt
存放在根目录下的文本文件,告诉爬虫哪些内容可否索引,也可以将不希望爬虫索引的内容放进此文件
-
引导搜索引擎蜘蛛爬取
-
指定栏目或内容
-
抓取网站地图
-
重构目录改名,将旧的目录暂时屏蔽
-
-
屏蔽页面
-
死链、404错误页面
-
无意义无内容页面
-
重复页
-
不想被收录的页面
-
较大的文件,如图片、视频等节约宽带提升速度
-
Sitemaps
-
通知爬虫哪些网页是可以爬取的
-
此文件通常是
xml
格式(较少为txt
) -
每个网址包含一个父标记条目,一个子标记条目
-
网址应该以
http
开头,少于2048
个字符 -
可以通过各个站长平台提交,也可以将地址放在
robots.txt
文件中;在robots.txt
最后一行添加http://www.yours.com/sitemap.xml
URL 优化
常见 URL
不规范问题
-
同一页面链接不统一;
-
静态化
URL
设置错误; -
静态和动态
URL
共存; -
加密网址https和未加密网址http同时存在;
-
URL
中有端口; -
在
URL
后面添加跟踪代码,如trace
,click
跟踪;
最佳实践
-
链接保持统一
-
使用
canonical
标签,解决多个不同URL
可访问相同页面的问题,如/index.html
和/
指向相同文件 -
在
http://www.example.com/standerd?timestamp=12345
里添加<link rel="canonical" href="http://www.example.com/standerd" />
-
注意添加的链接不要绑定端,避免
PC端
关联到移动端
情况 -
尽量使用
绝对链接
,而非相对链接
-
一个页面中只设置一个
canonical
标签 -
网站更换域名时,服务器不支持重定向的情况下,可以使用
canonical
标签
-
-
制作
xml
网站地图规范化网址,提交搜索引擎; -
301 重定向