要做好网站SEO,首先要做的是思维上的转变,理解和接受这些最新的SEO做法。了解在这个充满不确定的环境下,网站如何符合Google排名规律,才有可能在外贸数字营销时代大展身手。
今天就来说说Google SEO的一些基本知识。
我们常说的Google SEO,其实是Google搜索引擎优化(Search Engine Optimization,简称SEO)。
可以这样拆分理解:Google + 搜索引擎 + 优化。
Google: 这里的搜索引擎特指是Google,Google全世界用的最多,大概占了92%。当然还有其他搜索引擎,比如360,Bing,百度,Yahoo!等等,给大家看看数据:
搜索引擎: 这些搜索引擎的核心模块一般包括爬虫、索引、检索和排序等,这些模块有各种规则,但目的只有一个:为信息检索用户提供快速、高相关性的信息查询服务。
优化: 有大量的查询结果,就会有排名前后之分,于是就有搜索排名。优化排名也就是通过一系列网站规划,让网站排名更高。
说到这里,你应该能get到Google搜索引擎优化了吧?
一句话概括:根据Google的搜索引擎排名规则,来规划整站,确保网站从内容、结构、链接等尽量符合Google排名规律,能在Google搜索结果中获得较好的排位。
而高排位的背后,往往意味着询盘。
原理理解起来很简单,最重要有三步:抓取,收录,排名。
来个形象生动的图片说明:
Google的这个排名也是根据用户在你网站上面的表现,例如网站停留时间,跳出率,退出率。
这个指标站长也可以通过安装Google的Analytics分析代码到自己的网站,然后进入GA后台看到网站的数据表现。
说到这里,很多外贸朋友在建好网站之后会有疑问,我的网站到底被收录了没?
发现自己网站有一些重要页面没有被收录怎么办?别慌,有几个常见的原因,可以自己检查,或者让你的技术人员排查一下。
如果页面的Meta标签中添加了<META NAME=”ROBOTS”CONTENT=”NOINDEX, NOFOLLOW”>的代码,就是在告诉搜索引擎不要索引该页面,那就不会被收录了。
如果在网站的Robots文件中添加了User-agent: * Disallow: /ABC/ 的代码,则是告诉搜索引擎不要索引ABC目录下的所有页面。Robots文件中的命令优先级是比页面Meta标签的命令高的,Google会严格遵循Robots文件中的命令,但是页面Meta中的命令有时候会被忽略。如一个页面即使在Meta代码中明确加了Index的指令,但是在Robots文件中是Disallow的话,搜索引擎也不会收录该页面。
Sitemap文件是搜索引擎抓取网站页面的有效途径之一,如果网站缺少sitemap文件,或者sitemap中不包含页面URL,这都有可能造成网站或页面不被收录。
Canonical标签主要用于两个页面间内容一样,但是URL不一样的情况,如很多有SEM投放需求的站长,为了跟踪广告效果,需要给Landing Page添加多个UTM跟踪参数;Canonical标签就能规范化这一批URL,让搜索引擎理解这些不同URL间的关系,避免内容的重复和权重的分散。但是如果A和B两个页面间的内容不一样,却给A页面加上了指向B页面的Canonical标签,这就会导致搜索引擎不能很好理解页面间的关系,因而不收录目标页面。
除了这些原因,还有可能是因为:
原因很多,最好找专业人士给你排查一遍。