各种类型和规模的站点的主要要求包括以下建议,这些建议按重要性和相对频率在线排列:
1.配置从非主站点镜像中带有“ www”(或不带“ www”)到主站点的301重定向。您可以使用页面上的SEO检查器检查网络上任何文档的服务器响应代码。
2.从其他非主要站点镜像到主要站点镜像的301重定向的安装(例如,从域名“ www.stchck.pro”到“ www.sitechecker.pro”)。
3.创建和配置robots.txt文件。由于处理各种指令,建议对Google和其他搜索引擎的规则进行划分(例如,仅Yandex支持“ Host:”指令,而对于Google不正确)。
4.网站上的每个页面都有一个唯一的标题标签和一个描述其内容的描述元标签。
借助我们的网站审核工具,可以自动检查Title标记和Description元标记的唯一性。在这里,我们没有涉及如何正确填写这些文档字段的问题,而只是考虑了技术方面。
5.配置所推广网站页面的友好URL。最好为网站的所有页面配置友好的URL。创建的URL的质量控制:我们仅向同事提供URL地址,并请他描述该页面专用于什么。因此,您可以尝试使用我们的URL检查器来确定对Google足够友好。
6.创建并验证404错误操作的正确性。该页面的响应代码应为“ 404 Not Found”。对于所有网站部分中的错误URL,应显示404错误。该页面的设计应与网站的其余部分相似。它也不应一次在不存在的URL上重定向,并帮助用户快速在站点上找到所需的页面(显示基本链接,搜索表单)。
7.通过扫描项目,检查站点上所有页面的服务器响应代码。通过链接可访问的所有页面均应给出“ 200 OK”响应代码。因此,如果更改了页面地址并安装了301重定向,则还必须更正网站上内部链接的URL,以便它们立即导致最终目标。
8.检查站点加载时间和页面大小(以KB为单位)。推荐的度量标准:源文档代码下载时间最多0.7秒(700毫秒),服务器响应时间最多0.2秒(200毫秒),源代码大小最多120 KB。
9.检查主要文本标头标签h1的唯一性及其在所有页面上的可用性。标签的内容应反映文本的实质。
10.确保没有将h1-h6标签用作站点设计元素。
11.在统计报告中检查服务器的正常运行时间。正常指标值:99.85%及以上。
12.创建一个独特且引人注目的favicon.ico并将其上传到网站的根目录。
13.您需要隐藏指向robots.txt文件中无法建立索引的页面的链接(通过AJAX),以在站点内正确分配静态权重。这样,在文档的源代码中就没有像“ a href =”…”这样的片段来链接页面数据。还需要阻止脚本本身进行索引。
14.需要将JS和CSS的较大片段移动到适当类型的独立连接文件中。删除临时评论。这将加快蜘蛛和浏览器的代码跳转和解释速度。“大”片段包括8-10行及更大行的JS和CSS片段,以及超过3-5行的注释。
15.检查编码中是否存在未封闭的配对标签。这是代码有效性的最低要求(如果表“ tr”的行已打开,则应使用“ / tr”等将其关闭)。
16.确保在所有流行的浏览器中正确显示网站的主页。应特别注意(按浏览器共享的顺序):Google Chrome,Android浏览器,Mobile Safari,Firefox,Yandex.Browser,Opera。
17. 301的配置将页面从“ index.php”,“ index.html”,“ default.html”之类的页面重定向到不包含它们的页面(到文件夹的根目录,例如“ /dir/index.php”到“ / dir /”)。
18. 301的配置从URL末尾没有斜杠(“ /”)的页面重定向到URL末尾带有反斜杠(“ /”)的页面(或者相反,取决于CMS和服务器设置)。
19.配置重定向http到https。请确保使用“ http”(从“ https”版本到网站的主版本)设置了301重定向(反之亦然)。目前,搜索引擎正在检查默认情况下使用“ https”建立索引版本的可用性,这可能导致不同主机上的内容重复。
20.阻止登录页面在robots.txt文件中的“ / bitrix”,“ / login”,“ / admin”,“ / Administrator”,“ / wp-admin”类型的CMS系统中建立索引。
以下类型的Disallow指令可以提供帮助:
禁止:/ bitrix
禁止:/登录
禁止:/管理员
禁止:/管理员
禁止:/ wp-admin
21.创建一个包含所有站点页面规范的sitemap.xml网站地图,并检查其有效性。如果页数超过50,000,则需要创建多个地图。我们建议直接在Google和Yandex网站站长的面板中下载地图,而不要在robots.txt文件中指定地图。
22.对于所有外部链接,建议借助target =“ _ blank”在新选项卡中打开。如果需要防止许多链接的静态重量转移,请使用AJAX将其隐藏在扫描机器人中。
23.打开并检查许多关键站点页面的已保存副本的正确性。请注意编码,保存副本的日期和代码的完整性。
24.需要禁止robots.txt文件中的工作文件夹“ cgi-bin”,“ wp-icnludes”,“缓存”,“备份”建立索引。
25.需要禁止在robots.txt文件中为非信息性文件(例如* .swf)或空白* .doc和* .pdf文件建立索引。如果* .doc和* .pdf文件有用并且包含有价值的信息–不应阻止它们建立索引。
对于从技术角度来看更复杂的项目,例如 具有授权的项目,内部搜索商品类型等,对于正确的索引编制还有许多其他要求:
26.建议设置rel =“ canonical”以消除重复的页面并正确考虑所有行为和参考文档指标。该建议对于小型/简单站点是合理的,但是由于其实施中存在一定的困难,因此它通常仅是建议。
27.如果未将优化和CNC配置为驱动低频请求的流量,则需要阻止对各种分类和过滤的页面进行索引。链接本身需要使用AJAX隐藏。
28.需要阻止授权,密码更改,订单处理页面等在robots.txt文件中建立索引:basket&step =”,“ register =”,“ change_password =”,“ logout =”。
29.需要阻止“搜索”搜索结果在robots.txt文件中建立索引。
30.需要阻止以下类型的打印版本:“ _ print”,“ version = print”和类似内容,无法在robots.txt文件中建立索引。
31.以下类型的操作页面:动作= ADD2BASKET”,“?“ Action = BUY”(操作=购买)应禁止在robots.txt文件中建立索引。
32.需要禁止内容重复的部分在robots.txt文件中建立索引:“ feed”,“ rss”,“ wp-feed”。
答:作为robots.txt文件的替代方案,您可以使用元标记名称=“ robots”,其字段值为“ content =” noindex,follow””。搜索引擎可以更准确地观察到该指令,但是需要稍微复杂一些的配置。
B.正确配置标签的rel =“ canonical”属性有助于: