1、在搜刮 引擎优化SEO范畴 ,白帽和黑帽优化是两种截然差别 的方法白帽优化指的是依照 搜刮 引擎规则,通过合法 本领 提拔 网站排名,比方 优化内容质量进步 用户体验公道 利用 关键词等黑帽优化则指利用 各种作弊本领 来进步 网站排名,比如 利用 隐蔽 文本堆积关键词购买链接等,这些做法固然 短期内大概 收效 ,但;排名百度首页有2种方式百度竞价模式,点击扣费,开户6k,单次点击费用05元99元不等,正常行业费用在520元之间企业主本身 背景 设置日斲丧 额度 网站seo优化一按照搜刮 引擎排名规则,手工方式对网站关键词举行 优化二公道 的增长 外链拒绝黑帽公道 的更新站内文章,统统 为了网站优化排名!三。
经过此前时间360推出搜索引擎到百度测试Sitelink功能,这两家大型互联网企业着实从“用户搜索体验”角度展开了角逐。随着各自新产品的推出,搜索引擎市场份额的争夺战愈演愈烈。按照国内的搜索引擎市场的份额排行,国内的站长和搜索用户们,也竞相的对其产品进行对比测试,让我们从几个角度来分析下各搜索引擎的用户搜索体验吧!广告推广链接1-1 百度&360搜索广告推广链接样式对比如上图,如百度与360搜索两个搜索引擎对“面膜”的对比,百度的推广链接的背景色偏“灰白”色,相对360搜索而言,背景色较浅,用户不易区分推广排名与自然排名。易造成某些行业下,非权威网站误导搜索用户点击。1-2百度蹊径产品样式百度推广推出“百度蹊径”产品,提供给企业更多展现其网站内部页面的机会。企业的整体CTR最多提升30%。从SEO角度,被展现的的“蹊径链接”权重提升,提高单页面的流量获取能力。百度蹊径链接充分结合了SEM+SEO的优势。而360搜索相比百度对企业客户的支持力度明显不够。1-3搜狗&搜搜搜索广告推广链接样式对比如上图,搜狗的广告推广链接类似百度广告推广链接,从背景色的区分度上不如搜搜的广告推广链接产品。搜搜针对企业客户而言,提供联系方式有限展现。便于搜索用户及时联系商家。可以大幅度提升搜索用户体验。1-4 搜狗&搜搜搜索广告“Sitelink”链接样式对比如图搜狗不提供Sitelink功能,不能更多展现站内链接,从SEO角度分析,不能提升更多内部页面权重。不能有效提升网站的整体CTR。而搜搜有效提供Sitelink功能,进一步提升用户搜索体验。便于用户快速查询到自己想获取的内容。此外,其他角度的用户搜索体验对比,将会在下一次内容中进行分析。请大家继续关注!
SEO跟踪对于评估您网站的成功至关重要,毕竟,如果您要投入时间和预算来创建和维护SEO计划,您需要确保您的投资是值得的。 但如果你从未试图衡量你的结果,你可能会想,“什么是 SEO分析?”简短的回答是,它是如何衡量SEO性能的。 数字营销一般的最大优势之一是您几乎可以衡量战略的每个部分,Google Analytics等工具提供了大量有关网站效果的信息,这意味着您永远不会对您的SEO工作是否得到回报以及它们如何影响您最重要的目标感到茫然。 什么是SEO分析?如果您不熟悉监控和报告您的搜索引擎优化结果,您可能会对该过程涉及的内容有一些疑问。幸运的是,SEO分析比听起来更直接。它只涉及确定哪些指标对您的业务最重要,然后定期监控这些指标以跟踪您的进度。SEO指标定义度量是一个特定数据的可量化度量。 它很细致,很简陋,而且几乎没有混淆的余地。 实质上,当您构建有关指标的报告时,您将专注于可以准确衡量的具体成功指标, 如果您的SEO策略很复杂,有时很难确定哪些策略对您的结果负责,但结果本身完全基于易于测量的数据点。八个最重要的度量标准来衡量您的结果:1.有机流量衡量搜索引擎优化结果的最重要指标之一是有机流量,这是因为这个数字代表了您的网站仅通过自然搜索吸引的所有访问者。 所以,当你的总流量的数字可以给你的网站的表现一般的想法,对缩小在有机流量是衡量你的SEO策略的直接影响一个更好的办法。 毕竟,任何搜索引擎优化策略的主要目标之一是提高您在搜索与您的业务和行业相关的关键字时的可见性 – 并且有理由认为,如果您成功,您从搜索结果中吸引的访问者数量应该是稳步增长。2.点击率点击率表示在查看搜索结果中的某个网页后访问您网站的搜索者的百分比,例如,如果十个不同的用户看到您的某个网页在百度的特定关键字搜索结果中排名,但只有其中一个用户点击并访问了您的网站,则您的点击率将为10%。 此指标是您的网页在搜索结果中吸引用户注意力的效果的最佳指标之一,因此,它也是您网站标题标签和描述质量的可靠指标。毕竟,当您的某个页面显示在搜索中时,这是显示的元素是搜索者用来确定是否要访问该页面的内容。 因此,如果您的点击率很低,这可能表明您的标题标签和描述需要一些改进工作,话虽如此,识别排名在点击率中的作用也很重要。毕竟,排名首先的网页平均获得桌面搜索结果页面点击次数的31.52%,以及移动结果页面点击次数的24.05%。因此,您的网站在搜索中排名越低,您的点击率就越低。3.跳出率当访问者登陆您网站上的某个页面,然后离开而不是继续访问另一个页面时,这称为“跳出”,这样做的访问者百分比被称为“跳出率”。 它可以很好地指示您的网站内容是否与用户从搜索结果列表中抉择您的某个网页时所期望的内容一致。如果很大一部分访问者抉择离开您的网站并从结果中抉择不同的网页,则会告诉您他们登陆的网页不包含他们想要或需要的信息。4.关键词排名该指标是一个相对简陋的指标,当您努力提高网站对您的业务重要的关键字的排名时,您需要监控这些关键字的排名如何变化。 对于某些最重要的关键字,您可以抉择手动执行此操作。毕竟,只需对这些关键字执行百度搜索,就可以准确显示您所处的位置。 但除此之外,您可以使用像5118、爱站这样的工具更全面地了解您的排名,例如,如果您打开“自然搜索位置”报告,则会看到您网站所排名的所有关键字的概述,以及排名的位置。5.新的反向链接和引用域监控网站的传入链接和引荐域名数量有助于排名,如果你不熟悉这种区别,那么它就是一个重要的区别。 虽然您的传入链接数包括指向您网站的所有链接,但您引荐的域数表示您有来自链接的唯一域的数量。因此,虽然这些指标可能看起来非常相似,但监控两者都是明智之举。 虽然您获得的每个链接都有可能提高您的权限,但来自新域的链接几乎总是比已链接到您的网站的链接诞生更大的影响。6.页面速度用户体验在您的网站排名良好并将访问者转化为客户的能力中起着重要作用,并且您网站提供的用户体验中最重要的因素之一是页面速度。因此,在优化网站时,务必关注更改是否会对加载时间诞生影响。7.转化率事实上,转换指标代表了您的SEO策略对您公司最重要的目标(如潜在客户和销售)的影响,它可以说是衡量您整体成功的最重要因素。 访问此信息的最佳方式是在Google Analytics中设置自定义目标,您可以为在线购物,表单提交,电子邮件简报注册以及几乎任何其他代表您业务重要操作的内容创建目标。 然后,您可以轻松监控执行每项操作的访问者百分比 – 并帮助您的公司在实现目标方面取得有效进展。结论衡量结果是搜索引擎优化过程的重要组成部分。 这是你如何衡量你的战略是否有效,你正在实现什么样的结果,以及你可以在哪里改进前进。 如果您还没有跟踪搜索引擎优化指标,如自然流量,点击率,跳出率,关键字排名,反向链接和转化率,那么就该开始了。相关阅读:网站SEO分析指南相关文章推举SEO关键词优化:基础和先进的技巧 关键词研究是给定的SEO活动的基础之一。 关键词研究通常定义战略和指导分析,如竞争对手和垂直分析。 现代关键字 […]...【深圳谷歌优化】网站诊断分析的7个要点 不管你的网站优化得有多好,仍旧可能有一些问题需要解决。这些可能包括技术问题,页面速度慢,重复的内容,断开的链接 […]...SEO分析:受益于SEO的6种本地商业类型 随着互联网竞争水平的提高,想要接触潜在客户是一项极其艰难的任务,由于全国搜索引擎优化价格昂贵且具竞争力,因此中 […]...SEO分析:12个常见的SEO错误 在过去的几个月中,我们提供搜索引擎优化咨询服务,我们进行了上百次的网站审计,我们在审计过程中发现了各种各样的问 […]...网站SEO分析指南 对于各位小白SEOer来说,你对你们正在优化的站点感到满意么?为什么那些很LOW的站点在百度或其他搜索引擎上的 […]...8个SEO分析度量标准
既然我们要网站内链优化,仅仅知道如何加内链还是不行的,重庆SEO徐三举个简陋的列子,你想优化一个长尾关键词做连接,那么在吸引用户点击此连接,可能效果很差,但是采用文章标题来做又因为太长会分散权重,所以我们可以用长尾关键词做连接,与此同时把做连接的关键词加一些描述内容来吸引用户点击,这样就一举两得。那么网站内链优化的标准需要符合那些?具体可看以下说明。一、连接相关性在我们口中所谓的连接相关性是指,做内链优化时需要对用户更深的分析,以用户摸索问题的方式去做内链优化,抓住用户心里与想法,提供住够吸引的内容将用户留住,要让用户觉得我们的网站与所写的文章内容能够决绝目前问题,才有可能让自己的网站在同行里脱颖而出得到用户的信赖。一般来说内链优化的建设与我们网站主题相关性越高,那么就越容易得到搜索引擎的收录,并且用户也能从中知道此网站是做什么的,从而降低用户跳出率。二、内链锚文本内链锚文本也可以统称为锚文本,那么如何来放置锚文本呢?第一我们要确保所放入文章中的锚文本有可读性,而且锚文本所指向的页面一定是具体相关介绍,打个比方说,我自己的博客的某篇文章内容说的是“网站内链优化结构如何进行布局”那么这些字就必须得连接到另外一个主题描述,环绕网站内链优化结构如何进行布局来阐述文章内容,而不是随意添加。(具体可以看徐三SEO博客中的什么是网站锚文本有何作用?相关介绍)三、避免图片连接为什么要避免图片连接呢?大多数SEO站长都知道,搜索引擎在进入网站首先页看见的是我们网站的导航,这个最常见的内链优化连接导航,对于这点我们尽可能的使用文字连接,也就是所说的锚文本,因为网站导航中的链接文字应该是清楚准确的描述所指向页面的内容,便于搜索引擎通过链接文字了解这些栏目的具体内容,但不也要堆砌关键词,这是有助于搜索引擎抓取的。四、针对添加网站内链优化应该做到,需要时就添加,不需要是就不添加,就好比一个用户看到一个专业的词,但是又对这个词不是很理解,那么我们就可以把这个专业的词做一个内链地址到具体页面说明。五、连接适量网站页面内链可以断定的说能带来很多好处,但是不能用量过大,很容易被判断作弊,所以得出的结论是水可载舟,亦可覆舟,就是这样的一个道理。总结:对于网站内链优化标准注重以上五点即可,一定要认真仔细对网页相互连接的要求,避免在内链优化布局中出现纷乱或者URL地址不正确的操作。(具体可以看徐三SEO博客中详解网站url地址优化相关介绍)网站内链优化, 你符合这些标准吗-集众思供求
网络上充斥着许多谈论又名普兰站长网的文章,其中也隐含大量迷思与陷阱。当你不小心身陷迷思中,除了可能做大量白工外,更可能让关键字搜寻排名不升反降!为了避免上述苦果,除了参考西安完美信息关于SEO优化入门相关文章之外,此次将以三大面向:SEO观念、网页结构、辅助工具,做深入分析,以期率领你避开SEO的种种迷思与陷阱。SEO优化方向对了,路再艰辛,都能走到终点。在进行SEO优化时,首先步并不是埋头将网站按部就班优化一遍;而是先思索、分析,分析自己的网站需要哪些优化?思索网站最终想出现给使用者什么样的感觉?如果仅仅只是闭门造车,反而会造成过度优化,拔苗助长的结果。注重网站的每个页面首页是使用者进入网站的首先眼,重要性不言而喻。然而,SEO优化的入门者,时常过度追求首页的优化,或是优化特定几个页面,却忽略网页整体一致性,甚至因为忽略某些页面,使未被优化的页面看起来更加突兀,连带也大幅影响使用者的易读性。一个没有顾虑到使用者体验的网站,是无法做好SEO的。而这往往也是有些经营者自认已经做好SEO,关键字搜寻排名依然没有上升,流量依然没有增添的原因。慎选适合的关键字,关键字营销是SEO十分重要的一环,若关键字营销的观念错误,将造成SEO优化一步错,步步错的严重后果。准确分析并选定一个更贴近自身商品的关键字是至关重要的。或许该关键字的流量相对较少,但是要拿下该关键字的前几名所需付出的成本也因而少许多。更重要的是,因为更贴近自身商品,带来的转换率甚至会比主流关键字更高!用低成本诞生高效益,正是关键字营销的精华所在。网站SEO优化评比标准适度运用超链接,当搜寻引擎注意到超链接及反向链接的滥用后,便更加注重链接的适切性,并且会将滥用的链接判断为垃圾讯息。而同样的在使用者体验来说,随意种下的连结不仅大大降低易读性,更会使整个网站看起来杂乱不堪。因此,超链接、反向连结固然重要,但应该适度使用,避免过度优化造成关键字搜寻排名降低的反效果。
1、目标 加权赋分的重要 目标 是在测试或评价中,根据差别 项目或标准 的紧张 性,为其分配差别 的权重,从而更正确 地反映被评价对象的团体 表现 盘算 方法分配权重和分数起首 ,为每个测试或评价标准 分配一个权重,这个权重反映了该标准 在团体 评价中的紧张 性同时,为每个标准 设定一个得分范围或具体 分数盘算 ;择偶标准 的权重分配是个人观念和偏好的表现 ,差别 人对于择偶标准 的器重 程度 会有所差别 经典的择偶标准 包罗 外貌智力感情 互动经济状态 家庭配景 操行 行 格等方面然而,每个人对于这些标准 的紧张 性都大概 有所差别 以下是我个人对于择偶标准 权重分配的一些发起 起首 ,外貌在择偶标准 中常常 被以为 是;分配权重根据实际 需求,确定每个因素对结果 的影响程度 ,给它们分配差别 的权重权重值通常为正数,而且 全部 权重的和为1或100%2 赋值与盘算 标准 化假如 权重必要 标准 化wanxaingcom,可以将每个权重除以权重之和,以确保全部 权重加起来为1比方 ,假如 初始权重为A 3, B 2, C 1;微博权重重要 指的是微博品级 和阳光名誉 ,它直接影响批评 的排序通常,权重高的用户发布的批评 纵然 点赞数较少,也能在权重较低的用户的批评 之前表现 比方 ,一个权重高的用户发布的批评 大概 只有13个点赞,而另一个权重低的用户批评 却有20个点赞,但前者仍会优先表现 这种排序机制偶然 乃至 到达 150或更;在这一方法中,评标总分为100分,差别 种别 的工程项目,其评分权重也有所差别 具体 而言,对于一类工程项目,技能 标部分 的权重被设定为30%,而商务标则占据了60%的权重,资信标则占到10%这一权重分配反映了技能 本领 与贸易 信誉在该类项目中的紧张 性对于二类工程项目,技能 标的紧张 性有所低落 ,权重。
前几天,一篇名为《搜索引擎百度已死》的文章刷屏。文章指责百度搜索结果一半以上会指向百度自家产品,尤其是百家号,而百家号充斥着大量营销和质量低劣的内容,也导致百度搜索结果的内容质量大幅下滑。我是从事搜索引擎优化的,主要依托百度搜索引擎为生。通过改进搜索快照排序帮企业网站获客。我先说说我看完这篇文章的看法。 我们先看看百度搜素引擎发展的三个阶段: 搜索引擎1.0时代:人找信息 用户通过搜索关键词查找信息,原理是:通过关键词匹配网站内容,依靠超链分析技术、链接的权威评级进行搜索结果排序。这个时代做SEO是最廉价的时代,哪怕仅靠数据采集即可获得成千上万个关键词排名,每天从搜索引擎获取几百万的IP流量。 搜索引擎2.0时代:极速感知 结合用户搜索点击投票动态更新搜索结果排序。运算内容质量度与主题关联性,由关键字完整匹配倾向于部分匹配。由PC搜索为转向挪动搜索转移。 这个时间段,只有改变搜索体验与点击的关系就能快速提升关键词排名。 搜索引擎3.0时代:引入AI与处罚算法 2017年下半年智能搜索引擎的诞生,结合了人工智能技术的新搜索引擎。它除了能提供传统的快速检索、相关度排序等功能,还能提供用户角色登记、用户爱好自动识别、语音及内容语义理解、智能信息化过滤和推送等功能。此时搜索引擎必须听懂人话,理解用户的意图才干得到更准确的结果。由于NLP技术的日益成熟,使得搜索引擎能够充分理解用户的口语化表述,甚至可以联系上下文和场景,与用户进行交互沟通。所以说未来的搜索引擎一定会越来越智能... 百度已经成为AI公司先头公司 我们是否还在用老眼光看待百度?认为他只是一个搜索引擎公司?其实百度上早已经不是一家搜索引擎公司,而是一家AI技术公司。其实信息流业务是搜索引擎的迭代,如果说搜索引擎是“人找信息”,那么信息流就是“信息找人”,他们的本质是一样的,都解决的是人与信息的连接问题。 所以,你说搜索引擎百度已死,实际上,搜索引擎百度是在进化,进化为AI赋能下的“搜索+推举”,百度已经成为搜索引擎+信息流+AI的技术公司。 这篇《搜索引擎百度已死》的文能引起百度官方重视,足以证明该文章的影响力不可小觑。因为百度第二天就发出了公告说明。内容如下: 未来的百度是智能全搜索引擎 智能全搜索能实现一站式搜索页面、音乐、电影、游戏、图片、场景、购物等目前互联网上所能查询到的所有主流资源。它与普通搜索引擎(百度和谷歌等)所不同的是:他能集各个搜索引擎的搜索结果于一体,使我们在使用时更加的方便。单严格来说他不算是一个搜索引擎,但他比搜索引擎更方便。
1月22日晚,一篇《搜索引擎百度已死》的文章刷屏朋友圈,文章一针见血地指出百度搜索引擎已经沦为百家号导流的工具。该文亦指出,百度已经不打算好好做一个搜索引擎了,它只想做一个营销号平台,把渴望来搜索内容的人全都变为自家的流量,然后变现。界面新闻向百度公关部求证算法调整事宜,百度方面没有回应。一位中小资讯网站从业者向界面新闻透露,2017年开始,网站来自百度的流量开始呈现下滑的迹象,2018年可谓惨烈,其网站来自百度的流量同比下降50%~60%。这位从业者表示,2016年网站通过百度联盟广告,一天可获得2万元以上的收入,但目前来自百度联盟广告的收入一个月仅有1万元左右,这主要是百度调整算法之后流量下滑导致的。目前在百度搜索资讯类关键词,相关资讯全部来自百家号,搜索结果中也有大量百家号的链接。而在几年前,这些内容多来自新浪、搜狐、腾讯等门户网站以及权重比较高的中小资讯网站。与搜索体验下滑相对的是百度在用户规模和收入上的大幅增长。截至2018年11月,百度App的日活达到1.6亿、日均搜索响应次数60亿、日均信息流推举量达到150亿。百度2018年第三季度的财报显示,“百度核心”(Baidu Core,即搜索服务与交易服务的组合)第三季度总营收为人民币216亿元(约合31.5亿美元),比去年同期增长25%。百度CEO李彦宏近日发内部信透露,百度2018年的总营收突破千亿元。
我们日常生活中经常会用到搜索引擎,用户提交查询,搜索引擎返回查询列表,看似平常不过,实则不简陋。本系列博文将介绍WEB搜索引擎原理及基本构成。一般WEB搜索引擎包括“网络爬虫”、“预处理模块”、“查询服务模块”等主要模块。“网络爬虫”从英特网中抓取网页作为原始网页库保存在搜索引擎服务器,这也是我们在百度等搜索引擎上经常看到的“网页快照”。根据爬虫抓取的原始网页库,“预处理模块”经过“网页分词器”、“分词器”、“索引器”提取网页关键字,剔除广告等信息,建立关键词语网页的索引关系。“查询服务模块”主要服务于用户。第一,用户浏览器输入查询词P(假设),分词器将查询词P根据一定的语义分隔成等小词组或短语组合,再以这些词组匹配数据库的索引词得出查询结果,更进一步,返回给用户的网页结果根据查询条件相关度排名(Page Rank)得到网页排名。综上为WEB搜索引擎的全部工作过程,后续文章将具体介绍每个模块的具体工作过程。
现在很多人都在做搜索引擎优化,大的方向每个人都懂:内容,标题,关键字,外链等等。但是要想比别人做得更好,就需要看细节的东西了。本文列出了一些常见搜索引擎优化问题,以及具体的解决方案,渴望对相关的人员有所帮助。1. URL的大小写这个问题常见于使用.NET技术的网站,事实上是因为网站服务器在配置上就是要响应大写的URL,它不会重定向或者重写小写的版本。随着搜索引擎在识别标准版本和忽略重复版本的技术上有了很大的进步,我们也常常不关注这个问题。但是,搜索引擎并不完美,所以我们必须要自己动手。如何解决:在IIS 7服务器上有一个URL重写模块,可以帮助解决这个问题。在这个工具的界面上,你可以执行小写的URL,之后这条规则就会加到网站的配置文件中,从而解决问题。2. 首页有多个版本这个问题也是经常会在.NET的网站上碰到,当然其他的平台也会有。举个例子,我们通常会碰到这种URL:www.example.com/default.aspxwww.example.com/index.htmlwww.example.com/home当然,现在搜索引擎也会帮你解决这个问题,但是最好的做法是首先时间自己解决。如何解决:要发现这些网页可能会有点棘手,因为不同的平台有不同的URL结构,所以解决方法有点像猜谜。你可以用工具摹仿蜘蛛爬行你的网站,导出excel表的爬行记录,筛选Meta标签,搜索网站首页标题,很容易就可以找到重复的首页。我比较倾向于301转向,将其他重复页面指向到我们确定的那个首页,你也可以通过添加rel=canonical标签来解决这个问题。另一种方案是使用工具,例如Screaming Frog,来摹仿蜘蛛爬行,找出指向重复页面的链接。然后你可以编辑这些重复的页面,指向正确的URL,这样就不需要通过301转向而担心链接权重的降低。小提示:你可以查看每条URL的谷歌缓存,来看是否有问题。如果谷歌没有发现重复的URL是一样的,你可以看到这写URL不同的PR和缓存日期。3. URL结尾的查询参数在有数据库驱动的电子商务网站,这种问题很常见。也并不是说其他类型的网站没有,但是一般电子商务网站上有大量的产品属性和筛选选项,如颜色,大小等。在这种情况下,用户点击的URL在搜索引擎优化方面都比较友好,但是可以常常看到有很多链接的结尾是像我下面的例子这样的:www.example.com/product-category?colour=12在这个例子中,某种颜色是作为筛选产品类别的依据。这种筛选方法对于用户来说是很好的,但是对搜索引擎就不好了,尤其是有时候客户并不是用颜色来搜索某个特定的产品。在这种情况下,对某些关键词来说,这个URL就不是一个好的登陆页。当很多的参数结合起来的时候,可能会导致蜘蛛资源被用尽。更糟糕的是,有时候尽管参数的位置不一样,但是却返回相同的内容,例如:www.example.com/product-category?colour=12&size=5www.example.com/product-category?size=5&colour=12尽管路径不一样,但是这两个URL返回的是相同内容,搜索引擎会认为这些页面是重复内容。请记住,谷歌是根据你网站的PR值来分配蜘蛛资源的。请确保这些蜘蛛资源有充分的利用。如何解决:在继续之前,我们要解决另外一种常见的相关问题:URL可能对搜索引擎不友好是因为他们不是数据库驱动的。在这个特别情况下,我并不担心以上的问题,我更担心的是蜘蛛资源浪费和一些不需要的页面被索引了。第一要解决的是哪些页面是要蜘蛛爬取和索引的,这个取决于你的关键字研究,你需要交叉引用数据库中核心关键词的属性。在电子商务网站,每个产品都有其关联的属性,这也是数据库的一部分。下面是一些常见的例子:Size (i.e. Large) 尺寸(大)Colour (i.e. Black) 颜色(黑色)Price (i.e. £49.99) 价格 (£49.99)Brand (i.e. North Face) 品牌(North Face)你的工作是要找出哪些属性是关键词的一部分,用户可以找到这个产品。还要确定用户需要使用哪些属性的组合。这样做后,你可能会发现一个搜索量很高的关键词是North Face + waterproof jackets(防水夹克)。这时,你需要做一个被爬行和索引的North Face + waterproof jackets登陆页。还要确保数据库属性中有一个对搜索引擎友好的URL,不是"waterproof-jackets/?brand=5" 而是"waterproof-jackets/north-face/."还要将这些URL添加在网站的导航结构中,PR值可以传递,用户也很容易找到。另一方面,你可能会发现Northface+Black这个组合的关键词搜索量很低。你也就不会想要Northface+Black这两个属性的页面被爬行和索引。如果你已经清晰哪些属性是要被索引的,哪些不需要,下一步行动要不要开始取决于URL有没有被索引。如果URL还没有被索引,最简陋的方法是把URL结构添加到robots.txt文件中。要完成这个可能需要多尝试一下RegEx,请确保RegEx是正确的来以防万一。此外一定要使用谷歌的治理员工具Fetch, 需要注意的是,把已经被索引的URL添加到Robots.txt文件中不会让 他们从索引库中被删除。如果URL已经被索引,我们需要用rel=canonical标签来解决。如果不巧网站正在开发中,你不能进行修改的工作,你会像上面遇到的情况一样不能解决核心问题,这时候,rel=canonical标签可以帮助你延迟一点解决问题。把rel=canonical标签添加到你不想被索引的URL上,然后指向不想被索引的相关URL。4. 软404错误这种情况通常不在预料中,用户没有觉得什么不一样,但是搜索引擎蜘蛛知道不同之处。软404页面意味着你发现不了真正的错误页面,也找不到网站上那些地方对用户体验不好。从链接建设的角度看,哪个方法都不是最佳抉择。可能你有过来的链接链到了坏的URL上,但是却很难追踪这些链接,然后重定向到正确的页面。如何解决:幸运的是,对于网站开发人员来说,返回一个404状态比200要相对简陋很多。设计一个很酷的404页面对于你自己和用户来说都是一种享受。用谷歌治理员工具中的一些功能可以帮助你找到软404页面,它会告诉你已经检测到的软404页面。你也可以自己手动检测,随便用一个坏链接来测试,看看你得到的返回状态是什么。我很爱慕用Web Sniffer这个工具来检测,如果你是用Chrome浏览器的话,也可以用Ayima这个工具。5. 302重定向而不是301重定向网站开发人员很容易将这个重定向弄错,因为从用户的角度来看,两者没有区别,但是搜索引擎确实分别对待的。301重定向是永久性的,搜索引擎认为它会传递权重到新的页面。302重定向是暂时的,搜索引擎认为它不会传递权重,因为搜索引擎觉得某天这个页面又会回来。如何解决:要找到302重定向的URL,我建议用Screaming Frog或者是IIS SEO Toolkit这两个工具,它们可以进行深度爬行。然后检查看它们是应该用302重定向还是301.要解决这个问题,你可以要求网站开发人员改变规则,用301重定向而不是302。6. 坏的/旧的SitemapXML网站地图对于搜索引擎蜘蛛爬取网站的所有链接是非常有用的,虽然有时候它不是非常必要。Sitemap可以正确引导搜索引擎。但是,一些XML sitemaps是一次性的,很快就过时了,导致一些坏链接还在里面,但是新的链接却没有。志愿的状态是,要定期更新XML sitemap,删除坏链接并添加新链接。对于一个大的网站来说,经常添加新页面是很重要的。Bing也说过,他们对于sitemap的“脏乱”也是有一个临界值的,如果超出了这个临界值,他们就不那么信赖这个网站。如何解决:第一,审核你当前的sitemap,找出坏链接。可以用Mike King这个工具。其次,告诉网站开发人员网站的动态,以便定期更新。根据你的资源来确定周期:每天一次,每周一次或者是每月一次。这些更新绘画一些时间,但是从长远来说会节约你很多时间的。这里有个额外的提示:你可以尝试创建一些sitemap,只包含最新的产品,然后以更高的频率来更新这些特定的sitemap。如果你有足够的开发资源,也可以创建一个sitemap,只包含没有索引的URL。7. 给robots.txt文件错误的指令最近遇到一些例子,很多页面被爬取和索引是因为他们被锁定在robots.txt文件中。这些页面之所以会被爬取是因为robots.txt文件中的指令是错误的。单独的命令是正确的,但是结合在一起是就是错误的。如何解决:谨慎使用robots命令,如果有单独的指令,要确认接下来的其他指令是什么,即使是这些指令已经被提到过。充分利用谷歌治理员工具的测试功能,它会告诉你它对你的robots.txt文件的反应。8. robots.txt中有隐蔽字符我最近帮客户做了一个技术审核,发现谷歌治理员工具给我一个告诫:“语法不理解”。我检查了一遍文件,然后测试了一下,一切都很正常。最后我的同事诊断出了问题:在文件中发现了一个隐蔽字符。如何解决:解决这个问题很简陋。简陋重写robots.txt文件,然后运行一遍命令,再重新检查。9. 谷歌爬行 base64 URL这个问题很有趣,最近一个客户发现在治理员工具中发现404错误在大量增添。我们一看,发现几乎所有的错误都是这个格式的URL:/AWYgeW91IGhhdmUgZGVjb2RlZA0KdGhpcyB5b3Ugc2hvdWxkIGRlZmluaXRlbHkNCmdldCBhIGxpZmU/。治理员工具会告诉你这些404的来源,我们就去页面找这个URL是怎样生成的。经过大量的发掘,我们发现这些信赖凭证(authentication tokens)都是Ruby on Rails生成的,是为了防止跨站点请求。在网页的代码中有一些,谷歌蜘蛛还试图去爬取这些信息!更大的问题是,这些信赖凭证(authentication tokens)是动态生成的,并且独一无二,因此我们找不到。如何解决:针对这个情况,很幸运,我们可以通过添加Regex到robots.txt文件中,告诉蜘蛛不要爬行这些URL。10. 服务器配置不当我遇到了一个问题,某个网站的主登录页没有排名。这个页面以前是有排名的,但是在某个时候掉下来了。所有的页面看起来都不错,看不出有任何的作弊嫌疑。经过大量的调查和发掘,最后发现原先是由于服务器的错误配置,一个小小的错误造成的,这个服务器是HTTP标头的。通常,客户端(浏览器)会发送接受标头,指出它能理解的文件类型,这几乎不会修改服务器的操作。服务器端会发送内容形式标头,来识别文件是HTML,PDF或者是JPEG之类的。这家网站的服务器返回的是文件类型标头。如果你发送的接受标头是以text/html开头,那是服务器作为内容类型标头返回的内容。这种行为很特殊,但是很难注意到,因为浏览器总是发送以text/html开头的接受标头。但是,Googlebot在爬行的时候会发送"Accept:*/*"(表示它接受所有的东西)。我发现,如果我发送*/*标头,服务器就会挂掉,因为*/*不是一个有效的内容类型,服务器会崩溃,发送错误的响应。把浏览器的用户代理改成Googlebot并不会影响HTTP标头,像websniffer这种工具不会发送跟Googlebot一样的标头,因此,你根本不会注意到这个问题。改掉这个问题几天后,页面又重新被索引了。常见的搜索引擎优化问题, 以及解决方法-长沙网络推广公司