高端响应式模板免费下载

响应式网页设计、开放源代码、永久使用、不限域名、不限使用次数

前端搜索引擎优化应该学什么

网站的前端工作人员将不可避免地与搜索引擎优化打交道,而搜索引擎优化的前端工作人员将更受欢迎。大多数时候,从事网站前端开发的朋友对seo缺乏基本了解,导致整个网站建设和运营效率低下。事实上,搜索引擎优化是非常必要的前端。了解一些常见的搜索引擎优化技术,[& hellip;]

网站的前端工作人员将不可避免地与搜索引擎优化打交道,而搜索引擎优化的前端工作人员将更受欢迎。

大多数时候,从事网站前端开发的朋友对seo缺乏基本了解,导致整个网站建设和运营效率低下。事实上,搜索引擎优化是非常必要的前端。学习一些常见的seo技术并不费时费力,但也能提高工作效率和增强自身能力,这是非常好的。

研究和开发的学生,事实上,许多人并没有深入了解搜索引擎优化的概念。在科技博客中,很少提到这篇文章。今天,我将带着我自己的经验,简单地让每个人都盲目。如果有任何遗漏,请予以补充。

课文有点多,但是干货已经满了,请耐心阅读!

什么是seo:

以下内容摘自百度百科:

Seo(搜索引擎优化):中文翻译就是搜索引擎优化。搜索引擎优化是利用搜索引擎的搜索规则来提高网站在相关搜索引擎中的自然排名的一种方式。Seo是指从网站结构、内容建设方案、用户互动交流、页面等角度做出合理规划的行为。以便从搜索引擎获得更多的免费流量,使网站更适合搜索引擎的索引原则。

Seo原则

事实上,搜索引擎完成的工作相当复杂。让我们在这里简单描述一下一般的过程。如何在未来优化搜索引擎优化也将根据这些要点进行描述。

抓取页面:蜘蛛向服务器请求页面以获取页面内容

分析和存储:分析获得的内容并收集高质量的页面

搜索排序:当用户搜索关键词时,根据包含页面中的特定规则对关键词进行排序,并将结果返回给用户

Seo优化

既然是优化,那么我们就要遵循seo的原则去做,可以说知己知彼,百战不殆。针对上述三点,我们将分别进行描述。这里我们主要以百度蜘蛛为例。

抓取页面

我们怎样才能吸引蜘蛛访问我们的网站,怎样才能让蜘蛛经常访问我们的网站?这里提出了以下优化点:

提交页面。提交页面有几种不同的方式。

网站地图提交。网站地图,顾名思义,是一个网站的地图。当蜘蛛来到我们的网站时,它们会告诉它们我们有多少页面,不同的页面是按什么分类的,每个页面的地址是什么。按照我们的指导方针,蜘蛛会轻易地爬过一切。此外,如果您有大量的页面类别,建议添加站点地图索引文件。如果站点经常更新和添加新页面,建议及时更新站点地图文件。

自愿提交。它是把你的页面直接扔到百度的界面上,告诉百度你有哪些页面。这是最有效和最快的方法。但是,应该注意的是,百度对每天提交的页面数量有限制,重复提交重复页面会降低每天的限制,所以不建议重复提交包含的页面。有一个记录的时间过程。请先耐心等待。

实时提交。在页面中安装百度给出的提交代码。当用户打开页面时,我会自动将页面提交给百度。这里没有必要考虑重复提交的问题。

上述提交方法可以同时使用,没有冲突。

确保蜘蛛可以阅读我们的网页。

早在ajax不流行的时候,seo对前端没有太多要求,或者说,当时没有前端工作。这些页面都在服务器端呈现,用户和蜘蛛都能友好地返回html。Ajax最初的设计似乎是为了避免由于数据交互而不得不重新绘制页面设计,但是它已经被大规模地误用了。一些开发人员忽略随机请求,并使用ajax请求所有数据,这使得蜘蛛不可能顺利获得页面内容。幸运的是,这实际上促进了前端的快速发展。

后来,各种spa单页应用框架的出现使得前端开发人员不再需要关心页面的dom结构,而只需要关注业务逻辑。这些数据都是通过javascript发送ajax请求获得的,然后在客户端呈现。这也导致了旧的搜索引擎优化问题。百度拥有国内最高份额的搜索引擎,但不幸的是,它不支持搜索ajax数据。因此,开发人员开始考虑其他解决方案,例如检测到一个爬虫过来并将其转发到一个特殊的路径进行渲染,比如基于node.js的jade引擎(现在改名为pug),这可以很好地解决这个问题。React和vue,包括一个相对较小的框架marko,也提出了相应的服务器端渲染解决方案。如果我看了相应的文件,我就不多说细节了。

Url和301

Url设置应该合理、规范、层次清晰。如果网站发现网址不合理,需要以后更换,就会导致以前包含的页面失效,这就是我们所说的死链(这种情况属于死链,404等等也属于死链)。因此,必须在网站建设的初始阶段进行长期规划。一旦发生这种情况,不要太担心,我们可以采取向搜索引擎投诉或设置301跳转的方式。

Url级别不应嵌套太深,建议不要超过四个级别。添加面包屑导航可以使页面清晰,也有利于为蜘蛛创建一个平滑的爬行路径。

此外,指向主页的所有域名被设置301为跳转到相同的url,这可以避免分散权重。

分析仓储

在蜘蛛抓取页面后,它需要分析页面的内容,并选择最好的包含和存储。为什么说它是基于功绩的?让我给你一个缓慢的分析。

搜索引擎的目的是为用户提供高质量和准确的搜索结果。如果整个页面充满了广告和各种不良信息,这无疑会在很大程度上影响用户体验。

猜你喜欢