做网路营销的都会接触到seo这一块,那么seo到底应该怎么去做呢,与seo有关的搜索引擎的工作原理是怎样的呢?网上也有很多经验分享,但往往都是只知一些碎片知识分享,而且有很多人都是只知其一不知其二,这就导致我们学习的东西也都是零散居多,那么下面网营中国就相关基础理论与大家一起,做个分享。
想要把SEO做好那么首先得清楚搜索引擎的工作机制,深入了解搜索引擎的工作抓取、处理、索引最后再到用户所看到的搜索结果。
蜘蛛:英文通常叫Spider,翻译成中文的话称为机器人。指的是搜索引擎运行的计算机程序,沿着页面上的超链接发现和爬行更多页面,抓取页面内容,送入搜索引擎数据库。
爬行和抓取:爬行指的是搜索引擎沿着超链接,从一个页面爬到另一个页面,发现更多网址的过程,就好像蜘蛛在蜘蛛网上爬行一样,这就是为什么叫蜘蛛爬行。
抓取指的是搜索引擎蜘蛛发现新的URL,就会像浏览器一样访问这个URL,读取内容,记录下来存入数据库,这个过程就叫抓取。
索引:搜索引擎对抓取来的文件进行预处理,经过删除停止词、中文分词、关键词提取等过程,形成一个从页面到关键词集合的映射存入数据库,这个过程就叫索引,得到的数据库叫索引库。
自然排名:这是说的是自然排名,在搜索关键词的时候通常会出现付费排名和自然排名,这里的自然排名与付费和广告无关,只是依靠页面本身相关性、重要性出现在搜索引擎的查询结果页面的排名。
第二步这里蜘蛛爬行抓取到的网页会提交给搜索引擎的数据库中进行初步的分析和筛选,搜索引擎会将它认为不合格的网页剔除掉(比如内容重复、排版混乱等等),合格的数据会导入到搜索引擎的数据库中。
上一步系统进行了简单的分析,那么这一步就是有专门的程序系统来对抓取来的网页进行分析(这其中包括网页所在的URL、编码类型、页面内容中所包含的关键词以及关键词的位置、网页生成的时间、以及与其他网站的关系等等),根据一定程度的相关算法进行大量的计算,得到每一个网页针对网页内容及URL中的关键词的重要性,然后用这些信息建立网页索引数据库。
最后一步就是将索引库中的网页内容进行排序最终当然用户输入关键词的时候,由系统从索引库中找到符合该关键词的所有相关网页。在此前索引库中的排名已经算好,根据网页与关键词的相关度、网页所在网站的权重值等等算法计算给网页一个数值,数值越高、排名越靠前。
以上就是搜索引擎的工作原理,用通俗的话来讲呢就是:蜘蛛先在网上抓取所有的信息建立一个数据库,然后对这些信息创建一个索引库,当用户来搜索的时候,直接将计算好的数据反馈给用户。
首先来讲一讲什么是搜索引擎算法,搜索引擎算法是搜索引擎分析网站数据、计算网站排名、防止网站作弊等等一系列的程序。
绿萝算法:这个算法算法主要是为了打击买卖外链(友链)、批量群发外链的行为。为了让站长专用做好用户体验,不要想着通过搜索引擎的漏洞来投机取巧。
绿萝算法2.0:升级版的绿萝算法主要是为了打击发布软文的新闻站,这也是想着让站长做好自己的事情,不要想着通过大型新闻站给自己网站指向链接,从而提高权重。
石榴算法:这个算法主要针对的是网站的弹窗广告,早起很多站长都是通过广告形式来赚钱,但是这样的方式大大的影响了用户的体验,所以现在还在用弹窗广告的赶紧撤掉吧。
原创火星计划:这明显是提倡原创、打击抄袭复制。目前这个算法可以通过自动推送功能进行原创推送,记得要做标识,是原创的打上原创标识。
搜索引擎的算法有很多,这其中还有很多未公开的算法,做SEO其实就是研究搜索引擎的算法的工作,把算法研究透了,那排名自然就上去了,因为你已经知道什么能影响排名。
这里要注意的是,已经公布的算法,大家在做网站优化的过程中,尽量避免不要去触犯,否则一切努力都将白费。同时也要多多关注各大搜索引擎官方出的新算法,如果触犯有则改之,无则加勉。
以上,就是网营中国()今天想跟大家分享的seo基础知识,想了解的朋友们可以多多了解,有兴趣也可以关注网营中国,更多精彩内容我们将会不定期推送。返回搜狐,查看更多
还没有评论,来说两句吧...
发表评论