当前位置:首页 > 网站SEO优化 > 正文内容

解析网站写入Robots.txt文件之后会被搜索引擎蜘蛛收录的原因

Mrzhu2个月前 (09-11)网站SEO优化20

有些基于SEO的东西总是容易被忽略,比如Robots.txt文件。在SEO优化的文章中多次提到了关于Robots.txt文件的重要性。网站优化的诊断方法之一是检查文档是否制作,是否标准化。如上文所述,如果搜索引擎蜘蛛被禁止进入网站的Robots.txt协议文件,无论你如何优化它,它都不会被收录在内。

解析网站写入Robots.txt文件之后会被搜索引擎蜘蛛收录的原因(图1)

Robots.txt协议文件写入  

如果您将Robots.txt协议文件添加到您的网站并设置禁止搜索引擎蜘蛛的说明,您的网站内容将不会被爬行,但可能会被收录(索引)。

有些人可能会有疑问,搜索引擎蜘蛛爬行网址页面,页面需要呈现蜘蛛的内容反馈,才有可能被收录。所以,如果内容被禁止,会被收录在内吗?那是什么意思?优化猩在这里没有解释这个问题。

为什么Robots.txt协议文件禁止之后会被搜索引擎蜘蛛收录?  

这里有一个认知错误,也可能是惯性逻辑思维的错误思维。每个人都认为蜘蛛不能捕获内容,也不能收录其中。事实上,爬行、抓取和索引是不同的概念。很多人在学习SEO时,经常混淆一些SEO的概念,导致后续的SEO优化过程中性能不佳。

或者首先,Robots.txt协议文件在做什么?因为它是一个协议,它必须是一个双方都同意和接受的规则。这A和B自然是网站和搜索引擎(或搜索引擎蜘蛛)之间的协议。Robots.txt协议文件将被放置在根目录中,蜘蛛会在次进入网站时访问该文件,然后查看协议中是否有任何页面无法爬行,如果被禁止,则不会再次爬行。

Robots.txt协议文件的意义

如果一个页面想要被搜索引擎索引(包括),它应该被爬行器爬行和爬行。由于未对其进行爬网,因此将理所当然地不包括此页。这样的想法是错误的,可以索引而不必抓取。例如,淘宝是一个典型的案例,该网站添加了一个禁止协议,终被收录。原因是百度从其他渠道平台推荐的外部链接中了解到了这个网站。虽然禁止爬行,但可以通过标题和推荐链接的数据判断与此页面相对应的内容信息。

相关文章

SEO咨询怎么做?详解网站SEO咨询服务的10大流程步骤

SEO咨询怎么做?详解网站SEO咨询服务的10大流程步骤

SEO咨询服务从确立SEO目标、需求沟通、网站SEO诊断、SEO诊断建议书、网站内部优化、网站内容优化、网站内链优化、站外链接优化等方面开展工作,并在每个合作月结束提交SEO外包月报,整个服...

2024英文SEO-增加外链的方法有哪些?需要注意什么?

2024英文SEO-增加外链的方法有哪些?需要注意什么?

想让一个网站在谷歌中获得比较好的排名,除了站内优化,更新高质量内容,还需要适当推广,站外推广通俗来讲就是指发外链,外链的形式多种多样,不管什么样的推广形式,目的都是为了提高网站权重。接下来给...

网站有排名没点击,这里有一份详细seo解说

网站有排名没点击,这里有一份详细seo解说

百度搜索引擎优化给人的印象很大的是排名。似乎只有当你的排名进入主页或前三名时,流量才会更多。根据常识,这样说是正确的。但在现实中,我们将许多关键词排在前三位,甚至有些是不同网站的相同关键词。...

网站优化做好哪些内容优化关键词排名自然到首页?

网站优化做好哪些内容优化关键词排名自然到首页?

关键词排名优化和搜索引擎优化(SEO)之间的区别是什么?事实上,这两个词的意思相同,但每个人的习语都不一样。关键词排名优化中最重要的三件事是“网站架构优化”、“网站内容编写和优化”和“外部链...

“热门关键词”如何做优化?

“热门关键词”如何做优化?

并不是所有的网站在选择热门关键词后都能达到理想的效果,这涉及到流量的导入方法。权重高的网站可以直接写一篇相关的软文章发布到网站上。等待集合后,它将进行排名。但是,低权重的网站如何实现呢?一般...

网站SEO优化和非优化网站的区别

网站SEO优化和非优化网站的区别

网站是否已被SEO,您可以知道何时打开该网站。通过查看网站主页、网站导航、alt标签描述图片等,我们可以找到两者的区别。与普通网站相比,优化网站的优势主要体现在以下几个方面:1、高搜索引擎友...