请输入您要查询的百科知识:

 

词条 网站收录
释义

网站收录就是与互联网用户共享网址,网站收录前提是网站首页提交给搜索引擎,蜘蛛才会光顾,每次抓取网页时都会向索引中添加并更新新的网站,站长只需提供顶层网页即可,不必提交各个单独的网页。抓取工具能够找到其他网页。符合相关标准提交的网址,会在1个月内按搜索引擎收录标准被处理。

网站收录

网站收录的由来:是一种网站链接模式,具有一定的意义!

网站收录的含义:顾名思义就是你的网站被收录网站收录是互联网发展到一定阶段既而出现的产物!

网站收录和店铺收录的结合:hao淘宝123-集合网站导航、网站收录、店铺导航、店铺收录的新型导航类网站!

增加外链并被更快收录的方法

1.通过优化网站程序推广,也就是所谓的SEO

2.竞价排名

3.多发原创性的文章

4.提升PR值。

5.在高质量的网站发布带有链接的软文,引导搜索引擎前来光顾,进而实现收录。

6.网站要有规律的更新,每次更新文章要不少于2篇。

7.网站打开速度和空间的稳定性也是影响网站收录的因素。

8.增加网站自身的权重,是更快收录的根本原因。

网站推广十点禁忌

1 不要把首页做成flash

真正的搜索引擎对图片的识别能力很差,首页做成flash,不仅不利于搜索引擎排名,而且还减慢了进入主页的速度,在一定程度上为你的客户尽快找到你又设置了一道小障碍。

2 不要用大量的图片组成首页

任何一个搜索引擎都喜欢结构明显,而不喜欢把网站做成一张皮,让搜索引擎分不清你的重点所在。

3 不要把导航做成图片连接

因为搜索引擎是一个很大的数据库,而不是一个图片库,搜索引擎首页搜索引擎到的是你的标题,接着才通过你的导航系统搜索到你网站的其他内页,所以如果你的网站导航是文字连接,搜索引擎就很容易搜索到你其他的页面,是网站的整体形象得意完美展示,如果图片连接则不能达到这个效果。

付费推广要注意,不要被忽悠:

4 不要去作所谓的通用网址,那是用来骗不懂网络的人

一个网站80%的流量来源于搜索引擎,其他的20%则通过直接输入网址和导航网站的连接,用通用网址的人不到0.5%。因为3721网络实名的成功,通用网址只不过是想借中国互联网不成熟的时机捞一把而已。你懂网络吗?懂就不要用通用网址。

5 不要去相信网络公司对你销售业绩的承诺

如果你是公司的老板或者是网站负责人,你就会听到很多网络公司的业务人员,为了让你作一个推广,就会给你一些不切合实际的承诺,如推广在手,销售不愁,今天作了推广,一定可以给你带来数十万的销售额,有时候还会给你说,我们那个客户推广后一年在销售几百万。这些都是推广的功劳吗?这样的几率有多大,1%还是千分之一呢?

6 不要被中搜的廉价垃圾服务所骗

很直白的说,中搜不是搜索引擎,因为没有流量,很多个人网站的流量都要比他大的多,最关键还是技术问题一直没有很好的解决。

7 不要去作第一页以后的广告

经常浏览百度的人就会发现,遇到一些热门的关键词,如,手机,数码相机,掌上电脑,电影,等热门关键词,前四五页就是推广的。前三可以拦截 80%的客户和流量,第一页可以拦截60%的客户和流量,第二页的点击机会只有20%到30%,更不要说第三第四页了,一句话,没效果,白扔钱。

劳而无功的推广:

8 不要期望用垃圾邮件来推广你的网站

这是网络礼节的关键规则。无论何时何地、对任何人,大量不请自来的电子邮件都是让人不能容忍的。有成百上千的家伙试图卖给你数据库和用来发垃圾邮件的软件,但是不要相信他们。滥发邮件会给你招来敌人而不是朋友,它还会使你的站点被大的isp禁止,减少你的访问量。 如今没有人不讨厌垃圾邮件,因为它已经给人们的工作带来了很多负面影响,会阅读垃圾邮件的几率不到千分之一,更不会去考虑你的服务和产品了。很影响企业形象。

9 过于追求免费,疯狂的作友情连接.

一些人为了省钱,把希望寄托在免费资源上,更可笑的是有人想通过单纯的疯狂的友情连接希望增加自己网站的流量,提高在搜索引擎的排名,吸引一个客户。

10 为难那些电子商务师,他们心有余而力不足

很多公司为了追赶电子商务浪潮,专门找一个学习电子商务专业的学生或者是一个对网络了解的人,不再花其他的钱,来成功运行公司网站,最终使网站盈利。千万不要为难那些电子商务师,他们也想把公司网站运作好,但是他们本身那也不是很懂。他们只能来维护你的网站。

网站收录减少的原因

1、Refresh跳转刷新问题

如果你在某页面头部使用META Refresh跳转到另一个页面的话,也属于作弊行为,很容易导致收录剧减,甚至被K!

还有一个要补充的问题就是GOOGLE搜索引擎要比搜索引擎先进得多,相比就等于一辆奔驰与一辆解放牌的车。对于网站的整站更新,GOOGLE几天就能改过来,而搜索引擎那个蠢家伙几个月都缓不过来,要说数据量大GOOGLE包含了全球大多数网站的主要数据,不会比搜索引擎少吧?这也说明搜索引擎收录容量有限的原因,要说重复不能收录,那人家GOOGLE怎么又会对重复的数据照收不误呢?

2、cn域名

由于cn域名较便宜,形成很多人群利用cn域名做垃圾网站,从而影响到很多cn属主网页在搜索引擎收录变少或没收录!

3、空间问题

自己服务器的IP下站点的收录情况不良及空间隐定性差仅会影响到搜索引擎收录变少或没收录!

4、网站改版

不要随意更改程序,随意修改首页分类和标题,搜索引擎就不知所措,如果你一定要换程序,建议你把网站完全关闭1个月再重新上传你的程序,这样搜索引擎就以为你是新站,收录起来就容易得多。

5、模板、内容严重的重复

任何一款模板拿到手,记得先修改。

大家都用同一类型的模板,内容都是来自于采集,由于现在做电影站的特别多,采来采去的都是那十来个采集件,试问有几万个内容相同的站,叫搜索引擎那个机器怎么收录?

6、关键词过多

关键词不要做得太热,有些人把自己的网站题目就是“土豆电影”或“优酷视频”,你到搜索引擎看看有多少能真正收录?就算收录了也很快就会被K掉,因为搜索引擎认为要是真的收录了你,你的流量就会变得很大,这岂不是天上掉馅饼?堆积标题和关键词过多会造成搜索引擎收录变少或没收录!

7、网站链接这点很重要

经常检查你的外部连接,看看有没有打不开的网站、垃圾网站、没被搜索引擎收录的网站,被搜索引擎被降权的网站,被搜索引擎K的网站仅会影响搜索引擎收录变少或没收录!

8、SEO优化

搜索引擎对SEO过分的网站惩罚制度越来越严厉,SEO优化过度会造成搜索引擎收录变少或没收录!

网站收录入口

百度收录

Google收录

Yahoo收录

Bing收录

Sogou收录

Alexa收录

中国搜索收录

有道搜索收录

搜搜收录

天网网站收录

Dmoz收录

Coodir收录

影响收录的外部链接因素

定义

增加外部链接,能让搜索引擎有效地抓取和收录网页

增加外部链接的方法

1,自己主动性地增加链接;

2,发表优质文章、内容,吸引别人主动链接。

3,交换友情链接,比较容易简单的办法;

4,提交分类目录、网络书签,简单未必十分有效;

5,购买文本链接,需要有一定成本投入,且链接不持久;

6,组建链接网络,建立网站群、博客群,投入成本高,耗时较长,后期效果明显;

7,群发链接,留言板垃圾留言、论坛签名链接……

收录原理

1、收集待索引网页的url

Internet上存在的网页数量绝对是个天文数字,每天新增的网页也不计其数,搜索引擎需要首先找到要索引收录的对象。

具体到Google而言,虽然对GoogleBot是否存在DeepBot与FreshBot的区别存在争议——至于是否叫这么两个名字更是众说纷耘,当然,名字本身并不重要——至少到目前为止。

主流的看法是,在Google的robots中,的确存在着相当部分专门为真正的索引收录页页准备“素材”的robots——在这里我们姑且仍称之为FreshBot吧

——它们的任务便是每天不停地扫描Internet,以发现并维护一个庞大的url列表供DeepBot使用,换言之,当其访问、读取其一个网页时,目的并不在于索引这个网页,而是找出这个网页中的所有链接。

——当然,这样似乎在效率上存在矛盾,有点不太可信。不过,我们可以简单地通过以下方式判断:FreshBot在扫描网页时不具备“排它性”。

也即是说,位于Google不同的数据中心的多个robots可能在某个很短的时间周期,比如说一天甚至一小时,访问同一个页面,而DeepBot在索引、缓存页面时则不会出现类似的情况。

即Google会限制由某个数据中心的robots来完成这项工作的,而不会出现两个数据中心同时索引网页同一个版本的情况,如果这种说法没有破绽的话,则似乎可以从服务器访问日志中时常可以看到源自不同IP的GoogleBot在很短的时间内多次访问同一个网页证明FreshBot的存在。

因此,有时候发现GoogleBot频繁访问网站也不要高兴得太早,也许其根本不是在索引网页而只是在扫描url。

FreshBot记录的信息包括网页的url、TimeStamp(网页创建或更新的时间戳),以及网页的Head信息(注:这一点存在争议,也有不少人相信FreshBot不会去读取目标网页信息的,而是将这部分工作交由DeepBot完成。

不过,笔者倾向于前一种说法,因为在FreshBot向DeepBot提交的url列表中,会将网站设置禁止索引、收录的页面排除在外,以提高效率,而网站进行此类设置时除使用robots.txt外还有相当部分是通过mata标签中的“noindex”实现的,不读取目标网页的head似乎是无法实现这一点的),如果网页不可访问,比如说网络中断或服务器故障,FreshBot则会记下该url并择机重试,但在该url可访问之前,不会将其加入向DeepBot提交的url列表。

总的来说,FreshBot对服务器带宽、资源的占用还是比较小的。最后,FreshBot对记录信息按不同的优先级进行分类,向DeepBot提交,根据优先级不同,主要有以下几种:

A:新建网页;B:旧网页/新的TimeStamp,即存在更新的网页;C:使用301/302重定向的网页;D:复杂的动态url:如使用多个参数的动态url,Google可能需要附加的工作才能正确分析其内容。

——随着Google对动态网页支持能力的提高,这一分类可能已经取消;E:其他类型的文件,如指向PDF、DOC文件的链接,对这些文件的索引,也可能需要附加的工作;

F:旧网页/旧的TimeStamp,即未更新的网页,注意,这里的时间戳不是以Google搜索结果中显示的日期为准,而是与Google索引数据库中的日期比对;G:错误的url,即访问时返回404回应的页面;

优先级按由A至G的顺序排列,依次降低。需要强调的是,这里所言之优先级是相对的,比如说同样是新建网页,根据指向其的链接质量、数量的不同,优先级也有着很大的区别,具有源自相关的权威网站链接的网页具有较高的优先级。

此外,这里所指的优先级仅针对同一网站内部的页面,事实上,不同网站也有有着不同的优先级,换言之,对权威网站中的网页而言,即使其最低优先级的404url,也可能比许多其他网站优先级最高的新建网页更具优势。

2、网页的索引与收录

接下来才进入真正的索引与收录网页过程。从上面的介绍可以看出,FreshBot提交的url列表是相当庞大的,根据语言、网站位置等不同,对特定网站的索引工作将分配至不同的数据中心完成。

整个索引过程,由于庞大的数据量,可能需要几周甚至更长时间才能完成。

正如上文所言,DeepBot会首先索引优先级较高的网站/网页,优先级越高,出现在Google索引数据库及至最终出现在Google搜索结果页面中的速度便越快。

对新建网页而言,只要进入到这个阶段,即使整个索引过程没有完成,相应的网页便已具备出现在Google索引库中的可能,相信许多朋友在Google中使用“site”搜索时常常看到标注为补充结果只显示网页url或只显示网页标题与url但没有描述的页面,此即是处于这一阶段网页的正常结果。

当Google真正读取、分析、缓存了这个页面后,其便会从补充结果中逃出而显示正常的信息。

——当然,前提是该网页具有足够的链接,特别是来自权威网站的链接,并且,索引库中没有与该网页内容相同或近似的记录(DuplicateContent过滤)。

对动态url而言,虽然如今Google宣称在对其处理方面已不存在障碍,不过,可以观察到的事实仍然显示动态url出现在补充结果中的几率远大于使用静态url的网页,往往需要更多、更有价值的链接才能从补充结果中逸出。

而对于上文中之“F”类,即未更新的网页,DeepBot会将其时间戳与Google索引数据库中的日期比对,确认尽管可能搜索结果中相应页面信息未来得及更新但只要索引了最新版本即可——考虑网页多次更新、修改的情况——;至于“G”类即404url,则会查找索引库中是否存在相应的记录,如果有,将其删除。

3、数据中心间的同步

前文我们提到过,DeepBot索引某个网页时会由特定的数据中心完成,而不会出现多个数据中心同时读取该网页,分别获得网页最近版本的情况,这样,在索引过程完成后,便需要一个数据同步过程,将网页的最新版本在多个数据中心得到更新。

这就是之前著名的GoogleDance。不过,在BigDaddy更新后,数据中心间的同步不再象那样集中在特定的时间段,而是以一种连续的、时效性更强的方式进行。

随便看

 

百科全书收录4421916条中文百科知识,基本涵盖了大多数领域的百科知识,是一部内容开放、自由的电子版百科全书。

 

Copyright © 2004-2023 Cnenc.net All Rights Reserved
更新时间:2025/2/4 7:37:59