SEO优化教学

2024-09-17 版权声明 我要投稿

SEO优化教学(共9篇)

SEO优化教学 篇1

SEO(Search Engine Optimization)汉语为:搜索引擎优化。是指采用易于搜索引擎索引的合理手段来提高网站在搜索引擎中排名的方法。注意这里重点是合理。它的作用就是提高网站的访问量;它的类型有文章SEO和图片SEO;它的分类有站内SEO和站外SEO。

那么如何做好网站排名优化呢。我们先来看一下SEO公司是怎么做的。专业做网站排名的公司有一套很专业的流程。因为他们掌握了各大搜索引擎的一些规律,以这些规律为突破口,指定的一套非常专业的流程。那他们的流程是怎样做的呢?接下来我就大概讲一下。首先,他们了解网站要有一个好的排名,那么网站的代码一定要简单明了,代码中一定要突出重点。其次,他们知道网站标题是影响网站排名最重要的因素。关键词标签的设置,网站内容的描述要合理是做好网站排名的前提。还有,网站内容一定要新颖而又不脱离标题。是做好网站排名的关键。

再有,网站布局合理也会影响网站的排名相信每个站长都清楚。往下就是,巧妙的吧网站各个页面连接起来,是很受各大搜索引擎的欢迎的。(这就是大家所说的内链),再有,网站的外链是影响网站排名的重中之重,相信每个站长比谁都清楚。

最后,网站服务器的稳定性,这个比任何一个因素都重要。而这

些公司不管这个,只要你的服务器出现故障,导致网站打不开,就给他们造成网站排名上不去的理由了。其实影响网站排名的因素很多很多,在这说这几个比较重要的。按照以上因素网站优化公司制定了一套流程:

1、专业的网站美工设计师,他们会对客户的我观战进行专业的美工设计把网站的结构设计的非常合理。

2、专业的网站高级程序员,他们会把网站的代码设计的最简单。

3、专业的网站编辑人员,他们会把网站的内容编辑的非常新颖。把关键词设置的非常合理。把网站标题编辑的独一无二。

4、专业的网站外链制作人员,他们会每天会制作大量的外链。就这样一套专业的流程就只做好了,按上面的流程去做一个网站影响排名的所有因素就被做好了,自然排名就上去了。

一.什么是长尾关键词?

分析网站的搜索流量和关键词,我们发现:

1.对于一般小型网站,目标关键词带来的流量占网站总搜索流量的绝大部分。

2.存在于网站目录页、内容页的关键词也会带来流量,但为数不多。

网站上非目标关键词但也可以带来搜索流量的关键词,称为长尾关键词。

长尾关键词具有的特征如:

1.比较长,往往是2-3个词组成,甚至是短语。

2.存在于内容页面,除了内容页的标题,还存在于内容中。

3.搜索量非常少,并且不稳定。

4.长尾关键词带来的客户,转化为网站产品客户的概率比目标关键词低很多。

5.存在大量长尾关键词的大中型网站,其带来的总流量非常大。

注:大中型行业网站 SEO 的主要技巧就在于对长尾关键词的策划。

二.怎么看关键词优化得好不好?

一般情况下,我们看一个站点关键词优化得怎么样,主要通过以下几点:

1.站点的规模,以及由此决定的关键词定位。

2.关键词在站点的分布情况。

3.关键词扩展的挖掘和利用。

4.首页、目录页、内容页的标题标签是否书写规范。

5.Description Tag-描述标签、关键词标签、ALT-代替属性 等是否合理利用。

6.关键词密度以及关键词在网页上的位置。

7.关键词的字体、特殊性。

8.是否存在关键词叠加、隐藏文本和链接等作弊行为。

【网站SEO分析】

基本数值分析:包括以下内容。不属于seo优化本身,却很直观的反映了一个网站的大概情况。

网站SEO分析包括:IP、IP下域名、页面收录(百度、)Google、PR值、Alexa排名、有无二级域名

网站结构、关键词分布、内部优化、外链建设;权重传导及分布。

排名提升及稳定。快照提升,及收录比例提升、收录速度提升。

——网站底层优化

【网站结构】

树状结构,或扁平状;结构清晰;分层不超过3层;推荐为2层。尽量使用div,避免使用3层以上的table。

【服务器】

SEO优化教学 篇2

作为一种互联网营销策略, SEO主要考虑搜索引擎是如何工作的、人们都在搜索些什么、搜索框中输入的关键字是什么以及哪一个搜索引擎是目标受众的首选搜索引擎等。优化一个网站, 可能涉及编辑其内容, HTML和相关的代码等工作, 目的是增加特定关键字的相关性和为搜索引擎的索引活动扫除障碍。增加网站的反向链接或入站链接数量, 是另一种搜索引擎优化策略。

1 SEO的历史

20世纪90年代中期, 搜索引擎开始对网页进行编目, 从这时候开始, 网站管理员和内容提供商就着手对搜索引擎进行优化了。最初, 所有的网站管理员需要做的是向不同的搜索引擎提供网页的地址或URL, 以便让搜索引擎的“蜘蛛”爬行到那个页面, 并从这个页面提取到其他页面的链接, 然后“蜘蛛”将找到的信息发送到索引的页面上。这个过程涉及到两个程序, 一个程序是搜索引擎蜘蛛将抓取到的页面下载并存储在搜索引擎自己的服务器上, 另一个程序被称为索引者, 它提取页面的各种信息, 如页面包含的文字以及这些文字位于文中的哪些位置、页面中某些特定的词的权重信息以及页面中包含的所有链接, 这些链接将被放置到调度器中, 用于搜索引擎蜘蛛以后爬行。

早期版本的搜索算法依赖于网站管理员提供的信息, 如关键字meta标签, 或在像ALIWEB引擎的索引文件。虽然meta标签可以指示了每一页的内容, 但是, 由于网站管理员选择的meta标记中的关键词可能不能准确地表达该网站的实际内容, 所以使用meta数据索引页面不是完全可靠的, meta标签中可能出现的不准确, 不完整和不一致的数据将导致页面搜索排名的不准确。同时, Web内容提供商利用搜索引擎的这一不完善之处, 特意修改页面的HTML源代码以提高某些关键字在搜索引擎中的排名。

1998年, Page和Brin创建了Goolge, 随着上网用户的增长, Google拥有了一批喜欢其简单风格的忠实用户。Google的创新在于, 把一些页面外的因素 (比如Page Rank和链接分析) 与页面内的因素 (比如关键字频率, meta标签, 标题, 链接和网站结构等) 放在同等地位加以考虑, 以此来防范在其他只注重关键词密度的搜索引擎中出现的排名舞弊现象。尽管Page Rank比较难对付, 可是站长们还是开发出了链接建立工具并且计划以此来影响搜索引擎, 这些做法被证明对PageRank是有效的。许多网站把注意力放在交换, 购买以及出售链接上, 数量常常是巨大的。由此产生了数不清的专门以此为目的的垃圾网站。

到2004年, 搜索引擎开发出了大量的未公开的排名算法, 以减少链接控制对网站排名的影响。在2007年6月, 纽约时代披露Google采用了超过200种不同的方法来对网站进行排名。搜索引擎的领军企业, 比如Google, Bing和Yahoo等, 从来不公开他们使用的算法。一些SEO的研究者们已经学会用不同的方法来对搜索引擎进行优化, 并且在网络上分享了他们的个人观点。

在2005年, Google开始为每个用户提供个性化的搜索结果。Google以用户之前的搜索记录为依据, 为用户提供尽量能满足其个性要求的结果。在2008年, Bruce Clay说“排名已死”, 由于个性化搜索。他认为再去讨论一个网站排名如何已经没有意义了, 因为它的排名可能由于不用的用户和不同的搜索而变得不一样。

在2007年, Google宣布反对付费链接。在2009年7月15日, Google披露他们已经采取措施降低使用nofollow属性的链接对Page Rank的影响。Matt Cutts, 一位资深的Google软件工程师, 宣称Google的机器人不再用以前的方式来对待具有nofollow属性的链接了, 以此来阻止SEO服务提供者使用nofollow属性来影响Page Rank, 由于这一措施的出现, 导致利用nofollow来进行排名的行为消失了。为了替代nofollow, SEO工程师们开发出了利用java脚本的互动技术, 同样达到了影响Page Rank的作用。与之相类似的, 还有比如“框架”, flash和脚本等替代方案。

在2009年10月, Google宣布它将采用所有用户搜索过的关键词来填充搜索结果, Google Instant, 一种即时搜索, 在2010年晚些时候被引入, 这种搜索使得搜索的结果的及时性以及相关性更好。以前, 网站管理员花费数月甚至数年来优化一个网站使得其排名靠前, 随着社交媒体网站和博客的流行, 领先的搜索引擎已经开始改变他们的算法来使得新内容能更快地出现在搜索结果当中。

2011年2月, Google宣布更新了他们的Google Panda, 此次更新将惩罚那些靠拷贝别人网站内容和资源的网站。以前, 拷贝别人网站内容的网站会得到搜索引擎的支持, 然而, 现在Google开发了一个新的系统来惩罚那些内容与别人雷同的网站。

在2012年5月, Google发布了Google Penguin更新, 目的在于惩罚那些靠手段来提高他们在搜索引擎中排名的网站。

2 SEO的技术层简介

2.1 收录

领先的搜索引擎, 比如Google, Bing和Yahoo!, 使用爬虫来发现网页, 然后用算法处理搜索结果。那些被收录了页面上所链接的其他页面是不需要提交给搜索引擎的, 因为他们将自动地被发现。有些搜索引擎, 特别是yahoo!, 有一个收费的服务, 可以用固定费用或者单次点击付费的方式来保证爬行到你要求的网页。这些程序通常保证你的网站被收录进数据库, 但是不保证在搜索结果中的特定排名, 两个主要的分类目录, Yahoo Directory和Open Directory Project需要同时手工提交和人工审查两个环节才能收录。Google提供一个免费的“Google站长工具”, 这个工具能够自动创建并提交一个网站的XML格式站点地图, 并确保发现你网站所有的网页。

搜索引擎的爬虫抓取网站页面时会考虑到很多不同的因素。不是每个页面都会被搜索引擎收录。当前页面离站点根目录的距离是能否被收录的一个重要因素。

2.2 阻止网页抓取

为了避免搜索引擎收录不希望被收录的内容, 网站管理员们可以在站点的根目录上放置一个robots.txt的文件, 该文件可以指导蜘蛛不去爬行特定的文件或者目录。另外, 使用一个meta标签也可以使搜索引擎的数据库不去收录某个页面。当一个搜索引擎访问一个站点的时候, 在站点跟目录下的robots.txt文件是最先被爬行的, robots.txt文件被解析, 并指导机器人哪些页面不要去抓取, 一般涉及以下情况的页面是站长们不希望搜索引擎抓取的, 比如说购物车的记录和注册用户信息等。

2.3 突出自己

很多方法可以使自己的网站在搜索结果中更加突出。把重要页面的链接交叉放置在同一个网站的不同页面上, 可以达到突出该页面的效果。在网站的内容中包含经常被搜索的关键词, 以此来提高网页对各种搜索关键词的命中率。经常更新网站的内容, 可以使搜索机器人更频繁地访问你的网站, 以增加你网站的权重。在一个网页的meta数据 (包括网页标题和meta描述) 中添加相关的关键字与内容描述, 可以改善该网页在相关搜索结果的排名, 以此来增加访问量。

3 白帽SEO和黑帽SEO

SEO技术可以分为两大类:搜索引擎建议使用的以及搜索引擎不赞成使用的。搜索引擎试图减小后者的影响, 而后者正是黑帽SEO。行业评论员已经划清了这些方法, 雇主就可以根据需要来雇佣白帽SEO, 或者黑帽SEO。白帽SEO提供具有长期效果的排名, 而黑帽SEO行为如果被发现的话, 最终可能会导致网站被搜索引擎除名。

一项SEO技术如果遵循搜索引擎的指南并且不涉及作弊, 那么这项技术就被认为是白帽。作为搜索引擎的指南没有写成一系列的规则或者命令, 这是一个重要的提醒需要注意。白帽SEO不仅仅是遵守指南, 还要确保搜索引擎收录的内容和之后的编排与用户最终看到的内容是相同的。白帽建议网站的内容是为用户创建的, 而不是为搜索引擎创建的, 并且保证这些内容能被蜘蛛很好地进入。并且不使用作弊的手段去达到自己的目的。白帽SEO在很多方面类似于Web开发, 尽管两者有显著的不同。

黑帽SEO试图使用搜索引擎不赞成的方式或者舞弊的方式来提高排名。一种黑帽技术是使用隐藏文本, 比如, 把文本的颜色弄成和背景相同的颜色、把文本放置在一个属性为隐藏的层中或者让文本不在屏幕的现实范围内出现。另外一种方法称为“遮蔽”, 该方法可以判别访问该页面的是人还是搜索引擎, 从而给出不同的页面, 以达到欺骗搜索引擎的目的。

搜索引擎会惩罚那些使用了黑帽方法的网站, 惩罚会降低该网站的排名并且将减少改网站的页面收录。这样的惩罚既可以是搜索引擎根据算法自动完成, 也可以是人工审核后完成。在2006年2月发生了这么一个案例, Google将德国BMW和德国Ricoh两家公司的网站除名, 原因是他们使用了作弊行为。两家公司, 迅速作出道歉, 改正了错误, 最后Google恢复了两家公司的名单。

摘要:本文主要介绍了搜索引擎优化 (SEO) 技术的历史、SEO涉及的技术, 以及SEO行为的分类。本文通过对国外典型搜索引擎Google的发展历程的介绍, 为国内的SEO发展提供了一定的参考。

关键词:搜索引擎优化,Google发展历程,SEO优化

参考文献

[1]戴夫·查菲.电子商务管理:战略, 执行与实践[M].严复明, 译.大连:东北财经大学出版社, 2011.5.

新网站的SEO优化操作流程研究 篇3

关键词:SEO;关键字;域名

中图分类号:G718 文献标识码:B 文章编号:1002-7661(2014)24-345-02

引言

SEO(Search Engine Optimization)就是搜索引擎优化。搜索引擎优化是一种利用搜索引擎的搜索规则来提高目的网站在有关搜索引擎内的排名的方式。简单来讲通过总结搜索引擎的排名规律,对网站进行合理优化,使你的网站在百度和Google的排名提高,就是让你的网站在排在首页页甚至第一名。让搜索引擎给你带来更多的客户创造更大的效益。SEO是一项费时费力的工作,而非自动化可以实现,整个优化过程花费大量的时间和精力去进行,从关键字的研究,结构布局优化,推广维护等等都要消耗大量人工时间。

一、SEO发展现状

SEO的概念是由美国在97年的样子提出来的,1994年,分类目录型搜索引擎Yahoo、Lycos等相继诞生,搜索引擎表现出网络营销价值。1995年,自动提交到搜索引擎的软件诞生。1995-1996年,基于网页HTML代码中META标签检索的搜索引擎技术诞生——这就是搜索引擎优化方法的萌芽。1996-2009年,搜索引擎SEO技术变得火爆。也就是出现在WEB2.0时代,如图XX所示。SEO在国外也是一个行业,但在中国还是小作坊形式。所以SEO在中国的未来会发展成一个行业。

二、为什么要做SEO

首先搜索引擎的覆盖率越来越高,2013年覆盖率达83.2%。这就说明很多用户会通过搜过引擎来寻找所需的资料。这就说明了搜索引擎能为网站带来用户,且用户质量高。来自搜索的用户是在主动寻找你的网站,目标非常精准、转化率高、性价比高。SEO绝不是免费的,但确实是成本相对较低的。搜索排名一旦上去,可以维持相当长时间,流量源源不断。

三、新网站的SEO优化操作流程

对于完全没了解过SEO的人来说,是很难理解如何去做。且这个问题说真的没办法几句话回答精楚。以下就以一般新站的 SEO规范化操作流程为例,写一写网站的整站优化操作流程。

1、选择域名与IP

一个新网站就要先注册一个域名。最好域名就是与关键字相关的。比如你网站是关于MP3。你的域名最好包含MP3字符。正常来说每一个网站的域名对应一个 IP 地址,但大部分中小企业网站都存放在由一台服务器划分出来的若干虚拟主机上,由多个网站共享一 台服务器和 IP 地址,一些 WEB 服务器中有成百上千个域名共享一个 IP 地址的情况。这样对站长来说成本较低,但对网站的搜索引擎排名带来以下潜在风险。共享一个IP的其他网站如果被搜索引擎惩罚,将或多或少波及你的网站。所以这一步你要做的事是获得你的域名所在主机上所有的域名是否被搜索引擎惩罚,来判断你的域名放在这里是否安全。

第一步:查询域名对应的IP。

通过ip138.com 可以查询到某域名对应的IP,以www.coolady.com为例,查询到对应IP为:61.155.202.190。如图1。

图1 ip138.com

第二步:查询该IP服务器上有多少个对应域名。

方法有很多,其中你可以打开http://www.yougetsignal.com/网站,点击“Reverse IP Domain Check”选项,当打开页面时,输入61.155.202.190就可以知到本IP对应了多少个域名。如图2所示,对应了6个域名。

图2 Reverse IP Domain Check

第三步:查询一个域名是否被搜索引擎惩罚

在百度输入框中输入 site:域名 ,若有结果显示代表没有被惩罚过。比如输入 site:coolady.com 为例,如图3。

图3 百度输入框

将服务器上所有域名测试一次,就知有没被搜索引擎惩罚过了。

所以就是找好的服务商提供商,或者独立IP主机。最后还要提一提,最多使用二级域名就好了。

2、选择好的主机

主机对网站的搜索引擎排名影响很大。在寻找主机提供商的时候,千万不要只考虑价格因素。避免使用免费主机,因为免费主机里面经常会出现 Spammers、镜像网站、桥页等 “搜索引擎垃圾”,很多搜索引擎都不愿意索引免费主机上的网站。要选择快速、稳定、安全的服务,最好有 24 小时客服支持和维护的主机提供商。保证你的网站快速、可靠、稳定地运行。以博取蜘蛛的欢心,主机慢、不稳定搜索引擎就不过来收集信息了。

3、关键词分析整理

关键字(keyword)就是希望访问者了解的产品、服务或者公司等内容名称的用语。关键字还可以细分主关键字、辅关键字、长尾关键字等。主关键字指经过关键词分析确定下来的网站最重要的关键词。就是网站产品和服务的目标客户最可能用来搜索的关键词。辅关键字与主关键词相关的关键字,但有一定的搜索量与热度。辅关键字是主关键字的一个重要的说明及补充。长尾关键字是网站上非目标关键词但也可以带来搜索流量的关键词。

在这一步就是找出三类关键字。然后以下表1形式记录。

关键字排名结果数每天搜索量类别

表1

4、网站结构优化

基于主流的搜索引擎规则,网站最好三层目录,这是最佳的目录结构。有些搜索引擎会当二级域名为每一层目录。所以中小型网站最好以扁平式的网站结构。

另一个优化要注意的是目录和文件名称。目录和文件名称如果有关键词组,要用连字符“-”而不是下划线“_”进行分隔,这样做关键字才会有意义。合理的目录命名,可以对网页排名是加分的。

导航结构目录要清晰。主要有三种方法:一是主导航采用文本链接,因为一般体现为一级目录,通过它们用户和蜘蛛程序都可以层层深入访问到网站所有重要内容。二是使用“面包屑型(Breadcrumbs)”路径 ,就是比喻用户通过主导航到目标网页的访问过程中的路径提示,使用户了解所处网站中的位置而不至于迷失“方向”,并方便回到上级页面和起点。路径中的每个栏目最好添加链接。三是使用网站地图,可以使用 Xenu 工具生成网站地图或者Google推出的Sitemap。

5、细节优化

细节优化主要包括以下几部分

页面优化:对栏目、列表、内容页面、相关页面等优化

内链布置:尽量做效链,不仅可以增加PV,还可以为页面排名加分。

关键词布局:主关键词放首页、辅关键词放栏目页和专题页、长尾关键词放内容页。

标签设置:注意 keyword alt title等标签的填写。

代码优化:优化代码,将网页的公共的不需要优化的部分转换为脚本并存于js。

6、建立外部链接

对搜索引擎尤其是 Google 来说,决定一个网站排名的关键,是外部有多少高质量的链接指向这个网站。这就是外部链接或反向链接,也称导入链接(Inbound links 或 backlinks)。原创内容多的网站是搜索引擎最喜欢的,当然也算是高质量链接了,所以找外部链接就要找高质量的链接。

7、新站优化方案

一般情况下,应做好新站3-4月的详细优化方案。方案中应包含在规定时间内的站内优化以及站外推广的操作流程,具体到时间和相应人员,并附上预算和效果预测。

8、数据分析与修改

通过每日对竞争对手和自身网站的相关数据进行搜集和整理,越详细越好,供以后分析参考。根据搜索引擎算法来检测SEO方案实施过程中的问题,分析问题,包括网站流量。最后根据出现的问题来调整SEO操作方案以及下一步的SEO策略。

结束语

SEO是一项费时费力的工作,而非自动化可以实现,整个优化过程花费大量的时间和精力去进行,从关键字的研究,结构布局优化,推广维护等等都要消耗大量人工时间。所以SEO也是一项苦逼的工作。SEO要从技术上、耐心上去操作。最后变成常规化的工作。网站的流量会越来越高。

参考文献:

[1] 吴泽欣.SEO教程:搜索引擎优化入门与进阶(第2版) [M].北京:人民邮电出版社,2009.

[2] 昝 辉.SEO实战密码 [M]. 北京:电子工业出版社,2011.

[3] (美)格拉波内.(美)库辛 著.搜索引擎优化(第二版) [M].赵利通译.北京:清华大学出版社2009.

(上接第343页)作学习”的方式开展学习,通过完成“项目”来达到“意义建构”,是一种比较有效的教学方法。它突破了传统的教学模式,通过解决学生身边的一些现实问题来实现学生对知识的掌握,大大提高了学生学习的积极性和主动性。通过项目教学法学习的学生,他们的动手能力、解决实际问题的能力将会有很大的提高。项目教学法彰显出职业教育特色,不仅适合职高计算机教学,也适合其它操作实用性强的学科。

参考文献:

[1] 《中国电化教育》、《计算机报》、《中小学电教》、《中国电脑教育报》.

[2] 建构主义——革新传统教学的理论基础[A].学校教育现代化建设M].国家教委电教办樟木头培训中心,1998 (3).

[3] 赵建华.李克东.协作学习及协作学习模式[J].中国电化教育,2000(10)

(上接第344页)3、尊重小组差异,提升同伴助学的兴趣

自主学习的过程中,各小组会有不同的差异。教师应尊重小组差异,心中要有“有教无类”的教育思想。对于差的组要给以及时的点评进行补足,对于成度好的组要给以适当的表扬,对于中间层次的小组教师应鼓动其加快行动超越自我。

四、课后反思,总结提炼的策略

普通高中的高考科目以月考、期中考试、期末考试等方式对课堂内容进行总结和反思。而信息技术学科作为一门非高考的学科,教师应更加注重课后的反思,让学生养成自主学习的习惯,需要对前期知识的不断反思和总结。

1、适当布置课后作业

2、严格执行学分制度

3、择机开展作品制作展览周活动

SEO优化教学 篇4

链接决定排名,这个是要着重强调的地方,如果想提高网站的权重,使网站有好的排名,最最重要的是外部链接,就是从别人的网站对我们网站的链接。链接是决定性因素,所以SEO工作的重点是在如果获得高质量链接上。

我们需要的是高质量链接,并不是垃圾链接。做了垃圾链接,也许短时间内对怕名有益,但是时间久了对网站是有很不利的影响。如果网站做过很多垃圾链接,以后即使做很多高质量链接,排名也不容易上来。一般论坛留言、博客留言等链接,专门用来交换链接的页面,都属于垃圾链接,千万不要去做。

关键词

要做一个网站,首先要做的就是选择一个主题,然后有目的的针对这个主题做站。这时就有一个选择关键词的问题。很多人只针对首页,用相关工具选择有限的几个关键词,以后的目标就是做好这几个关键词的排名,做链接时也是以这些为主。这样是不好的,我们要做的不是只做有限的几个关键词,而是几百几千个内页的关键词。

我们的网站有大量的内页,一般每个网页都有一个主关键词。这些关键词还可以引申出来许多小关键词,这些内页主关键词以及引申出来的小关键词都是我们的目标,我们要将其中大部分的排名做上去。至于首页的关键词,一般选择的都是大关键词,这种排名难度比较大,甚至可以不用考虑。

如果做到了将几百几千个内页关键词的排名做上去,那么即使首页没有排名,那么也能有大量的搜索引擎流量。要想达到这个目标,需要将网站作为一个整体来做,提升网站整体的权重。amazon.com是这方面最好的例子,他的首页也许没有多少从搜索引擎来的流量,但是搜索产品名称,或者与产品名称有关的词时,他的大部分内页排名都靠前,可以说从这些内页关键词来的流量比首页要多得多。这样的效果就是我们做SEO要达到的目标。

制作网站

大家一般都是用WP或者CMS程序来做网站,一定要保证每个网页都有自己的title、descrption、keywords,不同的网页,这些内容不能重复。

顺便提一下,很多人都觉得自己制作网站很难,不愿意去学。其实自己制作网站也是很容易的,网站前台页面无非就是从数据库中读取数据,管理页面也就是读取、增加更改数据库内容,如果看了简单PHP程序例子,就会发现其实很简单。如果认真去学,两周可以自己开发简单网站,一个月可以开发稍微复杂的网站。我们个人的网站的数据不会太多,最好是自己开发,这样需要扩充功能时可以自己方便的实现。

页面布局

搜索引擎抓取网页时,靠前的部分要比靠后部分要先抓取、分析,可以认为网页靠前部分的权重更高一些。我们可以网页中重要的内容提前,放到前面来。网页中可以先出现主关键词h1,然后紧跟着成段连贯的文字内容。在网页中,最好都要有成段连贯的描述性文字内容,这种连贯文字里可以自然的多增加一些关键词,这样可以提高关键词密度。

一般的网站都有顶部和左边菜单栏,一般这些部分都和当前网页的关键词没有什么关系,属于干扰性的内容。我们可以用CSS技术,将这些干扰性内容都放到html文件的后面去。这要求自己动手制作网站,做到更好,做不到也不算什么。

网站内容:拼凑大法

网站如果有原创内容,无疑是有更大的优势。可是不会写原创内容,怎么办?我们可以用拼凑大法。从不同的网站找出一个句子,或者找到不同的半个句子组成一个完整的句子,用这些句子组成一段文字,几段这种文字就可以组成一篇文章了。这样拼凑出来的文章,虽然可读性不算很好,可是因为是从别人网站复制过来,可读性比起我们自己写的要好得多。

这样拼凑出来的文章,虽然不算是完全原创,但是也可以说都是独一无二的。由于只是和其他文章某些句子类似,因此对Google来说,这种文章也可以说是原创。我自己的网站的内容就是用这个方法拼凑出来的,在Google已经稳定了几年,不论算法怎么变化,排名始终稳定。

关键词分布

在网站中,每个网页都有自己的关键词。作为主关键词,它在本网页中出现的次数一定是最多的。首先,关键词一定要在title,description、keywords中出现,而且位置越靠前越好。其次,在网页中最好有成段的连贯文字,可以将关键词自然的分布到这些文字中,为了增加关键词密度,只要不过于影响可读性,可以在这些连贯的文字里多多增加关键词。最后,除了H1之外,如果要在其他地方增加关键词,不要让关键词孤立的出现,可以将关键词加到句子里,即使是短句。做到了这些,就不要考虑关键词密度问题,即使再高也没有关系。

这里要着重强调的是:不要堆积关键词,在网页中的任何位置都不要堆积关键词。比如在title里,同一个单词只需要出现一次就够了,不要多次出现,将一堆类似的关键词堆积在一起是千万不能做的事情。

利用免费博客做链接

在以前,现在和可以预见的未来,链接都是Google排名的决定性因素,下面我们来讨论做链接的方法,

第一种方法是用免费博客来做链接,这种方法是很多做FP常用的方法,也是很多做SEO培训者所教的方法。

这种方法是要在网上找到免费博客,然后注册发文章,在文章里带上自己需要的链接。只有几个这种博客链接没有多大的效果,但是如果做几千几万个这种链接,效果就会非常显著。用这个方法要注意两个方面的问题。一个是文章内容要和你自己被链接的页面相关,在这些相关内容的文章里给自己页面加链接;第二是一定要在文章正文里带链接,链接自然的分布文章里,千万不要做孤零零的链接。

用博客来做链接,属于spam行为,经常会被删除,所以就需要不停的寻找新博客资源,不停的注册新账号,不停的发内容。这个他们做外贸的,专门有很多人来做这个事情,他们所说的发链接,通常指的就是这个方法,这个方法不用花钱,但是要花费很多时间和精力。这个方法做的链接不稳定,短期内会有效果。要想做一个长期稳定的正规网站,要用大杀器级方法:站群。

做自己能控制的链接:站群

Google排名的决定性因素是链接,最好的链接是从相似主题网站首页来的链接,其次是从别人文章正文里的链接。链接存在的时间长短,其作用也是不同的,链接存在的时间越长,他的作用就越大。

如果我们的网站有非常优秀的内容,很多人能主动引用我们的文章,在引用的文章里给我们做链接,那是最好的链接之一。可惜我们普通人都做不到这一点。我们一般用交换、博客等方法做的链接,这些链接存在于自己不能控制的网站中,无法控制链接的位置,无法控制那个页面的链接的数量,链接也会因为各种原因被删除,使得这些链接的稳定性不好。

我们如何能做稳定性好的链接呢?答案显然只有一个:自己做小站,在小站给自己的主站加链接。自己做很多这种小站,来将主站的排名做上去,就是我所重点倡导的站群技术。我自己所做的几个主站,就是用同一批站群来做的,这几个主站的排名已经稳定好几年了,其间不管Google怎么改变,排名都是一直非常稳定。

做站群,首先要明确目的是什么。很多人做站群,都是想将站群里的每个站的排名都做起来。如果有这样的想法,那不可避免的就要给每个站都做链接,这样一方面是会利用这些站互相链接,可能会导致所有的域名都被惩罚,另一个方面是本来要给主站的链接给了小站,导致主站的链接减少,不利于主站提高权重。做站群千万要放弃这种想法。我们做站群的目的只是为了给自己的主站做链接,做好几个主站的排名。

用站群来做排名,需要注意一定的技巧。注意这些技巧的目的,是要完全模仿自然链接,就好像这些链接是别人很自然的给我们加上去的。

1.每个小站都要有一定的内容,可以只有几个页面,但是每个页面都要有一定的内容。不要直接从其他地方复制内容,可以用拼凑大法来制作网站内容。

2.域名的whois信息可以相同,也可以不同。但是同IP地址下的域名不要太多,建议不要超过4个。

3.不管是首页还是内页,都要在文章正文里给主站加链接。不要每篇文章里加太多的链接,如果要想给主站加更多的链接,可以在小站增加页面,在增加的页面里给主站加。

4.给主站加链接时,要注意链接的多样化。第一是链接网址的多样化,要给主站的首页、不同的内页都要加上链接,不要只是给主站的首页加。第二是锚文字的多样化,主要以需要优化的关键词作为锚文字,同时也要用其他各种不同的词作为锚文字。

5.给小站可以走一两个链接,也可以不做链接,只要保证小站被收录就可以了。不要做所谓的链轮,链轮会显著提高每个小站的权重,但是这样可能会导致所有域名全部被惩罚。

6.循序渐进,按照一定的速度来注册域名,来给主站加链接。

按照这样的方法来操作站群,只要花上一定的时间,是绝对可以将主站的排名做起来的,等做起来后,随着小站的不断继续增加,排名是会越来越好,会一直稳定下去的。这是我极力推荐的做链接方法。

交换链接

在给网站做链接时,交换链接是一种非常流行的方法。我们可以看到很多网站的底部挂着一堆其他网站的链接,这些网站主题有的竟然与自己网站没有任何关系。这种方法是用自己的主站去和别人交换链接,这是很不好的一种行为。他的危害有几点:一.主站挂着一堆链接,显得很不专业,会让浏览者觉得你这个网站不可信。二。主站给别人的站做链接,如果数量不多是可以的,但是如何数量太多了,

那么就可能对自己的排名有不利的影响,何况那种主题不相干的,更是对自己有害无利。三.如果别人的网站被惩罚了,我们给他们做链接,也可能会被连带惩罚,这样就太冤了。

SEO优化教学 篇5

第一,合理使用html标签的目的和意义.我们知道搜索引擎抓取网页内容是通过蜘蛛程序爬行进行网页信息提取的,在提取重要信息的时候是通过基础代码来实现的,为了让搜索引擎方便、准确的抓取页面的主要内容,SEOer需要为网页人工减噪。事实上,仅仅做完减噪这一步,仍然不能保证搜索引擎正确的理解了这个页面。而做好语义化布局之后,在搜索引擎看来,这个网页的结构一目了然,这就好比是用户在看一篇排版很好的文章一样,阅读的舒适度和速度都将大大提升。

对于搜索引擎而言,有了良好的结构和语义,搜索引擎蜘蛛能顺利的理解网页的正文标签的含义,比如那些是标题,那些加B标签或者strong标签的都是需要重点关注的,这样的网页权重分配你所需要表达的重点细节搜索引擎都能够非常迅速的一目了然,这样SEO优化你所需要表达的东西才能最大限度的发挥出来。

第二,如何正确的使用html标签。笔者认为对于网页设计者而言我们只需要在使用标记的过程中明白每一个标签的含义,在正确的位置进行合理的使用和布局即可,比如段落标签P,段落内的文字会自动换行,既然是段落表面上看起来会出现换行,但是这个时候不需要用去换行了,是处理段内文章换行的标记,对于段落还是用P标记比较合适,

标题标签h1、h2、h3、h4、h5、h6 优化级是越来越低,针对网站大标题,小标题栏目页标题和内容页标题都要视情况进行选择,网页中新闻列表页或者产品列表页标签ul、ol、li,选择列表标签在合适不过了。

第三,在使用标记的过程中我们应该注意那些问题?html标签是提升优化效果界面布局最基础的东西,在使用的过程中我们必须明确每一个标签的含义和使用方式,其次注意标签的嵌套使用的问题,双边标记是成对出现的,一定要写上结尾标示符,而单边标记我们也应该使用反斜杠进行结束,代码的完整性必须很好的体现出来,网页虽然是由很多代码组成的,用户在前台可能看到的都是文字,而蜘蛛在访问网站的过程中正好和我们的阅读方式是相反的,他们都是从网页代码入手,通过网页标签去理解和解读网站的,所以,写作的时候注意规范化的写法是非常有必要的。

最后,笔者总结一下,网站优化过程中随着百度算法的不断升级,对于蜘蛛爬行和抓取效率方面的直接体现就是我们的代码优化,为什么之前的网页普遍采用表格布局,逐步的被div所取代,除了易于维护之外,一个很重要的原因在于div和css标签能够让蜘蛛一目了然的明白网页代码所要表现的含义,所要在进行网站优化之前,合理化的使用html标签是站长必须掌握的基本技能,最好是多去观察网站日志,看看蜘蛛抓取是否顺利。

seo优化是什么 篇6

简单说seo优化就是为了降低成本,seo优化是针对自己网站的几个关键词做优化的,只要通过优化后关键词才能够在搜索引擎中有较前的排名,才能给自己的关键词带来流量,这就是大家所说的seo优化排名。

seo是一件非常考验你耐性与工作执行力的工作,每天都会重复做很多工作,首先是你的网站内部,从网页的排版、内部链接、关键词、文章内容,都要一一把关其次是你网站内容的更新,最好是原创,把握好关键词密度及位置,更新频率。下面这些是做seo的最基本的原则,想要做好就要积累经验,希望能帮到你。

搜索引擎优化SEO的基本技术 篇7

1 DIV+CSS网站编码要简洁明了

网站制作中要使用DIV+CSS技术设计网页, table布局灵活性受限, 且只能遵循

……

的嵌套, 垃圾代码很多。DIV+CSS技术能更好的控制页面布局, 表现和内容分离, 大大缩减页面代码, 浏览速度快, 使“蜘蛛”更轻易的抓取内容并增加收录。DIV+CSS技术应用相对灵活, 可以用

标签, 越近越好, 以便让搜索引擎最快的抓取主题。如:http://www.hoodia.com/。

1 0 做好网站地图sitemap

网站地图可以方便搜索引擎“蜘蛛”抓取页面, 提供整个网站的链接, 作为一种潜在的着陆页面, 可以为搜索流量进行优化, 增加重要内容的收录。好处是双方面的, 一个是提高用户体验, 满足访问用户的需求;另一方面是取悦于“蜘蛛”, 链接最好不要超过100个, 把sitemap写进robots.txt, 这里, 百度建议使用Html格式, Google建议使用Xml格式。并且要确保你的robots文件经常更新和上传, 便于培养搜索引擎蜘蛛爬行的频率和规则, 这样网站内容能更快的被搜索引擎抓取并收录, 重要内容也可以很快被搜索引擎检索。

上一篇:色彩斑斓的课余生活作文下一篇:2024年12月第4周国内时事政治热点汇总