八喜电子书 > 经管其他电子书 > 网络营销知识仓库 >

第40部分

网络营销知识仓库-第40部分

小说: 网络营销知识仓库 字数: 每页4000字

按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!



杂谒阉饕嬗押玫闹匾裕庑┫低成傻囊趁鎁RL 都是带有参数变量的动态形式。 1、动态URL 的伪静态化处理 已经是动态URL 的站点如何实现URL 静态化呢? 实现方式主要有2 种:基于url rewrite 和基于path_info。REWRITE。 当需要将news。asp?id=234 的映射成news/234。html 时,只需设置:  RewriteRule /news/ (d+ )。html /news。asp?id=1 'N,I'  这样就把/news/234。html这样的请求映射成了/news。asp?id=234  当有对/news/234。html 的请求时:web 服务器会把实际请求转发给/news。asp?id=234  而在IIS 也有相应的REWRITE 模块:比如ISAPI REWRITE 和IIS REWRITE,语法都是基于正则表达式,因此配置几乎和apache 的mod_rewrite 是相同的。 比对于某一个简单应用可以是: RewriteRule /news/ (d+ )。html /news/news。php?id=1 'N,I'  这样就把chedong/news/234。html 映射到了:chedong/news/news。php?id=234  一个更通用的能够将所有的动态页面进行参数映射的表达式是: 把myhost/foo。php?a=A&b=B&c=C  表现成myhost/foo。php/a/A/b/B/c/C。  RewriteRule (。*?。php)(?'^/'* )?/('^/'*)/ ('^/'*)(。+?)?1(?22&:?)3=4?55: 'N,I'  以下是针对phpBB的一个Apache mod_rewrite 配置样例:RewriteEngine On RewriteRule /forum/topic_ (。+)。html /forum/viewtopic。php?t=1 'L' RewriteRule /forum/forum_(。+)。html /forum/viewforum。php?f=1 'L' RewriteRule/forum/user_(。+)。html /forum/profile。php?mode=viewprofile&u=1 'L'  这样设置后就可以通过topic_1234。html forum_2。html user_34。html 这样的链接访问原来的动态页面了。 通过URL REWRITE 还有一些好处: 注意:/myapp/servlet/Hello/foo的getPathInfo ()返回的是/foo,而/myapp/dir/hello。jsp/foo的 getPathInfo()将返回的 /hello。jsp,从这里你也可以知道 jsp其实就是一个 Servlet的PATH_INFO 参数。ASP 不支持PATH_INFO。  PHP 中基于PATH_INFO 的参数解析的例子如下:  注意:参数按 / 分割,第一个参数是空的:从/param1/param2中解析出param1 param2 这2 个参数。if( isset (_SERVER' PATH_INFO ') ){  list (nothing; param1; param2)= explode (';/';; _SERVER' PATH_INFO '); }  如何隐蔽应用:例如。php的扩展名:  在APACHE 中这样配置:  FilesMatch  ^app_name   ForceType application/x…httpd…php  /FilesMatch  如何更像静态页面:app_name/my/app。html?  解析的PATH_INFO 参数的时候,把最后一个参数的最后 5 个字符“。html”截断即可。 注意:APACHE2 中缺省是不允许PATH_INFO 的,需要设置 AcceptPathInfo on 特别是针对使用虚拟主机用户,无权安装和配置 mod_rewrite的时候,PATH_INFO往往就成了唯一的选择。 OK,这样以后看见类似于example/article/234 这样的网页你就知道可能是article/show。php?id=234 这个php 程序生成的动态网页,很多站点表面看上去可能有很多静态目录,其实很有可能都是使用 1,2 个程序实现的内容发布。比如很多WIKIWIKI 系统都使用了这个机制:整个系统就一个简单的 wiki程序,而看上去的目录其实都是这个应用拿后面的地址作为参数的查询结果。 利用基于MOD_REWRITE/PATH_INFO+CACHE 服务器的解决方案对原有的动态发 布系统进行改造,也可以大大降低旧有系统升级到新的内容管理系统的成本。并且方便了搜 索引擎收录入索引。附:如何在IIS 上利用PHP 支持PATH_INFOPHP 的ISAPI 模式安装备忘:只试成php…4。2。3…Win32解包目录php…4。2。3…Win32。zip c:php PHP。INI 初始化文件 复制:c:phpphp。ini…dist到c:winntphp。ini 配置文件关联按照install。txt 中的说明配置文件关联 运行库文件复制c:phpphp4ts。dll 到c:winntsystem32php4ts。dll 这样运行后:会发现php 把PATH_INFO 映射到了物理路径上Warning: Unknown(C:CheDongDownloadsariadnewwwtest。phppath): failed to create stream: No such file or directory in Unknown on line 0 Warning: Unknown (): Failed opening ';C:CheDongDownloadsariadnewwwtest。phppath'; for inclusion (include_path=';。;c:php4pear';)in Unknown on line 0安装ariadne 的PATCH停止IIS 服务net stop iisadmin ftp://ftp。muze。nl/pub/ariadne/win/iis/php…4。2。3/php4isapi。dll 覆盖原有的c:phpsapiphp4isapi。dll注:ariadne 是一个基于PATH_INFO 的内容发布系统,PHP 4。3。2 RC2 中CGI 模式的PATH_INFO已经修正,照常安装即可。2、不同具体情况下的URL 静态化抉择建议 并不是所有的动态URL 站点都需要进行URL 静态化处理,如果决策不当,会对站点某一个阶段带来流量的重创。一般来说,如果站点信息规模已经很庞大,并且搜索引擎对其收录效果也不是很差的情况下,就不需要 URL 伪静态化处理了。而那些站点信息量原本就少,搜索引擎收录效果也很差的站点,就必须要对其动态 URL 进行伪静态化处理。诸如国内的动网论坛,虽然没有做URL 的静态化处理,但是搜索引擎对其索引效率十分好。 三、URL 的关键词部署在URL 里部署关键词的做法在英文语种的 SEO 工作中比较重视,这里简单谈一下如何来操作。 比如在timev 网站的SEO 专栏下有一个网页,这一网页主要是介绍 SEO书籍的,很多人可能会给它设定这么一个 URL:timev/01/1。html,或许也可能是这么一个URL:timev/a/a。html 。  如果这个URL 被 SEO 部署了关键词后,会是什么样的呢?下面就是你想要的答案: timev/SEO/SEO…books。html 。  如果有人在搜索引擎中搜索“SEO book ”的时候,以上网站地址中的关键词“SEO” 和“SEO books ”也被作为文本纳入了搜索引擎的文本分析中,增加了用户搜索的“SEO book ”的关键词密度,这种做法有助增强关键词的搜索引擎排名竞争优势。  Google 能识别URL中的汉字UTF…8 编码。而百度 则不会识别,其显示出了乱码。 在前些年,这种做法确实能对网页的搜索引擎排名起到作用,像阿里巴巴的某些专题站点就这样操作过。如今这样的方式似乎并不奏效,因为我们再也看不到那种带有汉字关键词的URL 高居搜索结果榜首的局面了。  第七节 网页代码的编写 网页代码的编写是否简洁和具有逻辑性也是评估搜索引擎优化工作的一个重要指标。一、遵循WEB 标准 建议广大网页设计师遵循国际互联网标准组织(W3C )所推荐的WEB 标准来编写网页源码,而不是继续沿用传统的TABLE 表格布局方式来制作网页。 Web 标准是一些规范的集合,是由W3C 和其他的标准化组织共同制定的,用它来创建和解释网页的基本内容。这些规范是专门为了那些在网上发布的可向后兼容的文档所设计 的,使其能够被大多数人所访问。 遵循WEB 标准来编写网页,可以从以下方面获益: 更简易的开发与维护使用更具有语义和结构化的 HTML,将使得理解他人编写的代 码更为容易和快速。与未来浏览器的兼容使用已定义的标准和规范的代码,向后兼容的文本就消除了不能 被未来的浏览器识别的后患。更快的网页下载、读取速度更少的 HTML 代码带来的将是更小的文件和更快的下载 速度。如今的浏览器处于标准模式下比它在以前的兼容模式下拥有更快的网页读取速度。更好的可访问性语义化的 HTML(结构和表现相分离)让使用浏览器以及不同浏览 设备的读者都能很容易地看到内容。  更高的搜索引擎排名内容和表现的分离使内容成为一个文本的主体。与语义化的标记结合会提高你在搜索引擎中的排名。更好的适应性一个用语义化标记的文档可以很好地适应于打印和其他的显示设备(像 掌上电脑和智能电话),这一切仅仅是通过链接不同的CSS 文件就可以完成。同样也可以仅 仅通过编辑单独的一个文件就完成跨站点般的表现上的转换。 Web 标准可以为网站的创建者节省时间与金钱,还可以为网站的浏览者提供一个更好的经历。如果想了解更多关于WEB 标准的知识,推荐访问站点:w3cn 。二、代码的逻辑性 搜索引擎是通过分析网页源代码来分析页面文本信息的逻辑性,所以在编写网页代码的时候一定要尽可能使用合适的标签来体现文本表达的层次感,也即是让搜索引擎“看懂”哪些文本信息要重于其他部分。 1、标题标签 在 Html代码中,标题的标签一共 6个,它们的具体代码表现形式分别是:“ h1 标题1 /h1 ”、“ h2 标题2 /h2 ”、“ h3 标题3 /h3 ”、“ h4 标题4 /h4 ”、“ h5 标题5 /h5 ”和“ h6 标题6 /h6 ”,其中标题 1 的逻辑权重最大,其他的标题重要性随着h 后的数字增大而减小。在搜索引擎的文本分析中,标题的信息权重要比文章正文的大,所以我们尤其要注意内容标题的规划和书写。 一篇文章中可能会出现很多标题,诸如正文大标题、副标题、段落标题等。我们应该根据标题的逻辑重要性分配合适的标题标签,正文大标题应该是 h1 ,副标题可是是 h2 ,而段落标题则可分配 h3 ,其他的就可以以此类推了。我们不建议所有的标题都采用 h1 标签,这样不能向搜索引擎阐述哪些标题应该比其他的标题更加重要,因而显得标题没有层次逻辑性。 2、强调标签 为了说明文章正文部分的某些字词或者句子的重要性,我们应该要通过 html强调代码来标识它们,从而使其与其他部分的字词或者句子区分开来。 一般强调标签: em ,Html 代码表现形式:“ em 强调的字词或句子 /em ”,被 em  标签包括了的字词或句子在网页中表现为斜体。 重点强调标签: b 和 strong ,具体Html 代码表现形式:“ b 强调的字词或句子 /b ” 和“ strong 强调的字词或句子 /strong ”,被重点强调标签包括了字词或句子在网页中表现 为粗体。 b 主要侧重于表现视觉上的强调,而 strong 则是指语意上的强调。 以上所谈的两类标签表达的文本逻辑性权重很大,所以其配合表现的字词句段在搜索引擎的文本分析中占有极大的评估优势,这也就不难理解为什么很多的 SEO 对它们十分重视了。网页设计师在编写代码的时候应当尽量使用丰富多样的标签,让网页的文本信息具有逻辑性,从而让搜索引擎能更好的读“懂”网页中的信息。对于搜索引擎优化人员来说,在这些标签中部署关键词是一个不错的选择。  第八节 面向搜索引擎的文案写作指导  文案写作在搜索引擎优化技能中占有很大的份量,专业的搜索引擎优化人员必须具有很娴熟的文字写作能力。在本节,我们将会向你介绍如何来撰写针对搜索引擎的的文案。 一、网页标题 Title 通过下面的这张图片,可以看出Title 在网页浏览器和Html 源代码中的显示位置。 由于网页的Title 部分内容在搜索引擎的文本分析中占有很高的权重,所以网页Title 写作质量的好坏对页面的优化效果有很大的影响。1、Title 的写作原则 描述要简练有力,总字符数建议不要超过 60,而且要有核心关键词出现。切记勿出现 堆积关键词的现象,Title 部分的行文描述一定要流畅。的位置可以随意调换;如果两个部分的总字数超过30 的话,可以把网站简要描述部分的内 容放置于网站名称的前面。首页的Title 部分要部署核心关键词,但不可泛滥堆积关键词。 2、Description Description 具体网页源码表现形式为: meta name= description  content=    。  Description 告诉搜索引擎你的站点上的页面的主要内容。Description的content 部分文字内容最好控制在 100 个字符左右,行文流畅。Description 部分的内容应该是具体页面主要展示信息的简洁而强有力的概述。 3、Robots  Robots 的具体网页源码表现形式为: meta name= robots  content=    。  Robots的 content部分文字可以填写的内容为:all、none、index、noindex、follow和nofollow 。对于Robots 的content 部分填充内容有如下说明解释:分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录 指定的内容。 当一个搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots。txt, 如果找到,搜索机器人就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那 么搜索机器人就沿着链接抓取。 robots。txt 必须放置在一个站点的根目录下,而且文件名必须全部小写。  一般来说相应的网站就会拥有一个对应的robots。txt 文件,如: w3/  w3/robots。txt2、robots。txt 的语法“robots。txt ”文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL 作为结束符),每一条记录的格式如下所示:“ field : optionalspace  value  optionalspace ”。  在该文件中可以使用#进行注解,具体使用方法和 UNIX中的惯例一样。该文件中的记录通常以一行或多行User…agent 开始,后面加上若干Disallow 行,详细情况如下: Disallow: /cgi…bin/  Disallow: /tmp/  Disallow: /private/  D。禁止某个搜索引擎的访问(下例中的BadBot )  User…agent: BadBot  Disallow: /  E。只允许某个搜索引擎的访问(下例中的WebCrawler )  User…agent: WebCrawler  Disallow:  User…agent: *  Disallow: /  F。常见搜索引擎机

返回目录 上一页 下一页 回到顶部 0 0

你可能喜欢的