乱码乱a∨中文字幕,在线免费激情视频,亚洲欧美久久夜夜潮,国产在线网址

  1. <sub id="hjl7n"></sub>

    1. <sub id="hjl7n"></sub>

      <legend id="hjl7n"></legend>

      當(dāng)前位置:首頁 >  站長 >  建站經(jīng)驗(yàn) >  正文

      利用robots文件做seo優(yōu)化,讓蜘蛛更好的抓取網(wǎng)站

       2015-08-13 09:06  來源: 用戶投稿   我來投稿 撤稿糾錯(cuò)

        阿里云優(yōu)惠券 先領(lǐng)券再下單

      robots文件存在于網(wǎng)站根目錄,是用來告訴百度蜘蛛那些應(yīng)該抓取,那些不應(yīng)該抓取。正確使用robots文件有助于做好seo優(yōu)化,robots文件的核心詞匯就是allow和disallow用法。百度官網(wǎng)是認(rèn)可這個(gè)文件的,在百度站長平臺上也有robots這個(gè)欄目,點(diǎn)擊進(jìn)入,就可以看到你網(wǎng)站robots文件是否編寫正確了。

      百度robots文件使用說明

      1、robots.txt可以告訴百度您網(wǎng)站的哪些頁面可以被抓取,哪些頁面不可以被抓取。

      2、您可以通過Robots工具來創(chuàng)建、校驗(yàn)、更新您的robots.txt文件,或查看您網(wǎng)站robots.txt文件在百度生效的情況。

      3、Robots工具暫不支持https站點(diǎn)。

      4、Robots工具目前支持48k的文件內(nèi)容檢測,請保證您的robots.txt文件不要過大,目錄最長不超過250個(gè)字符。

      上圖我給的一個(gè)例子中,disallow語句有問題,原因是把英文的冒號寫成了中文的冒號。

      當(dāng)然直接輸入網(wǎng)站根目錄加上robtots.txt文件也可以

      User-agent:* 是用來置頂那些搜索引擎蜘蛛可以抓取的,一般默認(rèn)設(shè)置

      Disallow:/category/*/page/ 分類目錄下面翻頁后的鏈接,比如,進(jìn)入校賺網(wǎng)分類目錄 "推廣運(yùn)營經(jīng)驗(yàn)"目錄后,在翻頁一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

      Disallow:/?s=*Disallow:/*/?s=*搜索結(jié)果頁面和分類目錄搜索結(jié)果頁面,這里沒必要再次抓取。

      Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/ 這三個(gè)目錄是系統(tǒng)目錄,一般都是屏蔽蜘蛛抓取

      Disallow:/*/trackback trackback的鏈接

      Disallow:/feed Disallow:/*/feed Disallow:/comments/feed訂閱鏈接

      Disallow:/?p=* 文章短鏈接,會自動301跳轉(zhuǎn)到長連接

      例如,朱海濤博客之前就被收錄過短連接

      Disallow:/*/comment-page-* Disallow:/*?replytocom* 這兩個(gè)我在之前文章有過說明,來自于評論鏈接,很容易造成重復(fù)收錄。

      在robots.txt文件的最后還可以制定sitemap文件Sitemap:http://***.com/sitemap.txt

      sitemap地址指令,主流是txt和xml格式。在這里分享一段張戈所寫txt格式的simemap文件。

      將上述代碼保存到txt文件,上傳到根目錄,并且在robots.txt文件中指定即可

      這里給大家共享下我的robots.txt文件

      User-agent: *

      Disallow:/wp-admin/

      Disallow: /*/comment-page-*

      Disallow: /*?replytocom*

      Disallow: /wp-content/

      Disallow: /wp-includes/

      Disallow: /category/*/page/

      Disallow: /*/trackback

      Disallow: /feed

      Disallow: /*/feed

      Disallow: /comments/feed

      Disallow: /?s=*

      Disallow: /*/?s=*\

      Disallow: /attachment/

      Disallow: /tag/*/page/

      Sitemap:

      來源:校賺網(wǎng)朱海濤(微信:81433982),原創(chuàng)文章如轉(zhuǎn)載,請注明本文鏈接:

      申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

      相關(guān)標(biāo)簽
      robots標(biāo)簽
      搜索引擎蜘蛛

      相關(guān)文章

      • 什么是搜索引擎蜘蛛?SEO搜索引擎蜘蛛工作原理

        作為一名編輯乃至站長,在關(guān)注網(wǎng)站在搜索引擎排名的時(shí)候,最重要的就是蜘蛛(spider)。搜索引擎蜘蛛是一個(gè)自動抓取互聯(lián)網(wǎng)上網(wǎng)頁內(nèi)容的程序,每個(gè)搜索引擎都有自己的蜘蛛,那么,蜘蛛是怎樣在網(wǎng)站上抓取內(nèi)容的呢?一起來看看它的工作原理吧

        標(biāo)簽:
        搜索引擎蜘蛛
      • 什么是搜索引擎蜘蛛?SEO搜索引擎蜘蛛工作原理

        作為一名編輯乃至站長,在關(guān)注網(wǎng)站在搜索引擎排名的時(shí)候,最重要的就是蜘蛛(spider)。搜索引擎蜘蛛是一個(gè)自動抓取互聯(lián)網(wǎng)上網(wǎng)頁內(nèi)容的程序,每個(gè)搜索引擎都有自己的蜘蛛,那么,蜘蛛是怎樣在網(wǎng)站上抓取內(nèi)容的呢?一起來看看它的工作原理吧

        標(biāo)簽:
        搜索引擎蜘蛛
      • 七類蜘蛛陷坑 網(wǎng)站優(yōu)化中必須要躲避

        不少的網(wǎng)站就是沒有優(yōu)化好這一方面造成了站內(nèi)存在很多蛛蛛陷坑,到最終壓根兒一個(gè)好好的網(wǎng)站被搜索引擎網(wǎng)站屢屢錯(cuò)判,要不是不給名次,甚至于是造成了數(shù)量多頁面都搜索引擎網(wǎng)站拋棄。下面小編就為大家介紹網(wǎng)站優(yōu)化中必須要躲避的七類蛛蛛陷坑

        標(biāo)簽:
        搜索引擎
        搜索引擎蜘蛛
      • 網(wǎng)站怎么做seo才能吸引蜘蛛收錄更多的頁面?

        網(wǎng)站怎么做seo才能吸引蜘蛛收錄更多的頁面?蜘蛛爬行的次數(shù)越多,網(wǎng)頁收錄的名次越高,該怎么做才能吸引蜘蛛收錄更多的頁面呢?下面我們就來看看詳細(xì)的教程,需要的朋友可以參考下

        標(biāo)簽:
        搜索引擎蜘蛛
      • SEO優(yōu)化:淺談如何避免蜘蛛陷阱

        在SEO優(yōu)化的過程中如何避免蜘蛛陷阱是非常重要的一件事情,本文主要為大家淺談幾招可以避免蜘蛛陷阱的方法,有興趣的朋友們就來了解下吧

      熱門排行

      信息推薦