乱码乱a∨中文字幕,在线免费激情视频,亚洲欧美久久夜夜潮,国产在线网址

  1. <sub id="hjl7n"></sub>

    1. <sub id="hjl7n"></sub>

      <legend id="hjl7n"></legend>

      當(dāng)前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

      robots.txt寫法大全和robots.txt語法的作用

       2015-03-16 16:11  來源: 百度文庫   我來投稿 撤稿糾錯

        阿里云優(yōu)惠券 先領(lǐng)券再下單

      1如果允許所有搜索引擎訪問網(wǎng)站的所有部分的話 我們可以建立一個空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。

      robots.txt寫法如下:

      User-agent: *

      Disallow:

      或者

      User-agent: *

      Allow: /

      2如果我們禁止所有搜索引擎訪問網(wǎng)站的所有部分的話

      robots.txt寫法如下:

      User-agent: *

      Disallow: /

      3如果我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網(wǎng)站的話

      robots.txt寫法如下:

      User-agent: Baiduspider

      Disallow: /

      4如果我們禁止Google索引我們的網(wǎng)站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

      即可

      robots.txt寫法如下:

      User-agent: Googlebot

      Disallow: /

      5如果我們禁止除Google外的一切搜索引擎索引我們的網(wǎng)站話

      robots.txt寫法如下:

      User-agent: Googlebot

      Disallow:

      User-agent: *

      Disallow: /

      6如果我們禁止除百度外的一切搜索引擎索引我們的網(wǎng)站的話

      robots.txt寫法如下:

      User-agent: Baiduspider

      Disallow:

      User-agent: *

      Disallow: /

      7如果我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

      robots.txt寫法如下:

      User-agent: *

      Disallow: /css/

      Disallow: /admin/

      Disallow: /images/

      8如果我們允許蜘蛛訪問我們網(wǎng)站的某個目錄中的某些特定網(wǎng)址的話

      robots.txt寫法如下:

      User-agent: *

      Allow: /css/my

      Allow: /admin/html

      Allow: /images/index

      Disallow: /css/

      Disallow: /admin/

      Disallow: /images/

      9我們看某些網(wǎng)站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,如果使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

      robots.txt寫法如下:

      User-agent: *

      Disallow: /html/*.htm

      10如果我們使用“$”的話是僅允許訪問某目錄下某個后綴的文件

      robots.txt寫法如下:

      User-agent: *

      Allow: .asp$

      Disallow: /

      11如果我們禁止索引網(wǎng)站中所有的動態(tài)頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

      robots.txt寫法如下:

      User-agent: *

      Disallow: /*?*

      有些時候,我們?yōu)榱斯?jié)省服務(wù)器資源,需要禁止各類搜索引擎來索引我們網(wǎng)站上的圖片,這里的辦法除了使用“Disallow: /images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

      示例12

      如果我們禁止Google搜索引擎抓取我們網(wǎng)站上的所有圖片(如果你的網(wǎng)站使用其他后綴的圖片名稱,在這里也可以直接添加)

      robots.txt寫法如下:

      User-agent: Googlebot

      Disallow: .jpg$

      Disallow: .jpeg$

      Disallow: .gif$

      Disallow: .png$

      Disallow: .bmp$

      13如果我們禁止百度搜索引擎抓取我們網(wǎng)站上的所有圖片的話

      robots.txt寫法如下:

      User-agent: Baiduspider

      Disallow: .jpg$

      Disallow: .jpeg$

      Disallow: .gif$

      Disallow: .png$

      Disallow: .bmp$

      14除了百度之外和Google之外,禁止其他搜索引擎抓取你網(wǎng)站的圖片

      (注意,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨定義。)

      robots.txt寫法如下:

      User-agent: Baiduspider

      Allow: .jpeg$

      Allow: .gif$

      Allow: .png$

      Allow: .bmp$

      User-agent: Googlebot

      Allow: .jpeg$

      Allow: .gif$

      Allow: .png$

      Allow: .bmp$

      User-agent: *

      Disallow: .jpg$

      Disallow: .jpeg$

      Disallow: .gif$

      Disallow: .png$

      Disallow: .bmp$

      15僅僅允許百度抓取網(wǎng)站上的“JPG”格式文件

      (其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

      robots.txt寫法如下:

      User-agent: Baiduspider

      Allow: .jpg$

      Disallow: .jpeg$

      Disallow: .gif$

      Disallow: .png$

      Disallow: .bmp$

      16僅僅禁止百度抓取網(wǎng)站上的“JPG”格式文件

      robots.txt寫法如下:

      User-agent: Baiduspider

      Disallow: .jpg$

      17如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會抓取重復(fù)的網(wǎng)頁。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,沃恩可將與 Allow 指令配合使用。

      robots.txt寫法如下:

      User-agent:*

      Allow:/*?$

      Disallow:/*?

      Disallow:/ *?

      一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網(wǎng)址)。Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網(wǎng)址)。

      18如果我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

      robots.txt寫法如下:

      User-agent:*

      Disallow: /plus/feedback.php?

      以上內(nèi)容供大家參考下即可。

      申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

      相關(guān)標(biāo)簽
      robots.txt標(biāo)簽

      相關(guān)文章

      • 看完秒懂robots.txt寫法和注意事項

        robots.txt直接放在網(wǎng)站根目錄下,是蜘蛛訪問網(wǎng)站時,第一個抓取的文件。robots.txt是告訴蜘蛛網(wǎng)站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒有抓取就沒有收錄,沒有收錄就沒有排名。所以作為第一蜘蛛訪問的文件,寫好robots.txt是很重要的。

      • 了解robots文件,主動告訴搜索引擎該抓取什么內(nèi)容

        導(dǎo)讀:首先我們要了解什么是robots文件,比如,在安徽人才庫的首頁網(wǎng)址后面加入“/robots.txt”,即可打開該網(wǎng)站的robots文件,如圖所示,文件里顯示的內(nèi)容是要告訴搜索引擎哪些網(wǎng)頁希望被抓取,哪些不希望被抓取。因為網(wǎng)站中有一些無關(guān)緊要的網(wǎng)頁,如“給我留言”或“聯(lián)系方式”等網(wǎng)頁,他們并不參

      • robots.txt禁止搜索引擎收錄的方法

        什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個網(wǎng)站時,會首先會檢查該網(wǎng)站的根域下是否有一個叫做robots.txt的純文本文件,這個文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個robots.txt,

      • 如何利用robots.txt對wordpress博客進(jìn)行優(yōu)化

        筆者在百度站長平臺檢測自己的博客時,出于優(yōu)化的慣性,對博客的Rbots進(jìn)行了檢測,進(jìn)而在百度搜索了wordpress博客robots的寫法設(shè)置問題,看了很多wordpress高手對robots優(yōu)化設(shè)置后,終于有所領(lǐng)悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對word

        標(biāo)簽:
        robots.txt標(biāo)簽
      • 利用robots.txt找敏感文件教程

        robots.txt是一個協(xié)議,而不是一個命令。robots.txt是搜索引擎中訪問網(wǎng)站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。當(dāng)一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會按照該

        標(biāo)簽:
        robots.txt標(biāo)簽

      熱門排行

      信息推薦