English Sentence Loading...
英語句子加載中...
Google查詢網站的PR值
網址:

說明:1、請在網址前加http://
2、請把網址寫全,如:http://www.cnkuai.tw與http://cnkuai.tw的PR值不一樣

你如何控制網站哪些網頁被列入MSN搜尋引擎的(索引)中?

想要搜尋引擎排名優化網站,如何控制網站哪些網頁被列入MSN搜尋引擎的(索引)中?

控制網站中列入索引的網頁
使用 robots.txt 檔案可防止 MSNBot 和其他標準相容的網頁尋檢程式,尋檢伺服器或收集網站特定網頁上的資訊和連結。您也可以使用中繼標記控制列入索引的網頁。

 建立 robots.txt 檔案,控制對網站或部份伺服器的存取
若要控制您的網站何時及如何被尋檢,可在網站的最上層目錄 (根目錄) 建立一個名為 robots.txt 的文字檔案。在 robots.txt 檔案中,您可以指定允許或封鎖哪些網頁尋檢程式。雖然MSN搜尋引擎的網頁尋檢程式會遵循 robots.txt 中的標準,但並非所有網頁尋檢程式均會遵守。為遵守 Robots Exclusion 標準,MSN搜尋引擎的網頁尋檢程式會搜尋 robots.txt 檔案。


建立檔案時,請確認檔案名稱為 robots.txt。若檔案名稱未正確拼寫,尋檢和索引限制可能無法運作。舉例來說,請確認您正確將檔案命名為 robots.txt,而非 robot.txt。


每當MSN搜尋引擎的網頁尋檢程式尋檢您的網站時,會在網頁伺服器的根目錄尋找 robots.txt 檔案。若檔案存在,網頁尋檢程式會檢查檔案本身是否為允許使用者代理程式 (User-Agent),以及是否有設定任何尋檢或索引限制。
 
 控制網頁尋檢程式可存取的網站
若要指定哪些網頁尋檢程式可以存取您的網站,請在您的 robots.txt 檔案中使用下方表格所列的語法。Live Search 同時包含影像搜尋功能。如果您不希望影像被列入索引,可以使用表格底部所述的語法,封鎖 MSNBot-Media 尋檢程式。

robots.txt 檔案中的字串沒有大小寫的區分。

若要使用語法
允許所有尋檢程式完全存取並防止“找不到檔案: robots.txt”錯誤 建立一個空白的 robots.txt 檔案
允許所有尋檢程式完整存取 User-agent: *
Disallow:
只允許 MSNBot 存取 User-agent: msnbotDisallow:User-agent: *Disallow: / 
排除整個伺服器上的所有尋檢程式 User-agent: *Disallow: / 
只排除 MSNBot User-agent: msnbotDisallow: /
只排除 MSNBot-Media User-agent: msnbot-mediaDisallow: / 

您可以為特定尋檢程式新增規則,方法是在 robots.txt 檔案中增加新的尋檢程式部分。請參閱本主題結尾的「注意」章節,取得我們其他尋檢程式的清單。如果 robots.txt 檔案中含有特定尋檢程式區段,尋檢程式會依照特定規則,而不使用一般 MSNBot 區段下的規則。如果您的 robots.txt 檔案沒有特定尋檢程式的區段,MSN搜尋引擎的尋檢程式會使用 MSNBot 區段中的規則。

當您建立新的尋檢程式區段時,請確定內含所有適用的 Disallow 設定。特定尋檢程式區段的規則會覆蓋一般尋檢程式區段中的規則。

下列範例明確封鎖了我們的媒體搜尋尋檢程式,使其無法尋檢部落格文章,但仍允許其他尋檢程式的存取權。


User-agent: msnbotDisallow: /private/ User-agent: msnbot-mediaDisallow: /private/Disallow: /blog/
 
 限制網站內的連結尋檢和列入索引
若要封鎖 MSNBot 尋檢特定連結至網站的檔案類型,請在 Disallow 標記 (此標記也會指定要排除的檔案類型) 中指定 MSNBot 為使用者代理程式 (User-Agent)。

若要 使用語法 範例
限制 MSNBot 將特定檔案類型列入索引 User-agent: msnbotDisallow: /*.[副檔名]$(必須有 "$" 符號)
 User-agent: msnbotDisallow: /*.PDF$Disallow: /*.jpeg$
Disallow: /*.exe$
 
 使用中繼標記控制網頁索引和連結尋檢
您可讓 MSNBot 尋檢您的網站,同時限制存取特定網頁和文件,方法是在 HTML 網頁程式碼中使用 noindex 和 nofollow 中繼標記。noindex 標記可讓 MSNBot 擷取網頁,但是封鎖網頁的內容索引。nofollow 標記可封鎖網頁尋檢程式按照網頁中的連結移至其他網頁或文件。

注意
並非所有的網頁尋檢程式都會遵照這些中繼標記。


若要設定網站存取和索引限制,請在以下標記語法範例中將使用者代理程式名稱從 robots 改為 msnbot 或 "*"。您可以單獨使用每個標記或結合兩種標記成為單一的中繼標記。

若要 在頁首新增
限制 MSNBot 將網頁列入索引 <META NAME="msnbot" CONTENT="noindex" />
限制所有尋檢程式將網頁列入索引 <META NAME="*" CONTENT="noindex" />
限制 MSNBot 追蹤網頁上的連結 <META NAME="msnbot" CONTENT="nofollow" /> 
限制所有尋檢程式追蹤網頁上的連結 <META NAME="robots" CONTENT="nofollow" />
封鎖 MSNBot 將網頁列入索引和追蹤連結 <META NAME="msnbot" CONTENT="noindex,nofollow" />
防止 MSNBot 快取某個網頁 <META NAME="msnbot" CONTENT="nocache" />
 
 限制尋檢頻率
若您覺得 MSNBot 尋檢的頻率過高,可在 robots.txt 檔案中指定尋檢延遲參數,指定 MSNBot 多久 (以秒計) 存取您的網站一次。請將此語法新增至您的 robots.txt 檔案中:

User-agent: msnbotCrawl-delay: 120
個別尋檢程式區段會覆寫 * 區段中指定的設定。若您已為所有尋檢程式指定 Disallow,則必須在 robots.txt 檔案的 MSNBot 區段新增 Disallow 設定。例如:您的 robots.txt 檔案必須含有下列內容:

User-agent: * Disallow: /private/若您有新增 MSNBot 區段,則必須在 MSNBot 區段新增 Disallow 設定。例如:


User-agent: msnbot
Crawl-delay: 120
Disallow: /private/
注意
Live Search 還使用專屬的尋檢程式以密集頻率尋檢特定類型的網站。msnbot-NewsBlogs/1.0 新聞尋檢程式有助於提供新聞網站最新的搜尋結果。msnbot-NewsBlogs/1.0 不會遵守尋檢延遲設定。

若 MSNBot 仍然對您的網頁伺服器造成過高負載,請連絡網站管理員支援部門。

如果您有問題要與MSN官方網站連絡,請包含下列資訊以幫助MSN官方網站盡快解決您的問題:

放置在 robots.txt 檔案中的 MSNBot 目標網站位址
發生問題的日期範圍
存取記錄檔


如果有其他網站連結至您的網站,您網站的 URL 和加入 HTML 錨點標記的任何內文可能仍會新增至MSN搜尋引擎的索引中。但是,您的網站內容不會新增至索引中。
若要針對MSN搜尋引擎其他的網頁尋檢程式指定設定,請使用下列尋檢程式取代 "msnbot":
MSNBot-NewsBlogs - 以新聞為目標尋檢網頁
MSNBot-Products - 以線上購買產品為目標尋檢網頁
MSNBot-Media - 以媒體檔案為目標尋檢網頁

評論: 0 | 引用: 0 | 閱讀: 2044
 加入網摘


620X188