| 主題: | 設定 robots.txt | |
| 工具: | Notepad | |
| 實例: | 本站的 robots.txt | |
|
內容:
|
robots.txt 是用來告訴搜尋引擎哪些地方不可以拿去做全文檢索資料庫。 資源自動收集 (Robot) 是搜尋引擎中負責資料收集的軟體,又稱為 Spider、或Crawler。他可以自動在設定的期限內定時自各網站收集網頁資料,而且通常是由一些預定的起始網站開始遊歷其所連結的網站,如此反覆不斷 (recursive) 的串連收集。 |
|
步驟:
|
|
|
編碼:
|
robots.txt 樣本:
例:設定所有 robot 不能夠收集 /tmp/ 和 /download/ 目錄中的資料。
例:設定所有 robot 不能夠收集 etc.htm 和 /index/work.html 中的資料。
例:設定所有 robot 不能夠收集所有網頁資料。
例:設定 Google 不能夠收集 /tmp/ 目錄中的資料。
例:設定 Google 和 Excite 不能夠收集 /tmp/ 和 /index/work.html 目錄中的資料。
對應表:
|
博客提及Google、Yahoo等网络搜索工具,这些工具在信息技术领域的网络搜索方面发挥着重要作用,能帮助用户快速获取网络信息。
1万+

被折叠的 条评论
为什么被折叠?



