久久精品人人爽,华人av在线,亚洲性视频网站,欧美专区一二三

Robots基礎知識:網站創建robots.txt注意事項

331次閱讀
沒有評論

共計 955 個字符,預計需要花費 3 分鐘才能閱讀完成。

一:robots 基礎知識

robots 協議(也稱爬蟲協議、機器人協議等),“全稱是網絡爬蟲掃除規范“(Robots Exclusion Protocol),網站經過 robots 協議告訴搜索引擎哪些頁面能夠抓取,哪些頁面不能夠抓取。

Robot.txt 的效果?

能夠讓蜘蛛更高效的匍匐網站

能夠阻撓蜘蛛匍匐動態頁面,從而處理重復錄入的問題

能夠削減蜘蛛匍匐無效頁面,節約服務器帶寬

能夠屏蔽搜索引擎屏蔽一些隱私頁面或許臨時頁面

怎么創立 robots.txt 文件呢?

右擊桌面——新建文本文檔——重命名為 robots.txt(一切文件有必要小寫)——編寫規矩——用 FTP 把文件上 (放到根目錄下) 傳到空間

創立 robots.txt 需求留意的知識點:

1、有必要是 txt 結束的純文本文件

2、文件名一切字母有必要是小寫

3、文件有必要要放在根目錄下

4、文件內的冒號有必要是英文半角狀態下

Robots 基礎知識_創建 robots.txt 注意事項!

二:robots 參數解說

User-agent

首要效果:用于描繪搜索引擎蜘蛛的姓名

舉列:

1、描繪一切蜘蛛

User-agent:*

2、描繪百度蜘蛛

User-agent:BaiduSpider

百度:BaiduSpider

谷歌:Googlebot

搜狗:Sogou web spider

好搜:360Spider

MSN:MSNBot

有道:YoudaoBot

宜搜:EasouSpider

User-agent 技巧:

1、當 robots.txt 不為空的時分,有必要至少有一條 User-adent 記載

2、相同的姓名,只能有一條(例如 User-agent:*),可是不同蜘蛛,能夠有多條記載(例如:User-agent:Baiduspider 和 User-agent:Googlebot)。

Disallow

首要效果:用于描繪不答應搜索引擎匍匐和抓取的 URL。

Robots 運用技巧:

1、在 robots.txt 中至少要有一條 Disallow

2、Disallow 記載為空,則表明網站一切頁面都答應被抓取。

3、運用 Disallow,每個目錄有必要獨自分隔聲明

4、留意 Disallow:/abc/(abc 目錄底下的目錄不答應抓取,可是目錄底下的 html 答應抓取)和 Disallow:/abc(abc 目錄底下的目錄跟 html 都不答應被抓取)的差異

正文完
 
丸趣
版權聲明:本站原創文章,由 丸趣 2023-06-05發表,共計955字。
轉載說明:除特殊說明外本站除技術相關以外文章皆由網絡搜集發布,轉載請注明出處。
評論(沒有評論)
主站蜘蛛池模板: 汾西县| 临邑县| 防城港市| 新安县| 福鼎市| 阿拉善左旗| 邵武市| 河南省| 文水县| 游戏| 治县。| 江西省| 武宣县| 上饶市| 德令哈市| 孝义市| 嘉禾县| 湟中县| 前郭尔| 胶州市| 丹棱县| 靖安县| 水富县| 成安县| 浦江县| 常德市| 色达县| 永昌县| 洪洞县| 巴林左旗| 阳高县| 托克托县| 通河县| 额尔古纳市| 昌黎县| 聂拉木县| 会理县| 蚌埠市| 梁平县| 枣庄市| 修文县|