精品人妻互换一区二区三区免费,午夜精品久久久久久久9,欧美巨鞭大战丰满少妇,97精品人妻一区二区三区蜜桃

岳陽seo使用robots

  搜索引擎機器人不斷抓取網(wǎng)站,以便將它們添加到搜索引擎索引中。但是,有時開發(fā)人員希望將自己的網(wǎng)站或特定頁面隱藏在搜索引擎結(jié)果中,在這種情況下,robots.txt可用于阻止搜索引擎蜘蛛訪問網(wǎng)站。在本教程中,您將學(xué)習(xí)如何創(chuàng)建robots.txt文件并阻止搜索引擎蜘蛛訪問或抓取網(wǎng)站。

  步驟1 – 訪問服務(wù)器并創(chuàng)建新文件

  首先,創(chuàng)建一個robots.txt文件,可以使用FTP客戶端或?qū)毸姘鍖⒃撐募蟼髦了鶎倬W(wǎng)站的根目錄下。

  第2步 – 編輯robots.txt

  每個搜索引擎都有自己的抓取工具(user-agen),在robots.txt中,您可以指定抓取工具User-agent?;ヂ?lián)網(wǎng)有數(shù)百個爬蟲,但最常見的是:

  Googlebot

  Yahoo! Slurp

  bingbot

  AhrefsBot

  Baiduspider

  Ezooms

  MJ12bot

  YandexBot

  例如,如果想阻止百度抓取工具訪問正規(guī)網(wǎng)站,則可以使用以下規(guī)則編輯robots.txt:

  User-agent: Baiduspider

  Disallow: /

  如果要阻止所有搜索引擎抓取工具,可以使用*作為通配符:

  User-agent: *

  Disallow: /

  如果要阻止搜索引擎爬網(wǎng)程序僅訪問特定文件或文件夾,則使用類似語法,但是,需要指定文件或文件夾的名稱。假設(shè)我們想阻止搜索引擎抓取工具僅訪問文章文件夾(articles)和private.php文件。在這種情況下,robots.txt文件的內(nèi)容應(yīng)如下所示:

  User-agent: *

  Disallow: /articles/

  Disallow: /private.php

  完成編輯robots.txt文件后,保存更改,并上傳至網(wǎng)站的根目錄下??梢栽跒g覽器搜索欄中輸入,域名/robots.txt 進(jìn)行查看。

久久久亚洲精| 久久久精品人妻一区二区三区四| 色老头国产av一区二区三区| YSL水蜜桃86满十八岁会黑吗| 97在线视频人妻无码| 久久久久久中文字幕| 亚洲国产成人精品无码区二本 | 人妻熟女一二三区夜夜爱av| 中文字幕不卡在线播放| 欧美性受xxxx白人性爽| 精品国产乱子伦| 国产欧美一区二区三区在线看蜜臂| 黄色片网站在线观看| xvideos亚洲| 色婷婷av一区二区三| 亚洲综合av在线在线播放| 亚洲另类小说网| 久久久成人精品视频| 亚洲精品乱码久久久久久| 欧美一性一交一免费看| 小箩莉末发育娇小性色ⅹxx| 最近中文字幕免费mv视频7| 国产一区二区在线精品| 国产精品人人人| 熟妇人妻系列AV无码一区二区| 欧洲精品乱码久久久久蜜桃| ADULT VIDEOS| 亚洲毛片亚洲毛片亚洲毛片| 国产乱老熟女| 又粗又大又硬爽死浪妇了| 蜜桃av二区三区四区| 久久中文字幕网| 精品久久久久久久久久五月天堂乱| 国产精品欧美久久久久一区二区| 大肉大捧一进一出免费观看| 1000部丰满熟妇| 欧美人妻精品一区二区免费看 | 亚洲精品18在线观看| aa成人免费视频| 极品粉嫩国产48尤物在线播放| 国产又粗又猛又爽又黄又|