精品人妻互换一区二区三区免费,午夜精品久久久久久久9,欧美巨鞭大战丰满少妇,97精品人妻一区二区三区蜜桃

meta robots 與Robots

  在網(wǎng)站排除檢索的部分,先前本站淺談過Robots.txt主要是應用在提交給搜尋引擎不需要檢索的頁面名單,也介紹過Robots.txt的實際應用與設定,因此了解排除”檢索”的部分后,我們將要更進階的介紹排除”索引”部分,反觀由開始淺談部分時,我們曾提到搜尋引擎其實是透過的”檢索”與”索引”兩種功能來將網(wǎng)站網(wǎng)頁資訊進行收錄并提供使用者查詢,所以淺談Robots.txt主要是針對檢索這項功能進行排除。

  ?而檢索與索引這兩項功能雖然有極大的關(guān)聯(lián)性,但實質(zhì)上在網(wǎng)頁上進行的動作并不相同,這邊我們用更白話的敘述就是

  檢索=檢查

  索引=收藏

  所以搜尋引擎在實際上的運作順序是先透過檢查頁面內(nèi)容與連結(jié)后,才決定是否要收藏,因此Robots.txt 的作用就是在搜尋引擎來訪時,藉由直接提出不需要檢查的資訊,想當然爾就更不可能會被收藏,達到不檢查、不收錄的效果。

  ?在更明確的知道搜尋引擎的收錄原理后,我們將要介紹的部分是透過meta robots 進行”索引”的排除,這時相信大家將會些疑惑,Robots.txt不就能達到不檢查、不收錄的效果了,為什么還需要meta robots 進行”索引”的排除呢?這部分主要原因就是Robots.txt 會使尋引擎直接在不檢查這個步驟中就會忽略相關(guān)的內(nèi)容,甚至不認為這是網(wǎng)站的內(nèi)容。

  但是meta robots 的應用,可以使搜尋引擎先進行”檢查”也仍然會將內(nèi)容視為網(wǎng)站的一部份,但不要收藏提供使用者搜尋,所以這部分差異也會引響網(wǎng)站的總體完整性,因此在非必要的情況下,并不建議使用Robots.txt的使用,而是推薦meta robots 的使用。

成人3d动漫在线观看| 久久久免费黄片| 午夜福利免费在线观看| www.xxx国产| 久久久综合久久| 国产福利视频一区二区三区| 少妇把腿扒高潮爽让我添| 欧美黑人巨大精品一区二区| 新疆老熟女一88av| 国产乱色国产精品播放视频| 国产精品一区二区黑人巨大| 四川性一交一乱一乱一视一频| 色哟哟视频网站| 婷婷久久国产| av天堂一区二区三区| √资源天堂中文在线视频| youjizz日本30丰满熟妇| 男同激情小说| 国产福利精品一区二区三区| 日韩精品 在线视频| 男同桌上课用手指进去了好爽| 女同互舔互慰av毛片| 欧美精品国产白浆久久久久| 人妻精品久久久久中文字幕一| 国产成人无码AV| 91亚洲精品久久久久久久久久久久久| 国产va. 亚洲va 欧美va 一| tube日本少妇爽24| 99热这里只有精品1| 国语精品一区二区三区| 91精品欧美一区二区三区| 国产伦精品一区二区三区免| 蜜臀av午夜| 亚洲中文字幕av在线| 真人裸体人体欣赏pics| 亚洲一区二区中文字幕在线观看| 淫辱人妻2| 国产视频一区在线观看| 日本一区二区免费播放| 国产又粗又猛又爽又| 日韩一区二区三区欧美|