• <nav id="y0oe8"></nav>
  • <menu id="y0oe8"><tt id="y0oe8"></tt></menu>
  • robots.txt:如何讓搜索引擎不要抓取沒用的頁面

    1341次閱讀

    robots.txt.

    | 什么是robots文件?

    Robots是站點與spider溝通的重要渠道,是網站與搜索引擎爬蟲之間的協議,告知哪些可抓取哪些不允許。


    | 為什么要做robots文件?

    網站上總有一些頁面是禁止蜘蛛抓取的。例如:搜索頁面、篩選頁面、后臺登錄地址等。


    | 如何制作 robots文件?

    編寫robots.txt文件并上傳到網站根目錄。

     

    | 制作 robots.txt注意事項

    ● 所有搜索引擎則用星號表示

    ● Allow(允許)和Disallow(不允許)優先級

    ● 至少屏蔽一個,可以屏蔽:搜索結果頁面/404頁面

    ● 記得將sitemap放到Robots文件中

    ● 可以陸續放入更多,而不是一次性決定所有

    ● 網站后臺地址/圖片地址/下載文件地址/錯誤鏈接

     

    本文的視頻課程地址:https://ke.seowhy.com/play/9492.html

    閱讀本文的人還可以閱讀:

    什么是robots文件?設置搜索robots協議的后果

    robots.txt文件用法舉例,百度官方資料截圖版

    robots.txt概念和10條注意事項

    Robots.txt 文件應放在哪里?

    如何使用Robots避免蜘蛛黑洞?

    本文由夫唯SEO特訓營編輯整理。

    搜外專注SEO培訓和SEO周邊Saas服務解決方案,10年來超過五萬學員在此獲得技術提升和人脈圈子。

    SEO課程包含移動搜索、零基礎建站、群站SEO思維、搜外6系統、SEM入門等。

    182期A班報名時間9月01日-9月15日,請添加招生客服小沫微信:seowhy2021。 微信掃碼添加客服人員

    我們的目標是:讓非技術人員輕松學會互聯網技術。

    • 搜外會員SEO交流群(免費)

      微信掃碼添加客服人員
    • 小程序運營交流群(免費)

      微信掃碼添加客服人員
    • 搜外會員SEM競價交流群(免費)

      微信掃碼添加客服人員
    • 夫唯學員SEO交流群(VIP)

      微信掃碼添加客服人員

    跟夫唯老師系統學習群站SEO
    成為互聯網運營推廣大咖

    掌握SEO技巧、建站前端、群站霸屏、SEM入門、新聞源推廣……
    Processed in 0.174979 Second , 41 querys.