河南專業的網站建設,網站優化公司,鄭州啟凡網絡,10年互聯網行業經驗,上百家優化案例客戶,四年以上的技術團隊,正規白帽操作,不到首頁,不收費,選擇我們是您不二的選擇。

鄭州網站建設,優化推廣外包公司,10年經驗沉淀
為企業創造價值,我們懂技術,更懂營銷

天津11选5体彩:「鄭州SEO」如何禁止蜘蛛抓取網站

時間:2019-03-27
分享到:
  要知道在seo優化的過程當中,有時候是需要對搜索引擎蜘蛛進行屏蔽的,就是禁止對網站的某個地方進行抓取,那么我們應該如何屏蔽搜索引擎蜘蛛呢?下面我們一起來看一看具體的操作方法。
 
 
百度蜘蛛
 
  
  百度蜘蛛抓取我們的網站,希望我們的網頁能被包含在它的搜索引擎中。將來,當用戶搜索時,它會給我們帶來一定量的搜索引擎優化流量。當然,我們不想讓搜索引擎抓取所有東西。此時我們只希望能夠抓取搜索引擎搜索到的內容。例如,用戶的隱私和背景信息不希望搜索引擎被捕獲和包含。解決這些問題有兩種最佳方法,如下所示:
 
1、通過403狀態碼,限制內容輸出,屏蔽蜘蛛抓取。
  
  403狀態代碼是http協議中的網頁返回狀態代碼。當搜索引擎遇到403狀態代碼時,它知道這些頁面受權限限制。我無法訪問它。例如,如果您需要登錄才能查看內容,搜索引擎本身將無法登錄。如果您返回403,他也知道這是權限設置頁面,無法讀取內容。當然,它不會被包括在內。
  
  返回403狀態代碼時,應該有一個類似于404頁面的頁面。提示用戶或蜘蛛執行他們想要訪問的內容。兩者都是不可或缺的。您只有提示頁面,狀態代碼返回200,這是百度蜘蛛的大量重復頁面。有403個狀態代碼但返回不同的內容。這也不是很友好。
 
 
如何禁止蜘蛛抓取網站
 
 
2、robots協議文件屏蔽百度蜘蛛抓取
  
  robots協議是放在網站根目錄下的協議文件,可以通過網址(網址: http : / / www.hkxiaopan.com / robots . txt )訪問,當百度蜘蛛抓取我們的網站時,它會先訪問這個文件。因為它告訴蜘蛛哪些能抓,哪些不能。
  
  robots協議文件的設置比較簡單,可以通過User-Agent、Disallow、Allow這三個參數進行設置。
  
  ?User-Agent:對不同搜索引擎的聲明;?Disallow:不允許抓取的目錄或頁面;?Allow:被允許抓取的目錄或頁面通??梢允÷曰蠆恍?,因為如果你不寫任何不能抓取的東西,它就可以被抓取。
  
  下面我們來看一個示例,場景是我不希望百度抓取我網站所有的css文件,data目錄、seo-tag.html頁面
  
  User-Agent: BaidusppiderDisallow: /*.cssDisallow: /data/Disallow: /seo/seo-tag.html
  
  如上所述,user-agent聲明了蜘蛛的名稱,這意味著它針對的是百度蜘蛛。以下內容無法獲?。uot;/*。css",首先/指的是根目錄,這是您的域名。 *是代表任何內容的通配符。這意味著無法抓取以.css結尾的所有文件。這是你自己的兩個經歷。邏輯是一樣的。
  
  如果要檢測上次設置的漫游器文件,可以訪問本文《檢查robots是否正確的工具介紹》并獲取詳細的工具來檢測您的設置。
  
以上就是“如何禁止蜘蛛抓取網站”的全部介紹了希望對您有所幫助,鄭州網站優化就找鄭州啟凡網站優化公司,行業經驗超過8年,先優化后付費,關鍵詞排名進百度第一頁,再支付優化費用。
經典案例 Classic case

您可以在線咨詢...

400-037-1682

185-3083-1921

鄭州市萬達小區5號樓3單元1402室

關注有驚喜

Copyright © 2013-2018 鄭州啟凡計算機軟件有限公司 版權所有 天津11选5任六杀号技巧