-利用301跳轉和robot文件來消滅循環錯誤頁面

利用301跳轉和robot文件來消滅循環錯誤頁面

seo.zoapcon.com

  最近在優化貸款的網站,剛接手時有點頭疼,網站架構一塌糊塗,網站也有JS代碼和FLASH,而且面包屑、導航、URL都沒整過,URL是很長一串的動態地址,基本上除瞭寫瞭三個標簽和做瞭301跳轉,就沒見到任何的SEO優化。還好公司有幾個程序員和網站設計員,先把JS代碼和FLASH刪掉,還有把面包屑、導航、架構給設置好。但在把動態URL轉化為偽靜態時,公司同事沒註意,出錯瞭,導致類似於死循環的大量復制偽靜態,十分糾結。這些頁面會導致蜘蛛無法爬行,影響其他頁面的收錄;太多垃圾頁面也會降低用戶體驗;影響服務器的處理速度等,危害很大,要及時處理,下面跟大傢介紹下如何清理大量錯誤的重復頁面的方法

  不過由於以前也碰到過這類問題,解決方法也不難,有這麼幾種比較簡單的方法:

  1、用robots.txt文件把不存在的URL屏蔽掉

  2、把找不到記錄的URL設置成直接跳出404頁面

  3、利用301,把動態頁面跳轉到正確的靜態頁面

  4、用nofollow標簽把錯誤頁面屏蔽,不讓蜘蛛爬取。

  1和2兩個方法不適合現在這網站,新的URL已經出來瞭,蜘蛛也爬行過瞭,如果再用ROBOT.TXT文件屏蔽的話,屏蔽掉一些被收錄瞭的頁面,對搜索引擎不友好,對以後優化會有一定的影響,所以第一個方法不適合;而網站出現瞭大量的重復URL,如果直接跳出404頁面的話,會降低用戶體驗,太多404,蜘蛛也會不耐煩的,所以第二個方法也不適合;用nofollow的話,錯誤頁面那麼多,要一個個添加,太麻煩瞭,也不合適。

  分析完後,我就決定用第三個方法,用301來跳轉,但還有個問題就是:301隻能在頁面代碼中的,有錯誤頁面時,如果直接增加301的話,會導致服務器崩潰的。所以我打算結合301跳轉和ROBOTS.TXT文件,分兩步來解決這個問題:

  1、我是先用301跳轉,首先要做的是把已經收錄的動態地址的頁面跳轉到所要改的靜態頁面上,然後要把偽靜態頁面和動態頁面給分辯出來,可以給偽靜態頁面加個參數來區別那些動態的錯誤頁面,分辨出那些是動態的錯誤頁面就可以直接處理掉瞭。

  2、還有個問題是就算全部都轉偽靜態瞭,但還會有許多循環出來的偽靜態地址,這時候我就設定ROBOTS.TXT文件,把錯誤的重復頁面都屏蔽掉。

  做好後再用工具檢查瞭一下頁面,錯誤頁面沒瞭,URL也都統一瞭。

  不管是301跳轉還是robot文件,都是很有用處的,尤其是robot文件,設置好瞭可以屏蔽網站重復頁面、可以保護網站的安全、可以屏蔽一些不想蜘蛛抓取的內容、可以提交網站地圖等作用,而搜索引擎來網站時一般都是先抓取robot文件內容,對網站非常重要,稍有不甚可能就導致網站出現很多問題,所以我們平時都要多接觸一些這種層次稍微深點的東西,來豐富自己SEO的知識,而不是每天麻木的發外鏈和更新文章,這樣到頭來,什麼都不是,隻是初級的外鏈人員,不會有什麼發展。

  最後想說的是,處理問題的方法有很多種,但是有些方法會留下一些後遺癥,處理好這個問題,可能就帶來下一個問題,所以在優化過程中,盡量幹凈利索的把問題斬斷。做SEO在發現問題時,也要及時的進行處理。原創文章作者

Tags:網頁設計提供seo, web design by zoapcon
SEO,
SEO,
MTR advertising,
Wechat Marketing,
Wechat Promotion,
網上商店,
網上電台,
代用碳粉,
團購網,
interior design,
Baby product,
diamond

Leave a Reply

Your email address will not be published. Required fields are marked *