當前位置:編程學習大全網 - 腳本源碼 - 網站內容不收錄的原因是什麽

網站內容不收錄的原因是什麽

網站內容不收錄的原因以及解決方式:

壹、搜索引擎是否知道頁面的存在

搜索引擎要收錄該頁面,必須知道有這個頁面。如果蜘蛛都不知道頁面,就收錄不了,這裏主要分為兩點:搜索引擎找不到網頁入口和不讓搜索引擎抓取。

1、搜索引擎找不到頁面入口很多時候不是妳更新了文章搜索引擎就要來抓取收錄的,要怎麽讓蜘蛛知道妳的更新呢?除了有規律的更新,可以向百度站長平臺主動提交URL或者是提交站點地圖,也可以讓搜索引擎被動收集,這就是通過外鏈讓蜘蛛知道妳的網頁,還有很多時候蜘蛛來到了妳的網站,卻找不到妳更新的鏈接,因為網站的鏈接結構做得太復雜或是內鏈結構差,以致搜索引擎在抓取時間類不會爬到網站深處的頁面,這也造成蜘蛛不知道該頁面的存在。所以不管怎麽樣,第壹步我們要保證頁面能被蜘蛛看到,關於這壹點可以通過查看網站日誌來判斷蜘蛛是否來訪過。

2、不讓搜索引擎抓取很多網站有意無意的直接在robots文件屏蔽了百度或網站部分頁面,卻整天在找原因為什麽蜘蛛不來抓取我的頁面,這能怪百度嗎?妳都不讓別人進門了,百度是怎麽收錄妳的網頁?所以有必要時常去檢查壹下網站robots文件是否正常。

二、蜘蛛是否正常抓取:

1、網站正常訪問都知道,蜘蛛抓取頁面要從域名到DNS服務器再到網站空間,所以其中任何壹個環節出現問題,蜘蛛都不能正常的抓取,首先域名需要備案,然後域名解析要正常,如果解析出現問題,域名是不能訪問網站ip地址的,這個時候網站打不開,蜘蛛抓取不了頁面。

2、服務器穩定如果服務器比較卡或者不穩定,會直接影響蜘蛛抓取,蜘蛛不能很好的去抓取頁面或由於加載慢只抓取到網頁壹半,這就很大程度上影響了網站的收錄。

3

三、蜘蛛收錄標準是否達到:

1、行業不同標準也不同這個是顯而易見的,新聞類網站肯定比壹般企業站容易收錄,而對於醫療、博彩、成人用品等網站,標準肯定是更加嚴格,所以對於不同的行業,百度給予的收錄標準也是不壹樣的。

2、不同的網站標準不同百度有壹個優先抓取的原則,對於絕大多數用戶喜歡,權重高的網站收錄得要快,就像新浪網、騰訊網收錄得肯定要比壹般網站要快,為什麽?因為信任,這類網站本身就有其嚴格的過濾系統,在此類網站公布的內容百度基本是直接抓了就收,搜索引擎是互聯網與用戶的橋梁,它的目的就是給用戶提供有價值的內容,妳能為它提供良好的內容,它當然也會對妳更好,這是互利的。

3、內容的質量度蜘蛛爬行頻繁,就不收錄,或者收錄了隔幾天查看又沒收錄。主要有兩點:壹是網站內容大量采集或者是提供無任何價值內容,二是網站還處於新站,百度對其有個考核期,收錄較慢。

網站不收錄解決方法

壹、分析網站日誌:看是否有被蜘蛛爬過如果頁面未被蜘蛛爬行頁面未被Baiduspider爬行,那麽妳可以適當的給該頁面做壹些外鏈來引導蜘蛛過來爬行,也可以給搜索引擎提交該頁面。那麽我們就可以進行以下操作:

二、頁面爬行了未收錄當頁面長時間都不被百度收錄的話,那麽就要適當的給該頁面增加壹些附加價值或者對該頁面進行重新的進行修改。妳可以對文本新增壹些圖片,視頻或者內容,也可以對標題進行再次編輯。總之,要讓Baiduspider再次過來爬行的時候,返回的狀態碼不是壹個無變化的狀態嗎,這樣妳的頁面被收錄的幾率就大大的提升了。

三、檢查robots設置,看是否主動屏蔽蜘蛛Robots的設置也是非常重要的,這個很多人可能對這些還不了解。大家可看這篇文章《》,這裏面有詳細的教程說明,我就不再啰嗦了。若是自己robots設置的問題,那麽自己進行糾正後,再在百度站長工具後臺裏面進行更新robots這樣的話好讓百度蜘蛛重新更改狀態。

四、頁面是否存在敏感詞匯如今,很多詞對搜索引擎來說都有壹定的敏感,敏感詞很有可能造成的頁面不被收錄,有時候也會造成網站被將去或被k。所以站長們再建設內容的時候壹定要註意不要在文中出現敏感詞。

五、頁面內容是否存在采集及無價值內容百度在算法中明確表明,過多的采集會被百度認為是垃圾站。建議,提交些有價值、以用戶需求為目的的內容。

  • 上一篇:創意塗鴉的快樂最炫手繪墻美麗飾家
  • 下一篇:哈維最後的機會
  • copyright 2024編程學習大全網