當前位置:編程學習大全網 - 人物素材 - 網站如何增加收錄呢?有誰可以告訴壹下。

網站如何增加收錄呢?有誰可以告訴壹下。

網站收錄方法

壹、調整網站內部結構。網站內部結構混亂對網站是致命的傷害,這壹點我有深刻的體會。代碼優化。對於網站圖片加上了註釋,首頁關鍵詞加上了錨文本鏈接等等。這些操作都是細節問題,但往往壹個細節問題就會影響的收錄情況。網站主題明確化。之前我不懂,只會發文章,做外鏈。但這裏面還有很多學問的。之前將相關文章也發在我這個網站裏,還好有壹個好心的網友說,我的網站主題和內容不壹致,這樣會讓搜索引擎分不清妳的網站是做什麽的。隨後,我就不在自己的網站裏發布這些文章了,可以發到其它相關平臺。

二、內容原創性。原創是最青睞的,壹個網站裏的內容如果都是原創的,那麽搜索引擎將會賦予此站很高的權重,當然收錄和快照就不會有很大問題了。之前我的文章很多的是偽原創的,而且偽原創度也不是很高,發了很多文章都沒有收錄。但只要是發原創文章,就會收錄。

三、友情鏈接。對於新站,可以找壹些相關的友情鏈接交換平臺,每天做三四個友鏈,堅持壹周左右,妳的網站會有很大變化。友情跟外鏈壹樣,也要多樣性。比如可以跟相關論壇友鏈,還可以找壹些相關博客進行友鏈,再者可以找相關貼吧進行友鏈。

編輯本段增加外鏈並被更快收錄的方法

1.通過優化網站程序推廣,也就是所謂的SEO

2.競價排名

3.多發原創性的文章

4.提升PR值。

5.在高質量的網站發布帶有鏈接的軟文,引導搜索引擎前來光顧,進而實現收錄。

6.網站要有規律的更新,每次更新文章要不少於2篇。

7.網站打開速度和空間的穩定性也是影響網站收錄的因素。

8.增加網站自身的權重,是更快收錄的根本原因。

編輯本段增加網站收錄的方法

1.采用扁平型的站點架構,也就是俗稱的樹狀結構。可以這樣說就是只有三層欄目結構,分別是首頁,欄目列表,內容頁,這樣形成樹幹型的分支形狀,壹層壹層提升每個細分欄目的權重,從而來增加收錄的面積。對於網站的架構有很多站長提過這樣的壹個構想就是用CMS+論壇的架構形式提升站點收錄,也不要小看了這種架構,很多站長試用過的效果都是很不錯的,如果妳細心會發現現在大多數收錄過百萬的站點都是在采用這種形式。還有的站長采用百科等其他方式也產生了不錯的效應。這其中免不了人力財力的大力支持,但對於其產生的效果還是很值得投入的。

2.制作站點地圖。站點地圖的效用不必多說,重要的是網站內容的每日更新,相信能如此做得站長很少,雖然說起來容易但每天去執行很難有人能堅持,在我所觀察中,那些多用戶博客站點,它們每日更新所帶來的豐碩成果我想大家很難想的到。其實每日更新用不了多長時間的,做壹個list頁面相信很快大家就會完成的。在完成更新後要養成習慣,時間久了,就會自然地去做了,這對於搜索引擎的收錄有很好的正面效果,那些內容展示較少的站點就更要這麽去做了。

3.增加高質量原創內容,避免內容的高度重復。都知道搜索引擎跟人壹樣,喜歡新鮮的東西,所以壹定要用高質量的原創內容來餵養它,把它餵養好了,收錄和權重,自然而然就上來了。

4.整理本站結構,去除無效鏈接

不論站長們做的是哪種類型的網站,其站內結構壹定要簡潔明了,這是做站的站長們必備知識之壹。壹般的網站在設計時頁面層次不要超過三層,現在很多的倉儲貨架的網站層次都超過了三層。頁面文件名可以用字母或者數字,但千萬不要用很長的中文轉英文插件,那樣做對收錄沒任何好處。並且做站過程中添加內容時建議大家都采用生成靜態或者偽靜態技術處理,這樣有利網站在搜索引擎中的友好度。

5.控制外鏈來源,保證鏈接質量

當經過我們的苦心經營之後,我們的網站基本成型了,這個時候外鏈就成為關鍵之壹了。很多站長們在做外鏈時利用工具,有時幾天不發布,有時壹天發布幾天的量,這些都是要不得的。外鏈接是需要持續,穩定的發布才有效果的。貴在堅持,我們站長任何時候都不要忘記這點。

6.長期積累,豐富自身資源

毫無疑問,對於推廣來說“人脈”是毫無疑問的重點,而網站收錄就相當於向搜索引擎推廣。有些人為什麽做網站推廣很輕松?因為他們手上有資源,有人脈!妳沒有怎麽辦?簡單,慢慢積累!路不是壹步就到目的地,飯也不可能壹口吃成個胖子,只有長期豐富自身資源,積累久了之後,妳也和那些“高人”同壹個段位了。

7.用好meta標簽,強化收錄保障

不管是老站長還是新站長壹般都很容易忽視HTML標簽META的強大功效,那就是壹個好的META標簽設計可以大大提高妳站長被搜索到的可能性。利用好Keywords和Description的設定。編輯好語句可以讓搜索引擎能準確的發現妳,從而吸引更多的人訪問妳的站點!

8.確保服務器質量,維護站內空間穩定

網站使用的空間好壞直接關系到搜索引擎的拜訪速度和效率從而影響到網站內容收錄,這是大家應該都知道的問題之壹。當妳每天例行檢查自己的網站快照,發現很長時間沒更新或是更新進度太過緩慢時,妳就有必要去查看同IP地址下別的網站的收錄情況,如果收錄都不好的話,妳就應該果斷的去換個空間了,網站的空間就好比網站最根本的基礎,如果它也不好的話收錄是壹定不會上去的。

編輯本段網站推廣十點禁忌

1 不要把首頁做成flash

真正的搜索引擎對圖片的識別能力很差,首頁做成flash,不僅不利於搜索引擎排名,而且還減慢了進入主頁的速度,在壹定程度上為妳的客戶盡快找到妳又設置了壹道小障礙。

2 不要用大量的圖片組成首頁

任何壹個搜索引擎都喜歡結構明顯,而不喜歡把網站做成壹張皮,讓搜索引擎分不清妳的重點所在。

3 不要把導航做成圖片連接

因為搜索引擎是壹個很大的數據庫,而不是壹個圖片庫,搜索引擎首頁搜索引擎到的是妳的標題,接著才通過妳的導航系統搜索到妳網站的其他內頁,所以如果妳的網站導航是文字連接,搜索引擎就很容易搜索到妳其他的頁面,是網站的整體形象得意完美展示,如果圖片連接則不能達到這個效果。

付費推廣要註意,不要被忽悠:

4 不要去作所謂的通用網址,那是用來騙不懂網絡的人

壹個網站80%的流量來源於搜索引擎,其他的20%則通過直接輸入網址和導航網站的連接,用通用網址的人不到0.5%。因為3721網絡實名的成功,通用網址只不過是想借中國互聯網不成熟的時機撈壹把而已。妳懂網絡嗎?懂就不要用通用網址。

5 不要去相信網絡公司對妳銷售業績的承諾

如果妳是公司的老板或者是網站負責人,妳就會聽到很多網絡公司的業務人員,為了讓妳作壹個推廣,就會給妳壹些不切合實際的承諾,如推廣在手,銷售不愁,今天作了推廣,壹定可以給妳帶來數十萬的銷售額,有時候還會給妳說,我們那個客戶推廣後壹年在銷售幾百萬。這些都是推廣的功勞嗎?這樣的幾率有多大,1%還是千分之壹呢?

6 不要被中搜的廉價垃圾服務所騙

很直白的說,中搜不是搜索引擎,因為沒有流量,很多個人網站的流量都要比他大的多,最關鍵還是技術問題壹直沒有很好的解決。

7 不要去作第壹頁以後的廣告

經常瀏覽百度的人就會發現,遇到壹些熱門的關鍵詞,如,手機,數碼相機,掌上電腦,電影,等熱門關鍵詞,前四五頁就是推廣的。前三可以攔截 80%的客戶和流量,第壹頁可以攔截60%的客戶和流量,第二頁的點擊機會只有20%到30%,更不要說第三第四頁了,壹句話,沒效果,白花錢。

勞而無功的推廣:

8 不要期望用垃圾郵件來推廣妳的網站

這是網絡禮節的關鍵規則。無論何時何地、對任何人,大量不請自來的電子郵件都是讓人不能容忍的。有成百上千的家夥試圖賣給妳數據庫和用來發垃圾郵件的軟件,但是不要相信他們。濫發郵件會給妳招來敵人而不是朋友,它還會使妳的站點被大的isp禁止,減少妳的訪問量。 如今沒有人不討厭垃圾郵件,因為它已經給人們的工作帶來了很多負面影響,會閱讀垃圾郵件的幾率不到千分之壹,更不會去考慮妳的服務和產品了。很影響企業形象。

9 過於追求免費,瘋狂的作友情連接.

壹些人為了省錢,把希望寄托在免費資源上,更可笑的是有人想通過單純的瘋狂的友情連接希望增加自己網站的流量,提高在搜索引擎的排名,吸引壹個客戶。

10 為難那些電子商務師,他們心有余而力不足

很多公司為了追趕電子商務浪潮,專門找壹個學習電子商務專業的學生或者是壹個對網絡了解的人,不再花其他的錢,來成功運行公司網站,最終使網站盈利。千萬不要為難那些電子商務師,他們也想把公司網站運作好,但是他們本身那也不是很懂。他們只能來維護妳的網站。

編輯本段網站收錄減少的原因

1、Refresh跳轉刷新問題

如果妳在某頁面頭部使用META Refresh跳轉到另壹個頁面的話,也屬於作弊行為,很容易導致收錄劇減,甚至被K!

還有壹個要補充的問題就是GOOGLE搜索引擎要比搜索引擎先進得多,相比就等於壹輛奔馳與壹輛解放牌的車。對於網站的整站更新,GOOGLE幾天就能改過來,而搜索引擎那個蠢家夥幾個月都緩不過來,要說數據量大GOOGLE包含了全球大多數網站的主要數據,不會比搜索引擎少吧?這也說明搜索引擎收錄容量有限的原因,要說重復不能收錄,那人家GOOGLE怎麽又會對重復的數據照收不誤呢?

2、cn域名

由於cn域名較便宜,形成很多人群利用cn域名做垃圾網站,從而影響到很多cn網頁在搜索引擎收錄變少或沒收錄!

3、空間問題

自己服務器的IP下站點的收錄情況不良及空間隱定性差僅會影響到搜索引擎收錄變少或沒收錄!

4、網站改版

不要隨意更改程序,隨意修改首頁分類和標題,搜索引擎就不知所措,如果妳壹定要換程序,建議妳把網站完全關閉1個月再重新上傳妳的程序,這樣搜索引擎就以為妳是新站,收錄起來就容易得多。

5、模板、內容嚴重的重復

任何壹款模板拿到手,記得先修改。

大家都用同壹類型的模板,內容都是來自於采集,由於現在做電影站的特別多,采來采去的都是那十來個采集件,試問有幾萬個內容相同的站,叫搜索引擎那個機器怎麽收錄?

6、關鍵詞過多

關鍵詞不要做得太熱,有些人把自己的網站題目就是“土豆電影”或“優酷視頻”,妳到搜索引擎看看有多少能真正收錄?就算收錄了也很快就會被K掉,因為搜索引擎認為要是真的收錄了妳,妳的流量就會變得很大,這豈不是天上掉餡餅?堆積標題和關鍵詞過多會造成搜索引擎收錄變少或沒收錄!

7、網站鏈接這點很重要

經常檢查妳的外部連接,看看有沒有打不開的網站、垃圾網站、沒被搜索引擎收錄的網站,被搜索引擎被降權的網站,被搜索引擎K的網站僅會影響搜索引擎收錄變少或沒收錄!

8、SEO優化

搜索引擎對SEO過分的網站懲罰制度越來越嚴厲,SEO優化過度會造成搜索引擎收錄變少或沒收錄!

編輯本段網站收錄入口

百度收錄

Google收錄

Yahoo收錄

Bing收錄

Sogou收錄

Alexa收錄

中國搜索收錄

有道搜索收錄

搜搜收錄

天網網站收錄 

Dmoz收錄

Coodir收錄

編輯本段影響收錄的外部鏈接因素定義

增加外部鏈接,能讓搜索引擎有效地抓取和收錄網頁

增加外部鏈接的方法

1,自己主動性地增加鏈接;

2,發表優質文章、內容,吸引別人主動鏈接。

3,交換友情鏈接,比較容易簡單的辦法;

4,提交分類目錄、網絡書簽,簡單未必十分有效;

5,購買文本鏈接,需要有壹定成本投入,且鏈接不持久;

6,組建鏈接網絡,建立網站群、博客群,投入成本高,耗時較長,後期效果明顯;

7,群發鏈接,留言板垃圾留言、論壇簽名鏈接……

編輯本段收錄原理收集待索引網頁

Internet上存在的網頁數量絕對是個天文數字,每天新增的網頁也不計其數,搜索引擎需要首先找到要索引收錄的對象。

具體到Google而言,雖然對GoogleBot是否存在DeepBot與FreshBot的區別存在爭議——至於是否叫這麽兩個名字更是眾說紛耘,當然,名字本身並不重要——至少到目前為止。

主流的看法是,在Google的robots中,的確存在著相當部分專門為真正的索引收錄頁頁準備“素材”的robots——在這裏我們姑且仍稱之為FreshBot吧

——它們的任務便是每天不停地掃描Internet,以發現並維護壹個龐大的url列表供DeepBot使用,換言之,當其訪問、讀取其壹個網頁時,目的並不在於索引這個網頁,而是找出這個網頁中的所有鏈接。

——當然,這樣似乎在效率上存在矛盾,有點不太可信。不過,我們可以簡單地通過以下方式判斷:FreshBot在掃描網頁時不具備“排它性”。

也即是說,位於Google不同的數據中心的多個robots可能在某個很短的時間周期,比如說壹天甚至壹小時,訪問同壹個頁面,而DeepBot在索引、緩存頁面時則不會出現類似的情況。

即Google會限制由某個數據中心的robots來完成這項工作的,而不會出現兩個數據中心同時索引網頁同壹個版本的情況,如果這種說法沒有破綻的話,則似乎可以從服務器訪問日誌中時常可以看到源自不同IP的GoogleBot在很短的時間內多次訪問同壹個網頁證明FreshBot的存在。

因此,有時候發現GoogleBot頻繁訪問網站也不要高興得太早,也許其根本不是在索引網頁而只是在掃描url。

FreshBot記錄的信息包括網頁的url、TimeStamp(網頁創建或更新的時間戳),以及網頁的Head信息(註:這壹點存在爭議,也有不少人相信FreshBot不會去讀取目標網頁信息的,而是將這部分工作交由DeepBot完成。

不過,筆者傾向於前壹種說法,因為在FreshBot向DeepBot提交的url列表中,會將網站設置禁止索引、收錄的頁面排除在外,以提高效率,而網站進行此類設置時除使用robots.txt外還有相當部分是通過mata標簽中的“noindex”實現的,不讀取目標網頁的head似乎是無法實現這壹點的),如果網頁不可訪問,比如說網絡中斷或服務器故障,FreshBot則會記下該url並擇機重試,但在該url可訪問之前,不會將其加入向DeepBot提交的url列表。

總的來說,FreshBot對服務器帶寬、資源的占用還是比較小的。最後,FreshBot對記錄信息按不同的優先級進行分類,向DeepBot提交,根據優先級不同,主要有以下幾種:

A:新建網頁;B:舊網頁/新的TimeStamp,即存在更新的網頁;C:使用301/302重定向的網頁;D:復雜的動態url:如使用多個參數的動態url,Google可能需要附加的工作才能正確分析其內容。

——隨著Google對動態網頁支持能力的提高,這壹分類可能已經取消;E:其他類型的文件,如指向PDF、DOC文件的鏈接,對這些文件的索引,也可能需要附加的工作;

F:舊網頁/舊的TimeStamp,即未更新的網頁,註意,這裏的時間戳不是以Google搜索結果中顯示的日期為準,而是與Google索引數據庫中的日期比對;G:錯誤的url,即訪問時返回404回應的頁面;

優先級按由A至G的順序排列,依次降低。需要強調的是,這裏所言之優先級是相對的,比如說同樣是新建網頁,根據指向其的鏈接質量、數量的不同,優先級也有著很大的區別,具有源自相關的權威網站鏈接的網頁具有較高的優先級。

此外,這裏所指的優先級僅針對同壹網站內部的頁面,事實上,不同網站也有有著不同的優先級,換言之,對權威網站中的網頁而言,即使其最低優先級的404url,也可能比許多其他網站優先級最高的新建網頁更具優勢。

網頁的索引與收錄

接下來才進入真正的索引與收錄網頁過程。從上面的介紹可以看出,FreshBot提交的url列表是相當龐大的,根據語言、網站位置等不同,對特定網站的索引工作將分配至不同的數據中心完成。

整個索引過程,由於龐大的數據量,可能需要幾周甚至更長時間才能完成。

正如上文所言,DeepBot會首先索引優先級較高的網站/網頁,優先級越高,出現在Google索引數據庫及至最終出現在Google搜索結果頁面中的速度便越快。

對新建網頁而言,只要進入到這個階段,即使整個索引過程沒有完成,相應的網頁便已具備出現在Google索引庫中的可能,相信許多朋友在Google中使用“site”搜索時常常看到標註為補充結果只顯示網頁url或只顯示網頁標題與url但沒有描述的頁面,此即是處於這壹階段網頁的正常結果。

當Google真正讀取、分析、緩存了這個頁面後,其便會從補充結果中逃出而顯示正常的信息。

——當然,前提是該網頁具有足夠的鏈接,特別是來自權威網站的鏈接,並且,索引庫中沒有與該網頁內容相同或近似的記錄(DuplicateContent過濾)。

對動態url而言,雖然如今Google宣稱在對其處理方面已不存在障礙,不過,可以觀察到的事實仍然顯示動態url出現在補充結果中的幾率遠大於使用靜態url的網頁,往往需要更多、更有價值的鏈接才能從補充結果中逸出。

而對於上文中之“F”類,即未更新的網頁,DeepBot會將其時間戳與Google索引數據庫中的日期比對,確認盡管可能搜索結果中相應頁面信息未來得及更新但只要索引了最新版本即可——考慮網頁多次更新、修改的情況——;至於“G”類即404url,則會查找索引庫中是否存在相應的記錄,如果有,將其刪除。

數據中心間的同步

前文我們提到過,DeepBot索引某個網頁時會由特定的數據中心完成,而不會出現多個數據中心同時讀取該網頁,分別獲得網頁最近版本的情況,這樣,在索引過程完成後,便需要壹個數據同步過程,將網頁的最新版本在多個數據中心得到更新。

這就是之前著名的GoogleDance。不過,在BigDaddy更新後,數據中心間的同步不再象那樣集中在特定的時間段,而是以壹種連續的、時效性更強的方式進行。

  • 上一篇:和淚如雨下相似的成語?
  • 下一篇:公益文化海報-公益主題海報
  • copyright 2024編程學習大全網