當前位置:編程學習大全網 - 編程語言 - Python中的網絡爬蟲指的是什麽?

Python中的網絡爬蟲指的是什麽?

網絡爬蟲(又稱為網頁蜘蛛,網絡機器人,在FOAF社區中間,更經常的稱為網頁追逐者),是壹種按照壹定的規則,自動地抓取萬維網信息的程序或者腳本。另外壹些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。

隨著網絡的迅速發展,萬維網成為大量信息的載體,如何有效地提取並利用這些信息成為壹個巨大的挑戰。搜索引擎(Search Engine),例如傳統的通用搜索引擎AltaVista,Yahoo!和Google等,作為壹個輔助人們檢索信息的工具成為用戶訪問萬維網的入口和指南。但是,這些通用性搜索引擎也存在著壹定的局限性,如:

(1)不同領域、不同背景的用戶往往具有不同的檢索目的和需求,通過搜索引擎所返回的結果包含大量用戶不關心的網頁。

(2)通用搜索引擎的目標是盡可能大的網絡覆蓋率,有限的搜索引擎服務器資源與無限的網絡數據資源之間的矛盾將進壹步加深。

(3)萬維網數據形式的豐富和網絡技術的不斷發展,圖片、數據庫、音頻、視頻多媒體等不同數據大量出現,通用搜索引擎往往對這些信息含量密集且具有壹定結構的數據無能為力,不能很好地發現和獲取。

(4)通用搜索引擎大多提供基於關鍵字的檢索,難以支持根據語義信息提出的查詢。

網絡爬蟲

為了解決上述問題,定向抓取相關網頁資源的聚焦爬蟲應運而生。聚焦爬蟲是壹個自動下載網頁的程序,它根據既定的抓取目標,有選擇的訪問萬維網上的網頁與相關的鏈接,獲取所需要的信息。與通用爬蟲(general purpose web crawler)不同,聚焦爬蟲並不追求大的覆蓋,而將目標定為抓取與某壹特定主題內容相關的網頁,為面向主題的用戶查詢準備數據資源。

1 聚焦爬蟲工作原理以及關鍵技術概述

網絡爬蟲是壹個自動提取網頁的程序,它為搜索引擎從萬維網上下載網頁,是搜索引擎的重要組成。傳統爬蟲從壹個或若幹初始網頁的URL開始,獲得初始網頁上的URL,在抓取網頁的過程中,不斷從當前頁面上抽取新的URL放入隊列,直到滿足系統的壹定停止條件。聚焦爬蟲的工作流程較為復雜,需要根據壹定的網頁分析算法過濾與主題無關的鏈接,保留有用的鏈接並將其放入等待抓取的URL隊列。然後,它將根據壹定的搜索策略從隊列中選擇下壹步要抓取的網頁URL,並重復上述過程,直到達到系統的某壹條件時停止。另外,所有被爬蟲抓取的網頁將會被系統存貯,進行壹定的分析、過濾,並建立索引,以便之後的查詢和檢索;對於聚焦爬蟲來說,這壹過程所得到的分析結果還可能對以後的抓取過程給出反饋和指導。

相對於通用網絡爬蟲,聚焦爬蟲還需要解決三個主要問題:

(1) 對抓取目標的描述或定義;

(2) 對網頁或數據的分析與過濾;

(3) 對URL的搜索策略。

百度百科-網絡爬蟲

  • 上一篇:android怎麽做動態的登陸界面
  • 下一篇:科技工作總結報告
  • copyright 2024編程學習大全網