溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

如何構(gòu)造C#語言的爬蟲蜘蛛程序

發(fā)布時(shí)間:2022-03-04 19:23:44 來源:億速云 閱讀:197 作者:iii 欄目:web開發(fā)

這篇文章主要介紹了如何構(gòu)造C#語言的爬蟲蜘蛛程序的相關(guān)知識(shí),內(nèi)容詳細(xì)易懂,操作簡單快捷,具有一定借鑒價(jià)值,相信大家閱讀完這篇如何構(gòu)造C#語言的爬蟲蜘蛛程序文章都會(huì)有所收獲,下面我們一起來看看吧。

  C#特別適合于構(gòu)造蜘蛛程序,這是因?yàn)樗呀?jīng)內(nèi)置了HTTP訪問和多線程的能力,而這兩種能力對(duì)于蜘蛛程序來說都是非常關(guān)鍵的。下面是構(gòu)造一個(gè)蜘蛛程序要解決的關(guān)鍵問題:

 ?、?HTML分析:需要某種HTML解析器來分析蜘蛛程序遇到的每一個(gè)頁面。

 ?、?頁面處理:需要處理每一個(gè)下載得到的頁面。下載得到的內(nèi)容可能要保存到磁盤,或者進(jìn)一步分析處理。

  ⑶ 多線程:只有擁有多線程能力,蜘蛛程序才能真正做到高效。

  ⑷ 確定何時(shí)完成:不要小看這個(gè)問題,確定任務(wù)是否已經(jīng)完成并不簡單,尤其是在多線程環(huán)境下。

  一、HTML解析

  本文提供的HTML解析器由ParseHTML類實(shí)現(xiàn),使用非常方便:首先創(chuàng)建該類的一個(gè)實(shí)例,然后將它的Source屬性設(shè)置為要解析的HTML文檔:

  ParseHTML parse = new ParseHTML();

  parse.Source = "

  Hello World

  ";

  接下來就可以利用循環(huán)來檢查HTML文檔包含的所有文本和標(biāo)記。通常,檢查過程可以從一個(gè)測試Eof方法的while循環(huán)開始:

  while(!parse.Eof())

  {

  char ch = parse.Parse();

  Parse方法將返回HTML文檔包含的字符--它返回的內(nèi)容只包含那些非HTML標(biāo)記的字符,如果遇到了HTML標(biāo)記,Parse方法將返回0值,表示現(xiàn)在遇到了一個(gè)HTML標(biāo)記。遇到一個(gè)標(biāo)記之后,我們可以用GetTag()方法來處理它。

  if(ch==0)

  {

  HTMLTag tag = parse.GetTag();

  }

  一般地,蜘蛛程序最重要的任務(wù)之一就是找出各個(gè)HREF屬性,這可以借助C#的索引功能完成。例如,下面的代碼將提取出HREF屬性的值(如果存在的話)。

  Attribute href = tag["HREF"];

  string link = href.Value;

  獲得Attribute對(duì)象之后,通過Attribute.Value可以得到該屬性的值。

  二、處理HTML頁面

  下面來看看如何處理HTML頁面。首先要做的當(dāng)然是下載HTML頁面,這可以通過C#提供的HttpWebRequest類實(shí)現(xiàn):

  HttpWebRequest request = (HttpWebRequest)WebRequest.Create(m_uri);

  response = request.GetResponse();

  stream = response.GetResponseStream();

  接下來我們就從request創(chuàng)建一個(gè)stream流。在執(zhí)行其他處理之前,我們要先確定該文件是二進(jìn)制文件還是文本文件,不同的文件類型處理方式也不同。下面的代碼確定該文件是否為二進(jìn)制文件。

  if( !response.ContentType.ToLower().StartsWith("text/") )

  {

  SaveBinaryFile(response);

  return null;

  }

  string buffer = "",line;

  如果該文件不是文本文件,我們將它作為二進(jìn)制文件讀入。如果是文本文件,首先從stream創(chuàng)建一個(gè)StreamReader,然后將文本文件的內(nèi)容一行一行加入緩沖區(qū)。

  reader = new StreamReader(stream);

  while( (line = reader.ReadLine())!=null )

  {

  buffer+=line+"rn";

  }

  裝入整個(gè)文件之后,接著就要把它保存為文本文件。

  SaveTextFile(buffer);

  下面來看看這兩類不同文件的存儲(chǔ)方式。

  二進(jìn)制文件的內(nèi)容類型聲明不以"text/"開頭,蜘蛛程序直接把二進(jìn)制文件保存到磁盤,不必進(jìn)行額外的處理,這是因?yàn)槎M(jìn)制文件不包含HTML,因此也不會(huì)再有需要蜘蛛程序處理的HTML鏈接。下面是寫入二進(jìn)制文件的步驟。

  首先準(zhǔn)備一個(gè)緩沖區(qū)臨時(shí)地保存二進(jìn)制文件的內(nèi)容。 byte []buffer = new byte[1024];

  接下來要確定文件保存到本地的路徑和名稱。如果要把一個(gè)myhost.com網(wǎng)站的內(nèi)容下載到本地的c:test文件夾,二進(jìn)制文件的網(wǎng)上路徑和名稱是與此同時(shí),我們還要確保c:test目錄下已經(jīng)創(chuàng)建了images子目錄。這部分任務(wù)由convertFilename方法完成。

  string filename = convertFilename( response.ResponseUri );

  convertFilename方法分離HTTP地址,創(chuàng)建相應(yīng)的目錄結(jié)構(gòu)。確定了輸出文件的名字和路徑之后就可以打開讀取Web頁面的輸入流、寫入本地文件的輸出流。

  Stream outStream = File.Create( filename );

  Stream inStream = response.GetResponseStream();

  接下來就可以讀取Web文件的內(nèi)容并寫入到本地文件,這可以通過一個(gè)循環(huán)方便地完成。

  int l;

  do

  {

  l = inStream.Read(buffer,0,

  buffer.Length);

  if(l>0)

  outStream.Write(buffer,0,l);

  } while(l>0);

  三、多線程

  我們用DocumentWorker類封裝所有下載一個(gè)URL的操作。每當(dāng)一個(gè)DocumentWorker的實(shí)例被創(chuàng)建,它就進(jìn)入循環(huán),等待下一個(gè)要處理的URL。下面是DocumentWorker的主循環(huán):

  while(!m_spider.Quit )

  {

  m_uri = m_spider.ObtainWork();

  ?

  m_spider.SpiderDone.WorkerBegin();

  string page = GetPage();

  if(page!=null)

  ProcessPage(page);

  m_spider.SpiderDone.WorkerEnd();

  }

  這個(gè)循環(huán)將一直運(yùn)行,直至Quit標(biāo)記被設(shè)置成了true(當(dāng)用戶點(diǎn)擊"Cancel"按鈕時(shí),Quit標(biāo)記就被設(shè)置成true)。在循環(huán)之內(nèi),我們調(diào)用ObtainWork獲取一個(gè)URL。ObtainWork將一直等待,直到有一個(gè)URL可用--這要由其他線程解析文檔并尋找鏈接才能獲得。Done類利用WorkerBegin和WorkerEnd方法來確定何時(shí)整個(gè)下載操作已經(jīng)完成。

  從圖一可以看出,蜘蛛程序允許用戶自己確定要使用的線程數(shù)量。在實(shí)踐中,線程的最佳數(shù)量受許多因素影響。如果你的機(jī)器性能較高,或者有兩個(gè)處理器,可以設(shè)置較多的線程數(shù)量;反之,如果網(wǎng)絡(luò)帶寬、機(jī)器性能有限,設(shè)置太多的線程數(shù)量其實(shí)不一定能夠提高性能。

  四、任務(wù)完成了嗎?

  利用多個(gè)線程同時(shí)下載文件有效地提高了性能,但也帶來了線程管理方面的問題。其中最復(fù)雜的一個(gè)問題是:蜘蛛程序何時(shí)才算完成了工作?在這里我們要借助一個(gè)專用的類Done來判斷。

  ? 首先有必要說明一下"完成工作"的具體含義。只有當(dāng)系統(tǒng)中不存在等待下載的URL,而且所有工作線程都已經(jīng)結(jié)束其處理工作時(shí),蜘蛛程序的工作才算完成。也就是說,完成工作意味著已經(jīng)沒有等待下載和正在下載的URL。

  Done類提供了一個(gè)WaitDone方法,它的功能是一直等待,直到Done對(duì)象檢測到蜘蛛程序已完成工作。下面是WaitDone方法的代碼。

  public void WaitDone()

  {

  Monitor.Enter(this);

  while ( m_activeThreads>0 )

  {

  Monitor.Wait(this);

  }

  Monitor.Exit(this);

  }

  WaitDone方法將一直等待,直到不再有活動(dòng)的線程。但必須注意的是,下載開始的最初階段也沒有任何活動(dòng)的線程,所以很容易造成蜘蛛程序一開始就立即停止的現(xiàn)象。為解決這個(gè)問題,我們還需要另一個(gè)方法WaitBegin來等待蜘蛛程序進(jìn)入"正式的"工作階段。一般的調(diào)用次序是:先調(diào)用WaitBegin,再接著調(diào)用WaitDone,WaitDone將等待蜘蛛程序完成工作。下面是WaitBegin的代碼:

  public void WaitBegin()

  {

  Monitor.Enter(this);

  while ( !m_started )

  {

  Monitor.Wait(this);

  }

  Monitor.Exit(this);

  }

  WaitBegin方法將一直等待,直到m_started標(biāo)記被設(shè)置。m_started標(biāo)記是由WorkerBegin方法設(shè)置的。工作線程在開始處理各個(gè)URL之時(shí),會(huì)調(diào)用WorkerBegin;處理結(jié)束時(shí)調(diào)用WorkerEnd。WorkerBegin和WorkerEnd這兩個(gè)方法幫助Done對(duì)象確定當(dāng)前的工作狀態(tài)。下面是WorkerBegin方法的代碼:

  public void WorkerBegin()

  {

  Monitor.Enter(this);

  m_activeThreads++;

  m_started = true;

  Monitor.Pulse(this);

  Monitor.Exit(this);

  }

  WorkerBegin方法首先增加當(dāng)前活動(dòng)線程的數(shù)量,接著設(shè)置m_started標(biāo)記,最后調(diào)用Pulse方法以通知(可能存在的)等待工作線程啟動(dòng)的線程。如前所述,可能等待Done對(duì)象的方法是WaitBegin方法。每處理完一個(gè)URL,WorkerEnd方法會(huì)被調(diào)用:

  ?

  public void WorkerEnd()

  {

  Monitor.Enter(this);

  m_activeThreads--;

  Monitor.Pulse(this);

  Monitor.Exit(this);

  }

  WorkerEnd方法減小m_activeThreads活動(dòng)線程計(jì)數(shù)器,調(diào)用Pulse釋放可能在等待Done對(duì)象的線程--如前所述,可能在等待Done對(duì)象的方法是WaitDone方法。

關(guān)于“如何構(gòu)造C#語言的爬蟲蜘蛛程序”這篇文章的內(nèi)容就介紹到這里,感謝各位的閱讀!相信大家對(duì)“如何構(gòu)造C#語言的爬蟲蜘蛛程序”知識(shí)都有一定的了解,大家如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI