溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

go語言如何實現并發(fā)網絡爬蟲

發(fā)布時間:2023-03-28 16:13:38 來源:億速云 閱讀:120 作者:iii 欄目:開發(fā)技術

本篇內容主要講解“go語言如何實現并發(fā)網絡爬蟲”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“go語言如何實現并發(fā)網絡爬蟲”吧!

首先我的思路是看一下爬蟲的串行實現,然后通過兩個并發(fā)實現:一個使用鎖,另一個使用通道

這里不涉及從頁面中提取URL的邏輯(請查看Go框架colly的內容)。網絡抓取只是作為一個例子來考察Go的并發(fā)性。

我們想從我們的起始頁中提取所有的URL,將這些URL保存到一個列表中,然后對列表中的每個URL做同樣的處理。頁面的圖很可能是循環(huán)的,所以我們需要記住哪些頁面已經經歷了這個過程(或者在使用并發(fā)時,處于這個過程的中間)。

go語言如何實現并發(fā)網絡爬蟲

串行爬蟲首先檢查我們是否已經在獲取地圖中獲取了該頁面。如果我們沒有,那么它就在頁面上找到的每個URL上調用自己。注意:map 在Go中是引用類型,所以每次調用都會得到相同的 map。

func Serial(url string, fetcher Fetcher, fetched map[string]bool) {
    if fetched[url] {
        return
    }
    fetched[url] = true
    urls, err := fetcher.Fetch(url)
    if err != nil {
        return
    }
    for _, u := range urls {
        Serial(u, fetcher, fetched)
    }
    return
}
func main() {
    Serial(<page>, fetcher, make(map[string]bool))
}

fetcher將包含提取URLs到列表中的邏輯(也可以對頁面的內容做一些處理)。這個實現不是本講的重點。

由于網絡速度很慢,我們可以使用并發(fā)性來加快這個速度。為了實現這一點,我們需要使用鎖(在讀/寫時鎖定已經獲取的頁面地圖)和 waitgroup(等待所有的goroutine完成)。

已經獲取的頁面的 map 只能由持有鎖的線程訪問,因為我們不希望多個線程開始處理同一個URL。如果在一個線程的讀和寫之間,另一個線程在第一個線程更新之前從 map 上得到了相同的讀數,這就可能發(fā)生。

我們定義了fetchState結構,將 map 和鎖組合在一起,并定義了一個方法來初始化它。

爬蟲程序的開始是一樣的,檢查我們是否已經獲取了URL,但這次使用sync.Mutex來鎖定 map,如前所述。然后,對于頁面上發(fā)現的每個URL,我們在一個新的goroutine中啟動相同的函數。在啟動之前,我們將WaitGroup的計數器增加1,done.Wait()在退出之前等待所有的抓取工作完成。

func ConcurrentMutex(url string, fetcher Fetcher, f *fetchState) {
    f.mu.Lock()
    already := f.fetched[url]
    f.fetched[url] = true
    f.mu.Unlock()
    if already {
        return
    }
    urls, err := fetcher.Fetch(url)
    if err != nil {
        return
    }
    var done sync.WaitGroup
    for _, u := range urls {
        done.Add(1)
        go func(u string) {
            defer done.Done()
            ConcurrentMutex(u, fetcher, f)
        }(u)
    }
    done.Wait()
    return
}
type fetchState struct {
    mu      sync.Mutex
    fetched map[string]bool
}
func makeState() *fetchState {
    f := &fetchState{}
    f.fetched = make(map[string]bool)
    return f
}
func main() {
    ConcurrentMutex(<page>, fetcher, makeState())
}

注意:

[1] done.Done()的調用被推遲了,以防我們在其中一個調用中出現錯誤,在這種情況下,我們仍然要遞減WaitGroup的計數器。

[2] 這段代碼的一個問題是,我們沒有限制線程的數量。但值得一提的是,goroutines比其他語言的線程更輕量級,并且由Go運行時管理,系統(tǒng)調用更少。

[3] 我們把字符串u傳給立即函數,以便制作一個URL的副本,然后才把它送到goroutine,因為變量u在外層for循環(huán)中發(fā)生了變化。要理解這樣做的必要性,一個更簡單的例子是,在沒有WaitGroup的情況下。

func checkThisOut() {
  s := "abc"
  sec := time.Second
  go func() {time.Sleep(sec); fmt.Printf("s = %v\n", s)}()
  go func(u string) {time.Sleep(sec); fmt.Printf("u = %v\n", u)}(s)
  s = "def"
  time.Sleep(2 * sec)
}
// this prints out: u = abc, s = def

[4] 我們可以運行內置的數據競賽檢測器,通過運行go run -race .來幫助檢測競賽條件。它在這個例子中非常有效。

下一個并發(fā)版本在線程之間完全不共享內存!嗯,這并不準確。我們只是不會自己同步訪問共享數據。相反,我們使用一個通道在goroutine之間進行通信。

在這個最后的版本中,我們有一個主函數在主線程上運行。只有這個函數能看到 map 并從通道中讀取。channel ,像 map 一樣,也是引用類型。所以這里只有一個通道。

在啟動時,我們將第一個URL寫到通道上。這是在一個goroutine中完成的,因為向一個沒有緩沖的通道的寫入會導致goroutine暫停,直到該值被另一個goroutine讀取。

我們在一個for循環(huán)中從通道中讀取URL的列表(從一個沒有緩沖的通道中讀取也會阻塞)。然后,我們以與之前的實現類似的方式瀏覽該列表。通過使用一個計數器,一旦沒有更多的工作者,這個循環(huán)就會中斷。

工作者獲取URL的列表,將它們傳遞給通道。如果出現錯誤,會傳遞一個空列表,這樣從通道讀取的for循環(huán)最終會退出(計數器的設置方式是,我們等待從每個goroutine讀取一個值)。

func ConcurrentChannel(url string, fetcher Fetcher) {
    ch := make(chan []string)
    go func() {
        ch <- []string{url}
    }()
    master(ch, fetcher)
}
func master(ch chan []string, fetcher Fetcher) {
    n := 1
    fetched := make(map[string]bool)
    for urls := range ch {
        for _, u := range urls {
            if fetched[u] == false {
                fetched[u] = true
                n += 1
                go worker(u, ch, fetcher)
            }
        }
        n -= 1
        if n == 0 {
            break
        }
    }
}
func worker(url string, ch chan []string, fetcher Fetcher) {
    urls, err := fetcher.Fetch(url)
    if err != nil {
        ch <- []string{}
    } else {
        ch <- urls
    }
}

到此,相信大家對“go語言如何實現并發(fā)網絡爬蟲”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續(xù)學習!

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI