當前位置:編程學習大全網 - 編程語言 - java的多線程有什麽用處?

java的多線程有什麽用處?

很誠實的告訴妳

我轉自網絡

希望對妳有用

這是javaeye上非常經典的關於線程的帖子,寫的非常通俗易懂的,適合任何讀計算機的同學.

線程同步

我們可以在計算機上運行各種計算機軟件程序。每壹個運行的程序可能包括多個獨立運行的線程(Thread)。

線程(Thread)是壹份獨立運行的程序,有自己專用的運行棧。線程有可能和其他線程***享壹些資源,比如,內存,文件,數據庫等。

當多個線程同時讀寫同壹份***享資源的時候,可能會引起沖突。這時候,我們需要引入線程“同步”機制,即各位線程之間要有個先來後到,不能壹窩蜂擠上去搶作壹團。

同步這個詞是從英文synchronize(使同時發生)翻譯過來的。我也不明白為什麽要用這個很容易引起誤解的詞。既然大家都這麽用,咱們也就只好這麽將就。

線程同步的真實意思和字面意思恰好相反。線程同步的真實意思,其實是“排隊”:幾個線程之間要排隊,壹個壹個對***享資源進行操作,而不是同時進行操作。

因此,關於線程同步,需要牢牢記住的第壹點是:線程同步就是線程排隊。同步就是排隊。線程同步的目的就是避免線程“同步”執行。這可真是個無聊的繞口令。

關於線程同步,需要牢牢記住的第二點是 “***享”這兩個字。只有***享資源的讀寫訪問才需要同步。如果不是***享資源,那麽就根本沒有同步的必要。

關於線程同步,需要牢牢記住的第三點是,只有“變量”才需要同步訪問。如果***享的資源是固定不變的,那麽就相當於“常量”,線程同時讀取常量也不需要同步。至少壹個線程修改***享資源,這樣的情況下,線程之間就需要同步。

關於線程同步,需要牢牢記住的第四點是:多個線程訪問***享資源的代碼有可能是同壹份代碼,也有可能是不同的代碼;無論是否執行同壹份代碼,只要這些線程的代碼訪問同壹份可變的***享資源,這些線程之間就需要同步。

為了加深理解,下面舉幾個例子。

有兩個采購員,他們的工作內容是相同的,都是遵循如下的步驟:

(1)到市場上去,尋找並購買有潛力的樣品。

(2)回到公司,寫報告。

這兩個人的工作內容雖然壹樣,他們都需要購買樣品,他們可能買到同樣種類的樣品,但是他們絕對不會購買到同壹件樣品,他們之間沒有任何***享資源。所以,他們可以各自進行自己的工作,互不幹擾。

這兩個采購員就相當於兩個線程;兩個采購員遵循相同的工作步驟,相當於這兩個線程執行同壹段代碼。

下面給這兩個采購員增加壹個工作步驟。采購員需要根據公司的“布告欄”上面公布的信息,安排自己的工作計劃。

這兩個采購員有可能同時走到布告欄的前面,同時觀看布告欄上的信息。這壹點問題都沒有。因為布告欄是只讀的,這兩個采購員誰都不會去修改布告欄上寫的信息。

下面增加壹個角色。壹個辦公室行政人員這個時候,也走到了布告欄前面,準備修改布告欄上的信息。

如果行政人員先到達布告欄,並且正在修改布告欄的內容。兩個采購員這個時候,恰好也到了。這兩個采購員就必須等待行政人員完成修改之後,才能觀看修改後的信息。

如果行政人員到達的時候,兩個采購員已經在觀看布告欄了。那麽行政人員需要等待兩個采購員把當前信息記錄下來之後,才能夠寫上新的信息。

上述這兩種情況,行政人員和采購員對布告欄的訪問就需要進行同步。因為其中壹個線程(行政人員)修改了***享資源(布告欄)。而且我們可以看到,行政人員的工作流程和采購員的工作流程(執行代碼)完全不同,但是由於他們訪問了同壹份可變***享資源(布告欄),所以他們之間需要同步。

同步鎖

前面講了為什麽要線程同步,下面我們就來看如何才能線程同步。

線程同步的基本實現思路還是比較容易理解的。我們可以給***享資源加壹把鎖,這把鎖只有壹把鑰匙。哪個線程獲取了這把鑰匙,才有權利訪問該***享資源。

生活中,我們也可能會遇到這樣的例子。壹些超市的外面提供了壹些自動儲物箱。每個儲物箱都有壹把鎖,壹把鑰匙。人們可以使用那些帶有鑰匙的儲物箱,把東西放到儲物箱裏面,把儲物箱鎖上,然後把鑰匙拿走。這樣,該儲物箱就被鎖住了,其他人不能再訪問這個儲物箱。(當然,真實的儲物箱鑰匙是可以被人拿走復制的,所以不要把貴重物品放在超市的儲物箱裏面。於是很多超市都采用了電子密碼鎖。)

線程同步鎖這個模型看起來很直觀。但是,還有壹個嚴峻的問題沒有解決,這個同步鎖應該加在哪裏?

當然是加在***享資源上了。反應快的讀者壹定會搶先回答。

沒錯,如果可能,我們當然盡量把同步鎖加在***享資源上。壹些比較完善的***享資源,比如,文件系統,數據庫系統等,自身都提供了比較完善的同步鎖機制。我們不用另外給這些資源加鎖,這些資源自己就有鎖。

但是,大部分情況下,我們在代碼中訪問的***享資源都是比較簡單的***享對象。這些對象裏面沒有地方讓我們加鎖。

讀者可能會提出建議:為什麽不在每壹個對象內部都增加壹個新的區域,專門用來加鎖呢?這種設計理論上當然也是可行的。問題在於,線程同步的情況並不是很普遍。如果因為這小概率事件,在所有對象內部都開辟壹塊鎖空間,將會帶來極大的空間浪費。得不償失。

於是,現代的編程語言的設計思路都是把同步鎖加在代碼段上。確切的說,是把同步鎖加在“訪問***享資源的代碼段”上。這壹點壹定要記住,同步鎖是加在代碼段上的。

同步鎖加在代碼段上,就很好地解決了上述的空間浪費問題。但是卻增加了模型的復雜度,也增加了我們的理解難度。

現在我們就來仔細分析“同步鎖加在代碼段上”的線程同步模型。

首先,我們已經解決了同步鎖加在哪裏的問題。我們已經確定,同步鎖不是加在***享資源上,而是加在訪問***享資源的代碼段上。

其次,我們要解決的問題是,我們應該在代碼段上加什麽樣的鎖。這個問題是重點中的重點。這是我們尤其要註意的問題:訪問同壹份***享資源的不同代碼段,應該加上同壹個同步鎖;如果加的是不同的同步鎖,那麽根本就起不到同步的作用,沒有任何意義。

這就是說,同步鎖本身也壹定是多個線程之間的***享對象。

Java語言的synchronized關鍵字

為了加深理解,舉幾個代碼段同步的例子。

不同語言的同步鎖模型都是壹樣的。只是表達方式有些不同。這裏我們以當前最流行的Java語言為例。Java語言裏面用synchronized關鍵字給代碼段加鎖。整個語法形式表現為

synchronized(同步鎖) {

// 訪問***享資源,需要同步的代碼段

}

這裏尤其要註意的就是,同步鎖本身壹定要是***享的對象。

… f1() {

Object lock1 = new Object(); // 產生壹個同步鎖

synchronized(lock1){

// 代碼段 A

// 訪問***享資源 resource1

// 需要同步

}

}

上面這段代碼沒有任何意義。因為那個同步鎖是在函數體內部產生的。每個線程調用這段代碼的時候,都會產生壹個新的同步鎖。那麽多個線程之間,使用的是不同的同步鎖。根本達不到同步的目的。

同步代碼壹定要寫成如下的形式,才有意義。

public static final Object lock1 = new Object();

… f1() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 A

// 訪問***享資源 resource1

// 需要同步

}

妳不壹定要把同步鎖聲明為static或者public,但是妳壹定要保證相關的同步代碼之間,壹定要使用同壹個同步鎖。

講到這裏,妳壹定會好奇,這個同步鎖到底是個什麽東西。為什麽隨便聲明壹個Object對象,就可以作為同步鎖?

在Java裏面,同步鎖的概念就是這樣的。任何壹個Object Reference都可以作為同步鎖。我們可以把Object Reference理解為對象在內存分配系統中的內存地址。因此,要保證同步代碼段之間使用的是同壹個同步鎖,我們就要保證這些同步代碼段的synchronized關鍵字使用的是同壹個Object Reference,同壹個內存地址。這也是為什麽我在前面的代碼中聲明lock1的時候,使用了final關鍵字,這就是為了保證lock1的Object Reference在整個系統運行過程中都保持不變。

壹些求知欲強的讀者可能想要繼續深入了解synchronzied(同步鎖)的實際運行機制。Java虛擬機規範中(妳可以在google用“JVM Spec”等關鍵字進行搜索),有對synchronized關鍵字的詳細解釋。synchronized會編譯成 monitor enter, … monitor exit之類的指令對。Monitor就是實際上的同步鎖。每壹個Object Reference在概念上都對應壹個monitor。

這些實現細節問題,並不是理解同步鎖模型的關鍵。我們繼續看幾個例子,加深對同步鎖模型的理解。

public static final Object lock1 = new Object();

… f1() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 A

// 訪問***享資源 resource1

// 需要同步

}

}

… f2() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 B

// 訪問***享資源 resource1

// 需要同步

}

}

上述的代碼中,代碼段A和代碼段B就是同步的。因為它們使用的是同壹個同步鎖lock1。

如果有10個線程同時執行代碼段A,同時還有20個線程同時執行代碼段B,那麽這30個線程之間都是要進行同步的。

這30個線程都要競爭壹個同步鎖lock1。同壹時刻,只有壹個線程能夠獲得lock1的所有權,只有壹個線程可以執行代碼段A或者代碼段B。其他競爭失敗的線程只能暫停運行,進入到該同步鎖的就緒(Ready)隊列。

每壹個同步鎖下面都掛了幾個線程隊列,包括就緒(Ready)隊列,待召(Waiting)隊列等。比如,lock1對應的就緒隊列就可以叫做lock1 - ready queue。每個隊列裏面都可能有多個暫停運行的線程。

註意,競爭同步鎖失敗的線程進入的是該同步鎖的就緒(Ready)隊列,而不是後面要講述的待召隊列(Waiting Queue,也可以翻譯為等待隊列)。就緒隊列裏面的線程總是時刻準備著競爭同步鎖,時刻準備著運行。而待召隊列裏面的線程則只能壹直等待,直到等到某個信號的通知之後,才能夠轉移到就緒隊列中,準備運行。

成功獲取同步鎖的線程,執行完同步代碼段之後,會釋放同步鎖。該同步鎖的就緒隊列中的其他線程就繼續下壹輪同步鎖的競爭。成功者就可以繼續運行,失敗者還是要乖乖地待在就緒隊列中。

因此,線程同步是非常耗費資源的壹種操作。我們要盡量控制線程同步的代碼段範圍。同步的代碼段範圍越小越好。我們用壹個名詞“同步粒度”來表示同步代碼段的範圍。

同步粒度

在Java語言裏面,我們可以直接把synchronized關鍵字直接加在函數的定義上。

比如。

… synchronized … f1() {

// f1 代碼段

}

這段代碼就等價於

… f1() {

synchronized(this){ // 同步鎖就是對象本身

// f1 代碼段

}

}

同樣的原則適用於靜態(static)函數

比如。

… static synchronized … f1() {

// f1 代碼段

}

這段代碼就等價於

…static … f1() {

synchronized(Class.forName(…)){ // 同步鎖是類定義本身

// f1 代碼段

}

}

但是,我們要盡量避免這種直接把synchronized加在函數定義上的偷懶做法。因為我們要控制同步粒度。同步的代碼段越小越好。synchronized控制的範圍越小越好。

我們不僅要在縮小同步代碼段的長度上下功夫,我們同時還要註意細分同步鎖。

比如,下面的代碼

public static final Object lock1 = new Object();

… f1() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 A

// 訪問***享資源 resource1

// 需要同步

}

}

… f2() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 B

// 訪問***享資源 resource1

// 需要同步

}

}

… f3() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 C

// 訪問***享資源 resource2

// 需要同步

}

}

… f4() {

synchronized(lock1){ // lock1 是公用同步鎖

// 代碼段 D

// 訪問***享資源 resource2

// 需要同步

}

}

上述的4段同步代碼,使用同壹個同步鎖lock1。所有調用4段代碼中任何壹段代碼的線程,都需要競爭同壹個同步鎖lock1。

我們仔細分析壹下,發現這是沒有必要的。

因為f1()的代碼段A和f2()的代碼段B訪問的***享資源是resource1,f3()的代碼段C和f4()的代碼段D訪問的***享資源是resource2,它們沒有必要都競爭同壹個同步鎖lock1。我們可以增加壹個同步鎖lock2。f3()和f4()的代碼可以修改為:

public static final Object lock2 = new Object();

… f3() {

synchronized(lock2){ // lock2 是公用同步鎖

// 代碼段 C

// 訪問***享資源 resource2

// 需要同步

}

}

… f4() {

synchronized(lock2){ // lock2 是公用同步鎖

// 代碼段 D

// 訪問***享資源 resource2

// 需要同步

}

}

這樣,f1()和f2()就會競爭lock1,而f3()和f4()就會競爭lock2。這樣,分開來分別競爭兩個鎖,就可以大大較少同步鎖競爭的概率,從而減少系統的開銷。

信號量

同步鎖模型只是最簡單的同步模型。同壹時刻,只有壹個線程能夠運行同步代碼。

有的時候,我們希望處理更加復雜的同步模型,比如生產者/消費者模型、讀寫同步模型等。這種情況下,同步鎖模型就不夠用了。我們需要壹個新的模型。這就是我們要講述的信號量模型。

信號量模型的工作方式如下:線程在運行的過程中,可以主動停下來,等待某個信號量的通知;這時候,該線程就進入到該信號量的待召(Waiting)隊列當中;等到通知之後,再繼續運行。

很多語言裏面,同步鎖都由專門的對象表示,對象名通常叫Monitor。

同樣,在很多語言中,信號量通常也有專門的對象名來表示,比如,Mutex,Semphore。

信號量模型要比同步鎖模型復雜許多。壹些系統中,信號量甚至可以跨進程進行同步。另外壹些信號量甚至還有計數功能,能夠控制同時運行的線程數。

我們沒有必要考慮那麽復雜的模型。所有那些復雜的模型,都是最基本的模型衍生出來的。只要掌握了最基本的信號量模型——“等待/通知”模型,復雜模型也就迎刃而解了。

我們還是以Java語言為例。Java語言裏面的同步鎖和信號量概念都非常模糊,沒有專門的對象名詞來表示同步鎖和信號量,只有兩個同步鎖相關的關鍵字——volatile和synchronized。

這種模糊雖然導致概念不清,但同時也避免了Monitor、Mutex、Semphore等名詞帶來的種種誤解。我們不必執著於名詞之爭,可以專註於理解實際的運行原理。

在Java語言裏面,任何壹個Object Reference都可以作為同步鎖。同樣的道理,任何壹個Object Reference也可以作為信號量。

Object對象的wait()方法就是等待通知,Object對象的notify()方法就是發出通知。

具體調用方法為

(1)等待某個信號量的通知

public static final Object signal = new Object();

… f1() {

synchronized(singal) { // 首先我們要獲取這個信號量。這個信號量同時也是壹個同步鎖

// 只有成功獲取了signal這個信號量兼同步鎖之後,我們才可能進入這段代碼

signal.wait(); // 這裏要放棄信號量。本線程要進入signal信號量的待召(Waiting)隊列

// 可憐。辛辛苦苦爭取到手的信號量,就這麽被放棄了

// 等到通知之後,從待召(Waiting)隊列轉到就緒(Ready)隊列裏面

// 轉到了就緒隊列中,離CPU核心近了壹步,就有機會繼續執行下面的代碼了。

// 仍然需要把signal同步鎖競爭到手,才能夠真正繼續執行下面的代碼。命苦啊。

}

}

需要註意的是,上述代碼中的signal.wait()的意思。signal.wait()很容易導致誤解。signal.wait()的意思並不是說,signal開始wait,而是說,運行這段代碼的當前線程開始wait這個signal對象,即進入signal對象的待召(Waiting)隊列。

(2)發出某個信號量的通知

… f2() {

synchronized(singal) { // 首先,我們同樣要獲取這個信號量。同時也是壹個同步鎖。

// 只有成功獲取了signal這個信號量兼同步鎖之後,我們才可能進入這段代碼

signal.notify(); // 這裏,我們通知signal的待召隊列中的某個線程。

// 如果某個線程等到了這個通知,那個線程就會轉到就緒隊列中

// 但是本線程仍然繼續擁有signal這個同步鎖,本線程仍然繼續執行

// 嘿嘿,雖然本線程好心通知其他線程,

// 但是,本線程可沒有那麽高風亮節,放棄到手的同步鎖

// 本線程繼續執行下面的代碼

}

}

需要註意的是,signal.notify()的意思。signal.notify()並不是通知signal這個對象本身。而是通知正在等待signal信號量的其他線程。

以上就是Object的wait()和notify()的基本用法。

實際上,wait()還可以定義等待時間,當線程在某信號量的待召隊列中,等到足夠長的時間,就會等無可等,無需再等,自己就從待召隊列轉移到就緒隊列中了。

另外,還有壹個notifyAll()方法,表示通知待召隊列裏面的所有線程。

這些細節問題,並不對大局產生影響。

綠色線程

綠色線程(Green Thread)是壹個相對於操作系統線程(Native Thread)的概念。

操作系統線程(Native Thread)的意思就是,程序裏面的線程會真正映射到操作系統的線程,線程的運行和調度都是由操作系統控制的

綠色線程(Green Thread)的意思是,程序裏面的線程不會真正映射到操作系統的線程,而是由語言運行平臺自身來調度。

當前版本的Python語言的線程就可以映射到操作系統線程。當前版本的Ruby語言的線程就屬於綠色線程,無法映射到操作系統的線程,因此Ruby語言的線程的運行速度比較慢。

難道說,綠色線程要比操作系統線程要慢嗎?當然不是這樣。事實上,情況可能正好相反。Ruby是壹個特殊的例子。線程調度器並不是很成熟。

目前,線程的流行實現模型就是綠色線程。比如,stackless Python,就引入了更加輕量的綠色線程概念。在線程並發編程方面,無論是運行速度還是並發負載上,都優於Python。

另壹個更著名的例子就是ErLang(愛立信公司開發的壹種開源語言)。

ErLang的綠色線程概念非常徹底。ErLang的線程不叫Thread,而是叫做Process。這很容易和進程混淆起來。這裏要註意區分壹下。

ErLang Process之間根本就不需要同步。因為ErLang語言的所有變量都是final的,不允許變量的值發生任何變化。因此根本就不需要同步。

final變量的另壹個好處就是,對象之間不可能出現交叉引用,不可能構成壹種環狀的關聯,對象之間的關聯都是單向的,樹狀的。因此,內存垃圾回收的算法效率也非常高。這就讓ErLang能夠達到Soft Real Time(軟實時)的效果。這對於壹門支持內存垃圾回收的語言來說,可不是壹件容易的事情。

  • 上一篇:單片機式的呼吸燈控制方法
  • 下一篇:emoji 有比心的手勢嗎
  • copyright 2024編程學習大全網