當前位置:編程學習大全網 - 編程語言 - linux python connect 對同壹個端口可以建立多少個

linux python connect 對同壹個端口可以建立多少個

如果是tcp client用同壹個本地端口去連不同的兩個服務器ip,連第二個時就會提示端口已被占用。但服務器的監聽端口,可以accept多次,建立多個socket;我的問題是服務器壹個端口為什麽能建立多個連接而客戶端卻不行呢?

TCP server 可以,TCP client 也可以。壹個套接字只能建立壹個連接,無論對於 server 還是 client。

註意報錯消息是:

[Errno 106] (EISCONN) Transport endpoint is already connected

man 2 connect 說得很清楚了:

Generally, connection-based protocol sockets may successfully connect() only once; connectionless protocol sockets may use connect() multiple times to change their association.

就是說,TCP 套接字最多只能調用 connect 壹次。那麽,妳的監聽套接字調用 connect 了幾次?

來點有意思的。

壹個套接字不能連接兩次,並不代表壹個本地地址不能用兩次,看!****加粗文字**加粗文字**

>>> import socket

>>> s = socket.socket()

# since Linux 3.9, 見 man 7 socket

>>> s.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEPORT, 1)

>>> s2 = socket.socket()

>>> s2.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEPORT, 1)

>>> s.bind(('127.0.0.1', 12345))

>>> s2.bind(('127.0.0.1', 12345))

# 都可以使用同壹本地地址來連接哦

>>> s.connect(('127.0.0.1', 80))

>>> s2.connect(('127.0.0.1', 4321))

>>> netstat -npt | grep 12345

(Not all processes could be identified, non-owned process info

will not be shown, you would have to be root to see it all.)

tcp 0 0 127.0.0.1:4321 127.0.0.1:12345 ESTABLISHED 18284/python3

tcp 0 0 127.0.0.1:12345 127.0.0.1:4321 ESTABLISHED 4568/python3

tcp 0 0 127.0.0.1:80 127.0.0.1:12345 ESTABLISHED -

tcp 0 0 127.0.0.1:12345 127.0.0.1:80 ESTABLISHED 4568/python3

妳們這些有女友的都弱爆了啦 :-(

更新:大家來玩 TCP: 壹個人也可以建立 TCP 連接呢 - 依雲's Blog

2015年08月19日回答 · 2015年08月19日更新

依雲21.1k 聲望

答案對人有幫助,有參考價值1答案沒幫助,是錯誤的答案,答非所問

內核是以壹個(著名的)5元信息組來標識不同的socket的:源地址、源端口、目的地址、目的端口、協議號。任何壹個不同,都不叫“同壹個socket”。

2015年08月20日回答

sched_yield80 聲望

答案對人有幫助,有參考價值0答案沒幫助,是錯誤的答案,答非所問

首先,TCP鏈接是可靠的端對端的鏈接,每個TCP鏈接由4個要素組成:2組IP地址(本地和遠端),2組端口地址(本地和遠端)。其中如果需要跟端口信息綁定時,都需要調用bind函數,如果server端針對2個同樣的IP、端口組進行同樣的綁定時,第2次同樣是不成功的。

2015年08月16日回答

charliecui2.4k 聲望

答案對人有幫助,有參考價值0答案沒幫助,是錯誤的答案,答非所問

有個相關的問題: ftp的數據傳輸,服務器會用20端口主動連接客戶端,如果兩個客戶端同時在壹下載東西,那ftp 服務器能用20端口去連接兩個ip ?(這時ftp的服務器其實是tcp裏的客戶端)

2015年08月16日回答

編輯

hyanleo163 聲望

+1

能啊,看我的實驗。

依雲 · 2015年08月19日

不管是服務器還是客戶端,建立TCP鏈接,同壹個端口都只能使用壹次。

這句話其實是**錯的**!

對於TCP協議,要成功建立壹個新的鏈接,需要保證新鏈接四個要素組合體的唯壹性:客戶端的IP、客戶端的port、服務器端的IP、服務器端的port。也就是說,服務器端的同壹個IP和port,可以和同壹個客戶端的多個不同端口成功建立多個TCP鏈接(與多個不同的客戶端當然也可以),只要保證Server IP + Server Port + Client IP + Client Port這個組合唯壹不重復即可。

> netstat -a -n -p tcp |grep 9999

tcp 0 0 127.0.0.1:51113 127.0.0.1:9999 ESTABLISHED 2701/nc

tcp 0 0 127.0.0.1:51119 127.0.0.1:9999 ESTABLISHED 2752/nc

上述結果127.0.0.1:9999中9999端口成功建立兩個TCP鏈接,也就可以理解。

**客戶端**發送TCP鏈接請求的端口,也就是後續建立TCP鏈接使用的端口,所以壹旦TCP鏈接建立,端口就被占用,無法再建立第二個鏈接。

而**服務器端**有兩類端口:偵聽端口 和 後續建立TCP鏈接的端口。其中偵聽端口只負責偵聽客戶端發送來的TCP鏈接請求,不用作建立TCP鏈接使用,壹旦偵聽到有客戶端發送TCP鏈接請求,就分配壹個端口(壹般隨機分配,且不會重復)用於建立TCP鏈接,而不是所說的服務器壹個端口能建立多個連接。

上述描述也比較片面,客戶端如何請求及建立鏈接,服務器端如何偵聽及是否分配新隨機端口等...應該都可以在應用層面進行控制,所以上述描述可以作為建立TCP鏈接的壹種方式,僅供參考。

壹些英文的參考:

How do multiple clients connect simultaneously to one port, say 80, on a server?

TCP : two different sockets sharing a port?

------------------------------------------------------------------------------------

提升linux下tcp服務器並發連接數限制 2012-12-02 20:30:23

1、修改用戶進程可打開文件數限制

在Linux平臺上,無論編寫客戶端程序還是服務端程序,在進行高並發TCP連接處理時,最高的並發數量都要受到系統對用戶單壹進程同時可打開文件數量的限制(這是因為系統為每個TCP連接都要創建壹個socket句柄,每個socket句柄同時也是壹個文件句柄)。可使用ulimit命令查看系統允許當前用戶進程打開的文件數限制:

[speng@as4 ~]$ ulimit -n

1024

這表示當前用戶的每個進程最多允許同時打開1024個文件,這1024個文件中還得除去每個進程必然打開的標準輸入,標準輸出,標準錯誤,服務器監聽 socket,進程間通訊的unix域socket等文件,那麽剩下的可用於客戶端socket連接的文件數就只有大概1024-10=1014個左右。也就是說缺省情況下,基於Linux的通訊程序最多允許同時1014個TCP並發連接。

對於想支持更高數量的TCP並發連接的通訊處理程序,就必須修改Linux對當前用戶的進程同時打開的文件數量的軟限制(soft limit)和硬限制(hardlimit)。其中軟限制是指Linux在當前系統能夠承受的範圍內進壹步限制用戶同時打開的文件數;硬限制則是根據系統硬件資源狀況(主要是系統內存)計算出來的系統最多可同時打開的文件數量。通常軟限制小於或等於硬限制。

修改上述限制的最簡單的辦法就是使用ulimit命令:

[speng@as4 ~]$ ulimit -n

上述命令中,在中指定要設置的單壹進程允許打開的最大文件數。如果系統回顯類似於“Operation notpermitted”之類的話,說明上述限制修改失敗,實際上是因為在中指定的數值超過了Linux系統對該用戶打開文件數的軟限制或硬限制。因此,就需要修改Linux系統對用戶的關於打開文件數的軟限制和硬限制。

第壹步,修改/etc/security/limits.conf文件,在文件中添加如下行:

speng soft nofile 10240

speng hard nofile 10240

其中speng指定了要修改哪個用戶的打開文件數限制,可用'*'號表示修改所有用戶的限制;soft或hard指定要修改軟限制還是硬限制;10240則指定了想要修改的新的限制值,即最大打開文件數(請註意軟限制值要小於或等於硬限制)。修改完後保存文件。

第二步,修改/etc/pam.d/login文件,在文件中添加如下行:

session required /lib/security/pam_limits.so

這是告訴Linux在用戶完成系統登錄後,應該調用pam_limits.so模塊來設置系統對該用戶可使用的各種資源數量的最大限制(包括用戶可打開的最大文件數限制),而pam_limits.so模塊就會從/etc/security/limits.conf文件中讀取配置來設置這些限制值。修改完後保存此文件。

第三步,查看Linux系統級的最大打開文件數限制,使用如下命令:

[speng@as4 ~]$ cat /proc/sys/fs/file-max

12158

這表明這臺Linux系統最多允許同時打開(即包含所有用戶打開文件數總和)12158個文件,是Linux系統級硬限制,所有用戶級的打開文件數限制都不應超過這個數值。通常這個系統級硬限制是Linux系統在啟動時根據系統硬件資源狀況計算出來的最佳的最大同時打開文件數限制,如果沒有特殊需要,不應該修改此限制,除非想為用戶級打開文件數限制設置超過此限制的值。修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:

echo 22158 > /proc/sys/fs/file-max

這是讓Linux在啟動完成後強行將系統級打開文件數硬限制設置為22158。修改完後保存此文件。

完成上述步驟後重啟系統,壹般情況下就可以將Linux系統對指定用戶的單壹進程允許同時打開的最大文件數限制設為指定的數值。如果重啟後用 ulimit- n命令查看用戶可打開文件數限制仍然低於上述步驟中設置的最大值,這可能是因為在用戶登錄腳本/etc/profile中使用ulimit-n命令已經將用戶可同時打開的文件數做了限制。由於通過ulimit-n修改系統對用戶可同時打開文件的最大數限制時,新修改的值只能小於或等於上次ulimit-n 設置的值,因此想用此命令增大這個限制值是不可能的。所以,如果有上述問題存在,就只能去打開/etc/profile腳本文件,在文件中查找是否使用了 ulimit-n限制了用戶可同時打開的最大文件數量,如果找到,則刪除這行命令,或者將其設置的值改為合適的值,然後保存文件,用戶退出並重新登錄系統即可。

通過上述步驟,就為支持高並發TCP連接處理的通訊處理程序解除關於打開文件數量方面的系統限制。

2、修改網絡內核對TCP連接的有關限制

在Linux上編寫支持高並發TCP連接的客戶端通訊處理程序時,有時會發現盡管已經解除了系統對用戶同時打開文件數的限制,但仍會出現並發TCP連接數增加到壹定數量時,再也無法成功建立新的TCP連接的現象。出現這種現在的原因有多種。

第壹種原因可能是因為Linux網絡內核對本地端口號範圍有限制。此時,進壹步分析為什麽無法建立TCP連接,會發現問題出在connect()調用返回失敗,查看系統錯誤提示消息是“Can't assign requestedaddress”。同時,如果在此時用tcpdump工具監視網絡,會發現根本沒有TCP連接時客戶端發SYN包的網絡流量。這些情況說明問題在於本地Linux系統內核中有限制。其實,問題的根本原因在於Linux內核的TCP/IP協議實現模塊對系統中所有的客戶端TCP連接對應的本地端口號的範圍進行了限制(例如,內核限制本地端口號的範圍為1024~32768之間)。當系統中某壹時刻同時存在太多的TCP客戶端連接時,由於每個TCP客戶端連接都要占用壹個唯壹的本地端口號(此端口號在系統的本地端口號範圍限制中),如果現有的TCP客戶端連接已將所有的本地端口號占滿,則此時就無法為新的TCP客戶端連接分配壹個本地端口號了,因此系統會在這種情況下在connect()調用中返回失敗,並將錯誤提示消息設為“Can't assignrequested address”。有關這些控制邏輯可以查看Linux內核源代碼,以linux2.6內核為例,可以查看tcp_ipv4.c文件中如下函數:

static int tcp_v4_hash_connect(struct sock *sk)

請註意上述函數中對變量sysctl_local_port_range的訪問控制。變量sysctl_local_port_range的初始化則是在tcp.c文件中的如下函數中設置:

void __init tcp_init(void)

內核編譯時默認設置的本地端口號範圍可能太小,因此需要修改此本地端口範圍限制。

第壹步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_local_port_range = 1024 65000

這表明將系統對本地端口範圍限制設置為1024~65000之間。請註意,本地端口範圍的最小值必須大於或等於1024;而端口範圍的最大值則應小於或等於65535。修改完後保存此文件。

第二步,執行sysctl命令:

[speng@as4 ~]$ sysctl -p

如果系統沒有錯誤提示,就表明新的本地端口範圍設置成功。如果按上述端口範圍進行設置,則理論上單獨壹個進程最多可以同時建立60000多個TCP客戶端連接。

第二種無法建立TCP連接的原因可能是因為Linux網絡內核的IP_TABLE防火墻對最大跟蹤的TCP連接數有限制。此時程序會表現為在 connect()調用中阻塞,如同死機,如果用tcpdump工具監視網絡,也會發現根本沒有TCP連接時客戶端發SYN包的網絡流量。由於 IP_TABLE防火墻在內核中會對每個TCP連接的狀態進行跟蹤,跟蹤信息將會放在位於內核內存中的conntrackdatabase中,這個數據庫的大小有限,當系統中存在過多的TCP連接時,數據庫容量不足,IP_TABLE無法為新的TCP連接建立跟蹤信息,於是表現為在connect()調用中阻塞。此時就必須修改內核對最大跟蹤的TCP連接數的限制,方法同修改內核對本地端口號範圍的限制是類似的:

第壹步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_conntrack_max = 10240

這表明將系統對最大跟蹤的TCP連接數限制設置為10240。請註意,此限制值要盡量小,以節省對內核內存的占用。

第二步,執行sysctl命令:

[speng@as4 ~]$ sysctl -p

如果系統沒有錯誤提示,就表明系統對新的最大跟蹤的TCP連接數限制修改成功。如果按上述參數進行設置,則理論上單獨壹個進程最多可以同時建立10000多個TCP客戶端連接。

3、使用支持高並發網絡I/O的編程技術

在Linux上編寫高並發TCP連接應用程序時,必須使用合適的網絡I/O技術和I/O事件分派機制。

可用的I/O技術有同步I/O,非阻塞式同步I/O(也稱反應式I/O),以及異步I/O。在高TCP並發的情形下,如果使用同步I/O,這會嚴重阻塞程序的運轉,除非為每個TCP連接的I/O創建壹個線程。但是,過多的線程又會因系統對線程的調度造成巨大開銷。因此,在高TCP並發的情形下使用同步I /O 是不可取的,這時可以考慮使用非阻塞式同步I/O或異步I/O。非阻塞式同步I/O的技術包括使用select(),poll(),epoll等機制。異步I/O的技術就是使用AIO。

從I/O事件分派機制來看,使用select()是不合適的,因為它所支持的並發連接數有限(通常在1024個以內)。如果考慮性能,poll()也是不合適的,盡管它可以支持的較高的TCP並發數,但是由於其采用“輪詢”機制,當並發數較高時,其運行效率相當低,並可能存在I/O事件分派不均,導致部分 TCP連接上的I/O出現“饑餓”現象。而如果使用epoll或AIO,則沒有上述問題(早期 Linux內核的AIO技術實現是通過在內核中為每個I/O請求創建壹個線程來實現的,這種實現機制在高並發TCP連接的情形下使用其實也有嚴重的性能問題。但在最新的Linux內核中,AIO的實現已經得到改進)。

綜上所述,在開發支持高並發TCP連接的Linux應用程序時,應盡量使用epoll或AIO技術來實現並發的TCP連接上的I/O控制,這將為提升程序對高並發TCP連接的支持提供有效的I/O保證。

  • 上一篇:數控機床編程怎麽寫3000字?
  • 下一篇:美國市場營銷專業怎麽樣?
  • copyright 2024編程學習大全網