原文地址: https://www.cnblogs.com/duanxz/p/4464178.html
網(wǎng)絡(luò)編程
在tcp應(yīng)用中,server事先在某個(gè)固定端口監(jiān)聽礁苗,client主動(dòng)發(fā)起連接挫以,經(jīng)過三路握手后建立tcp連接查邢。那么對單機(jī)尉姨,其最大并發(fā)tcp連接數(shù)是多少?
如何標(biāo)識一個(gè)TCP連接
在確定最大連接數(shù)之前阱洪,先來看看系統(tǒng)如何標(biāo)識一個(gè)tcp連接。系統(tǒng)用一個(gè)4四元組來唯一標(biāo)識一個(gè)TCP連接:{local ip, local port,remote ip,remote port}菠镇。
client最大tcp連接數(shù)
client每次發(fā)起tcp連接請求時(shí)冗荸,除非綁定端口,通常會(huì)讓系統(tǒng)選取一個(gè)空閑的本地端口(local port)利耍,該端口是獨(dú)占的蚌本,不能和其他tcp連接共享盔粹。tcp端口的數(shù)據(jù)類型是unsigned short,因此本地端口個(gè)數(shù)最大只有65536程癌,端口0有特殊含義舷嗡,不能使用,這樣可用端口最多只有65535嵌莉,所以在全部作為client端的情況下进萄,最大tcp連接數(shù)為65535,這些連接可以連到不同的server ip锐峭。
server最大tcp連接數(shù)
server通常固定在某個(gè)本地端口上監(jiān)聽中鼠,等待client的連接請求。不考慮地址重用(unix的SO_REUSEADDR選項(xiàng))的情況下沿癞,即使server端有多個(gè)ip兜蠕,本地監(jiān)聽端口也是獨(dú)占的,因此server端tcp連接4元組中只有remote ip(也就是client ip)和remote port(客戶端port)是可變的抛寝,因此最大tcp連接為客戶端ip數(shù)×客戶端port數(shù)熊杨,對IPV4,不考慮ip地址分類等因素盗舰,最大tcp連接數(shù)約為2的32次方(ip數(shù))×2的16次方(port數(shù))晶府,也就是server端單機(jī)最大tcp連接數(shù)約為2的48次方。
實(shí)際的tcp連接數(shù)
上面給出的是理論上的單機(jī)最大連接數(shù)钻趋,在實(shí)際環(huán)境中川陆,受到機(jī)器資源、操作系統(tǒng)等的限制蛮位,特別是sever端较沪,其最大并發(fā)tcp連接數(shù)遠(yuǎn)不能達(dá)到理論上限。在unix/linux下限制連接數(shù)的主要因素是內(nèi)存和允許的文件描述符個(gè)數(shù)(每個(gè)tcp連接都要占用一定內(nèi)存失仁,每個(gè)socket就是一個(gè)文件描述符)尸曼,另外1024以下的端口通常為保留端口。在默認(rèn)2.6內(nèi)核配置下萄焦,經(jīng)過試驗(yàn)控轿,每個(gè)socket占用內(nèi)存在15~20k之間。
影響一個(gè)socket占用內(nèi)存的參數(shù)包括:
rmem_max
wmem_max
tcp_rmem
tcp_wmem
tcp_mem
grep skbuff /proc/slabinfo
對server端拂封,通過增加內(nèi)存茬射、修改最大文件描述符個(gè)數(shù)等參數(shù),單機(jī)最大并發(fā)TCP連接數(shù)超過10萬 是沒問題的冒签,國外 Urban Airship 公司在產(chǎn)品環(huán)境中已做到 50 萬并發(fā) 在抛。在實(shí)際應(yīng)用中,對大規(guī)模網(wǎng)絡(luò)應(yīng)用萧恕,還需要考慮C10K 問題刚梭。
原文:
http://wanshi.iteye.com/blog/1256282
http://www.cnblogs.com/Solstice/archive/2011/07/01/2095411.html
http://soft.chinabyte.com/os/285/12349285.shtml
曾幾何時(shí)我們還在尋求網(wǎng)絡(luò)編程中C10K問題的解決方案档悠,但是現(xiàn)在從硬件和操作系統(tǒng)支持來看單臺(tái)服務(wù)器支持上萬并發(fā)連接已經(jīng)沒有多少挑戰(zhàn)性了。
我們先假設(shè)單臺(tái)服務(wù)器最多只能支持萬級并發(fā)連接望浩,其實(shí)對絕大多數(shù)應(yīng)用來說已經(jīng)遠(yuǎn)遠(yuǎn)足夠了辖所,但是對于一些擁有很大用戶基數(shù)的互聯(lián)網(wǎng)公司,往往面臨的并發(fā)連接數(shù)是百萬磨德,千萬缘回,甚至騰訊的上億(注:QQ默認(rèn)用的UDP協(xié)議)。雖然現(xiàn)在的集群典挑,分布式技術(shù)可以為我們將并發(fā)負(fù)載分擔(dān)在多臺(tái)服務(wù)器上酥宴,那我們只需要擴(kuò)展出數(shù)十臺(tái)電腦就可以解決問題,但是我們更希望能更大的挖掘單臺(tái)服務(wù)器的資源您觉,先努力垂直擴(kuò)展拙寡,再進(jìn)行水平擴(kuò)展,這樣可以有效的節(jié)省服務(wù)器相關(guān)的開支(硬件資源琳水,機(jī)房肆糕,運(yùn)維,電力其實(shí)也是一筆不小的開支)在孝。
那么到底一臺(tái)服務(wù)器能夠支持多少TCP并發(fā)連接呢诚啃?
常識一:文件句柄限制
在linux下編寫網(wǎng)絡(luò)服務(wù)器程序的朋友肯定都知道每一個(gè)tcp連接都要占一個(gè)文件描述符,一旦這個(gè)文件描述符使用完了私沮,新的連接到來返回給我們的錯(cuò)誤是“Socket/File:Can't open so many files”始赎。
這時(shí)你需要明白操作系統(tǒng)對可以打開的最大文件數(shù)的限制。
進(jìn)程限制
執(zhí)行 ulimit -n 輸出 1024仔燕,說明對于一個(gè)進(jìn)程而言最多只能打開1024個(gè)文件造垛,所以你要采用此默認(rèn)配置最多也就可以并發(fā)上千個(gè)TCP連接。
臨時(shí)修改:ulimit -n 1000000晰搀,但是這種臨時(shí)修改只對當(dāng)前登錄用戶目前的使用環(huán)境有效五辽,系統(tǒng)重啟或用戶退出后就會(huì)失效。
重啟后失效的修改(不過我在CentOS 6.5下測試厕隧,重啟后未發(fā)現(xiàn)失效):編輯 /etc/security/limits.conf 文件奔脐, 修改后內(nèi)容為
soft nofile 1000000
hard nofile 1000000
永久修改:編輯/etc/rc.local,在其后添加如下內(nèi)容
ulimit -SHn 1000000
全局限制
執(zhí)行 cat /proc/sys/fs/file-nr
輸出: 9344 0 592026吁讨,
分別為:1.已經(jīng)分配的文件句柄數(shù),2.已經(jīng)分配但沒有使用的文件句柄數(shù)峦朗,3.最大文件句柄數(shù)建丧。
但在kernel 2.6版本中第二項(xiàng)的值總為0,這并不是一個(gè)錯(cuò)誤波势,它實(shí)際上意味著已經(jīng)分配的文件描述符無一浪費(fèi)的都已經(jīng)被使用了 翎朱。
我們可以把這個(gè)數(shù)值改大些橄维,用 root 權(quán)限修改 /etc/sysctl.conf 文件:
fs.file-max = 1000000
net.ipv4.ip_conntrack_max = 1000000
net.ipv4.netfilter.ip_conntrack_max = 1000000
常識二:端口號范圍限制?
操作系統(tǒng)上端口號1024以下是系統(tǒng)保留的拴曲,從1024-65535是用戶使用的争舞。由于每個(gè)TCP連接都要占一個(gè)端口號,所以我們最多可以有60000多個(gè)并發(fā)連接澈灼。我想有這種錯(cuò)誤思路朋友不在少數(shù)吧竞川?(其中我過去就一直這么認(rèn)為)
我們來分析一下吧
如何標(biāo)識一個(gè)TCP連接:系統(tǒng)用一個(gè)4四元組來唯一標(biāo)識一個(gè)TCP連接:{local ip, local port,remote ip,remote port}。好吧叁熔,我們拿出《UNIX網(wǎng)絡(luò)編程:卷一》第四章中對accept的講解來看看概念性的東西委乌,第二個(gè)參數(shù)cliaddr代表了客戶端的ip地址和端口號。而我們作為服務(wù)端實(shí)際只使用了bind時(shí)這一個(gè)端口荣回,說明端口號65535并不是并發(fā)量的限制遭贸。
server最大tcp連接數(shù):server通常固定在某個(gè)本地端口上監(jiān)聽,等待client的連接請求心软。不考慮地址重用(unix的SO_REUSEADDR選項(xiàng))的情況下壕吹,即使server端有多個(gè)ip,本地監(jiān)聽端口也是獨(dú)占的删铃,因此server端tcp連接4元組中只有remote ip(也就是client ip)和remote port(客戶端port)是可變的算利,因此最大tcp連接為客戶端ip數(shù)×客戶端port數(shù),對IPV4泳姐,不考慮ip地址分類等因素效拭,最大tcp連接數(shù)約為2的32次方(ip數(shù))×2的16次方(port數(shù)),也就是server端單機(jī)最大tcp連接數(shù)約為2的48次方胖秒。
總結(jié)
TCP/IP 協(xié)議規(guī)定的缎患,只用了2個(gè)字節(jié)表示端口號。容易讓人誤解為1個(gè)server只允許連接65535個(gè)Client阎肝。
typedef struct _NETWORK_ADDRESS_IP
{
USHORT sin_port;//0~65535
ULONG in_addr;
UCHAR sin_zero[8];
} NETWORK_ADDRESS_IP, *PNETWORK_ADDRESS_IP;
(1)其實(shí)65535這個(gè)數(shù)字挤渔,只是決定了服務(wù)器端最多可以擁有65535個(gè)Bind的Socket。也就是說风题,最多可以開65535個(gè)服務(wù)器進(jìn)程判导,但是你要知道這個(gè)能夠連接客戶端的數(shù)量沒有任何關(guān)系,Accept過來的Socket是不需要Bind任何IP地址的沛硅,也沒有端口占用這一說眼刃。作為Server端的Socket本身只負(fù)責(zé)監(jiān)聽和接受連接操作。
(2)TCP協(xié)議里面是用[源IP+源Port+目的IP+目的 Port]來區(qū)別兩個(gè)不同連接,所以連入和連出是兩個(gè)不同的概念摇肌。連出Connect就不錯(cuò)了擂红,需要生成隨機(jī)端口,這個(gè)是有限的連入的話围小, 因SOCKET的分配受內(nèi)存分頁限制昵骤,而連接受限制(WINDOWS)树碱。
(3)所以,千萬不要誤以為1個(gè)server只允許連接65535個(gè)Client变秦。記住成榜,TCP連出受端口限制,連入僅受內(nèi)存限制。
例如:
server蹦玫,IP:192.168.16.254赎婚,Port:8009
Client1:IP:192.168.16.1,Port:2378
Client2:IP:192.168.16.2钳垮,Port:2378
Client1和Client2雖然Port相同惑淳,但是IP不同,所以是不同的連接饺窿。
(4)想讓1個(gè)server并發(fā)高效得連接幾萬個(gè)Client歧焦,需要使用IOCP“完成端口(Completion Port)”的技術(shù)。
詳情請參考文章:http://blog.csdn.net/libaineu2004/article/details/40087167
上面給出的結(jié)論都是理論上的單機(jī)TCP并發(fā)連接數(shù)肚医,實(shí)際上單機(jī)并發(fā)連接數(shù)肯定要受硬件資源(內(nèi)存)绢馍、網(wǎng)絡(luò)資源(帶寬)的限制,至少對我們的需求現(xiàn)在可以做到數(shù)十萬級的并發(fā)了肠套,你的呢舰涌?
這種單臺(tái)機(jī)器10w并發(fā),不考慮內(nèi)存cpu的實(shí)現(xiàn)你稚,主要是程序網(wǎng)絡(luò)模型的選擇瓷耙。項(xiàng)目在Github上有提供https://github.com/yaocoder/HPNetServer
常見設(shè)置
1、修改用戶進(jìn)程可打開文件數(shù)限制
在Linux平臺(tái)上刁赖,無論編寫客戶端程序還是服務(wù)端程序搁痛,在進(jìn)行高并發(fā)TCP連接處理時(shí),最高的并發(fā)數(shù)量都要受到系統(tǒng)對用戶單一進(jìn)程同時(shí)可打開文件數(shù)量的限制(這是因?yàn)橄到y(tǒng)為每個(gè)TCP連接都要?jiǎng)?chuàng)建一個(gè)socket句柄宇弛,每個(gè)socket句柄同時(shí)也是一個(gè)文件句柄)鸡典。可使用ulimit命令查看系統(tǒng)允許當(dāng)前用戶進(jìn)程打開的文件數(shù)限制:
[speng@as4 ~]$ ulimit -n
1024
這表示當(dāng)前用戶的每個(gè)進(jìn)程最多允許同時(shí)打開1024個(gè)文件枪芒,這1024個(gè)文件中還得除去每個(gè)進(jìn)程必然打開的標(biāo)準(zhǔn)輸入彻况,標(biāo)準(zhǔn)輸出,標(biāo)準(zhǔn)錯(cuò)誤舅踪,服務(wù)器監(jiān)聽 socket纽甘,進(jìn)程間通訊的unix域socket等文件,那么剩下的可用于客戶端socket連接的文件數(shù)就只有大概1024-10=1014個(gè)左右硫朦。也就是說缺省情況下贷腕,基于Linux的通訊程序最多允許同時(shí)1014個(gè)TCP并發(fā)連接。
對于想支持更高數(shù)量的TCP并發(fā)連接的通訊處理程序咬展,就必須修改Linux對當(dāng)前用戶的進(jìn)程同時(shí)打開的文件數(shù)量的軟限制(soft limit)和硬限制(hardlimit)泽裳。其中軟限制是指Linux在當(dāng)前系統(tǒng)能夠承受的范圍內(nèi)進(jìn)一步限制用戶同時(shí)打開的文件數(shù);硬限制則是根據(jù)系統(tǒng)硬件資源狀況(主要是系統(tǒng)內(nèi)存)計(jì)算出來的系統(tǒng)最多可同時(shí)打開的文件數(shù)量破婆。通常軟限制小于或等于硬限制涮总。
修改上述限制的最簡單的辦法就是使用ulimit命令:
[speng@as4 ~]$ ulimit -n
上述命令中,在中指定要設(shè)置的單一進(jìn)程允許打開的最大文件數(shù)祷舀。如果系統(tǒng)回顯類似于“Operation notpermitted”之類的話瀑梗,說明上述限制修改失敗,實(shí)際上是因?yàn)樵谥兄付ǖ臄?shù)值超過了Linux系統(tǒng)對該用戶打開文件數(shù)的軟限制或硬限制裳扯。因此抛丽,就需要修改Linux系統(tǒng)對用戶的關(guān)于打開文件數(shù)的軟限制和硬限制。
第一步
饰豺,修改/etc/security/limits.conf文件亿鲜,在文件中添加如下行:
...
# End of file
speng soft nofile 10240
speng hard nofile 10240
root soft nofile 65535
root hard nofile 65535
* soft nofile 65535
* hard nofile 65535
[test@iZwz9e1dh1nweaex8ob5b7Z config]$
其中speng指定了要修改哪個(gè)用戶的打開文件數(shù)限制,可用’*'號表示修改所有用戶的限制冤吨;soft或hard指定要修改軟限制還是硬限制蒿柳;10240則指定了想要修改的新的限制值,即最大打開文件數(shù)(請注意軟限制值要小于或等于硬限制)漩蟆。修改完后保存文件垒探。
第二步
,修改/etc/pam.d/login文件怠李,在文件中添加如下行:
session required /lib/security/pam_limits.so
這是告訴Linux在用戶完成系統(tǒng)登錄后圾叼,應(yīng)該調(diào)用pam_limits.so模塊來設(shè)置系統(tǒng)對該用戶可使用的各種資源數(shù)量的最大限制(包括用戶可打開的最大文件數(shù)限制),而pam_limits.so模塊就會(huì)從/etc/security/limits.conf文件中讀取配置來設(shè)置這些限制值捺癞。修改完后保存此文件夷蚊。
第三步
,查看Linux系統(tǒng)級的最大打開文件數(shù)限制翘簇,使用如下命令:
[speng@as4 ~]$ cat /proc/sys/fs/file-max
12158
這表明這臺(tái)Linux系統(tǒng)最多允許同時(shí)打開(即包含所有用戶打開文件數(shù)總和)12158個(gè)文件撬码,是Linux系統(tǒng)級硬限制,所有用戶級的打開文件數(shù)限制都不應(yīng)超過這個(gè)數(shù)值版保。通常這個(gè)系統(tǒng)級硬限制是Linux系統(tǒng)在啟動(dòng)時(shí)根據(jù)系統(tǒng)硬件資源狀況計(jì)算出來的最佳的最大同時(shí)打開文件數(shù)限制呜笑,如果沒有特殊需要,不應(yīng)該修改此限制彻犁,除非想為用戶級打開文件數(shù)限制設(shè)置超過此限制的值叫胁。修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:
echo 22158 > /proc/sys/fs/file-max
這是讓Linux在啟動(dòng)完成后強(qiáng)行將系統(tǒng)級打開文件數(shù)硬限制設(shè)置為22158汞幢。修改完后保存此文件驼鹅。
完成上述步驟后重啟系統(tǒng),一般情況下就可以將Linux系統(tǒng)對指定用戶的單一進(jìn)程允許同時(shí)打開的最大文件數(shù)限制設(shè)為指定的數(shù)值。如果重啟后用 ulimit-n命令查看用戶可打開文件數(shù)限制仍然低于上述步驟中設(shè)置的最大值输钩,這可能是因?yàn)樵谟脩舻卿浤_本/etc/profile中使用ulimit -n命令已經(jīng)將用戶可同時(shí)打開的文件數(shù)做了限制豺型。由于通過ulimit-n修改系統(tǒng)對用戶可同時(shí)打開文件的最大數(shù)限制時(shí),新修改的值只能小于或等于上次 ulimit-n設(shè)置的值买乃,因此想用此命令增大這個(gè)限制值是不可能的姻氨。所以,如果有上述問題存在剪验,就只能去打開/etc/profile腳本文件肴焊,在文件中查找是否使用了ulimit-n限制了用戶可同時(shí)打開的最大文件數(shù)量,如果找到功戚,則刪除這行命令娶眷,或者將其設(shè)置的值改為合適的值,然后保存文件啸臀,用戶退出并重新登錄系統(tǒng)即可届宠。
通過上述步驟,就為支持高并發(fā)TCP連接處理的通訊處理程序解除關(guān)于打開文件數(shù)量方面的系統(tǒng)限制壳咕。
2席揽、修改網(wǎng)絡(luò)內(nèi)核對TCP連接的有關(guān)限制(參考對比下篇文章“優(yōu)化內(nèi)核參數(shù)”)
在Linux上編寫支持高并發(fā)TCP連接的客戶端通訊處理程序時(shí),有時(shí)會(huì)發(fā)現(xiàn)盡管已經(jīng)解除了系統(tǒng)對用戶同時(shí)打開文件數(shù)的限制谓厘,但仍會(huì)出現(xiàn)并發(fā)TCP連接數(shù)增加到一定數(shù)量時(shí)幌羞,再也無法成功建立新的TCP連接的現(xiàn)象。出現(xiàn)這種現(xiàn)在的原因有多種竟稳。
第一種原因可能是因?yàn)長inux網(wǎng)絡(luò)內(nèi)核對本地端口號范圍有限制属桦。此時(shí),進(jìn)一步分析為什么無法建立TCP連接他爸,會(huì)發(fā)現(xiàn)問題出在connect()調(diào)用返回失敗聂宾,查看系統(tǒng)錯(cuò)誤提示消息是“Can’t assign requestedaddress”。同時(shí)诊笤,如果在此時(shí)用tcpdump工具監(jiān)視網(wǎng)絡(luò)系谐,會(huì)發(fā)現(xiàn)根本沒有TCP連接時(shí)客戶端發(fā)SYN包的網(wǎng)絡(luò)流量。這些情況說明問題在于本地Linux系統(tǒng)內(nèi)核中有限制讨跟。其實(shí)纪他,問題的根本原因在于Linux內(nèi)核的TCP/IP協(xié)議實(shí)現(xiàn)模塊對系統(tǒng)中所有的客戶端TCP連接對應(yīng)的本地端口號的范圍進(jìn)行了限制(例如,內(nèi)核限制本地端口號的范圍為1024~32768之間)晾匠。當(dāng)系統(tǒng)中某一時(shí)刻同時(shí)存在太多的TCP客戶端連接時(shí)茶袒,由于每個(gè)TCP客戶端連接都要占用一個(gè)唯一的本地端口號(此端口號在系統(tǒng)的本地端口號范圍限制中),如果現(xiàn)有的TCP客戶端連接已將所有的本地端口號占滿凉馆,則此時(shí)就無法為新的TCP客戶端連接分配一個(gè)本地端口號了薪寓,因此系統(tǒng)會(huì)在這種情況下在connect()調(diào)用中返回失敗亡资,并將錯(cuò)誤提示消息設(shè)為“Can’t assignrequested address”。有關(guān)這些控制邏輯可以查看Linux內(nèi)核源代碼向叉,以linux2.6內(nèi)核為例锥腻,可以查看tcp_ipv4.c文件中如下函數(shù):
static int tcp_v4_hash_connect(struct sock *sk)
請注意上述函數(shù)中對變量sysctl_local_port_range的訪問控制。變量sysctl_local_port_range的初始化則是在tcp.c文件中的如下函數(shù)中設(shè)置:
void __init tcp_init(void)
內(nèi)核編譯時(shí)默認(rèn)設(shè)置的本地端口號范圍可能太小植康,因此需要修改此本地端口范圍限制旷太。
第一步
展懈,修改/etc/sysctl.conf文件销睁,在文件中添加如下行:
net.ipv4.ip_local_port_range = 1024 65000
這表明將系統(tǒng)對本地端口范圍限制設(shè)置為1024~65000之間。請注意存崖,本地端口范圍的最小值必須大于或等于1024冻记;而端口范圍的最大值則應(yīng)小于或等于65535。修改完后保存此文件来惧。
第二步
冗栗,執(zhí)行sysctl命令:
[speng@as4 ~]$ sysctl -p
如果系統(tǒng)沒有錯(cuò)誤提示,就表明新的本地端口范圍設(shè)置成功供搀。如果按上述端口范圍進(jìn)行設(shè)置隅居,則理論上單獨(dú)一個(gè)進(jìn)程最多可以同時(shí)建立60000多個(gè)TCP客戶端連接。
第二種無法建立TCP連接的原因可能是因?yàn)長inux網(wǎng)絡(luò)內(nèi)核的IP_TABLE防火墻對最大跟蹤的TCP連接數(shù)有限制葛虐。此時(shí)程序會(huì)表現(xiàn)為在 connect()調(diào)用中阻塞胎源,如同死機(jī),如果用tcpdump工具監(jiān)視網(wǎng)絡(luò)屿脐,也會(huì)發(fā)現(xiàn)根本沒有TCP連接時(shí)客戶端發(fā)SYN包的網(wǎng)絡(luò)流量涕蚤。由于 IP_TABLE防火墻在內(nèi)核中會(huì)對每個(gè)TCP連接的狀態(tài)進(jìn)行跟蹤,跟蹤信息將會(huì)放在位于內(nèi)核內(nèi)存中的conntrackdatabase中的诵,這個(gè)數(shù)據(jù)庫的大小有限万栅,當(dāng)系統(tǒng)中存在過多的TCP連接時(shí),數(shù)據(jù)庫容量不足西疤,IP_TABLE無法為新的TCP連接建立跟蹤信息烦粒,于是表現(xiàn)為在connect()調(diào)用中阻塞。此時(shí)就必須修改內(nèi)核對最大跟蹤的TCP連接數(shù)的限制代赁,方法同修改內(nèi)核對本地端口號范圍的限制是類似的:
第一步
扰她,修改/etc/sysctl.conf文件,在文件中添加如下行:
net.ipv4.ip_conntrack_max = 10240
這表明將系統(tǒng)對最大跟蹤的TCP連接數(shù)限制設(shè)置為10240管跺。請注意义黎,此限制值要盡量小,以節(jié)省對內(nèi)核內(nèi)存的占用豁跑。
第二步
廉涕,執(zhí)行sysctl命令:
[speng@as4 ~]$ sysctl -p
如果系統(tǒng)沒有錯(cuò)誤提示泻云,就表明系統(tǒng)對新的最大跟蹤的TCP連接數(shù)限制修改成功。如果按上述參數(shù)進(jìn)行設(shè)置狐蜕,則理論上單獨(dú)一個(gè)進(jìn)程最多可以同時(shí)建立10000多個(gè)TCP客戶端連接宠纯。
3、使用支持高并發(fā)網(wǎng)絡(luò)I/O的編程技術(shù)
在Linux上編寫高并發(fā)TCP連接應(yīng)用程序時(shí)层释,必須使用合適的網(wǎng)絡(luò)I/O技術(shù)和I/O事件分派機(jī)制婆瓜。
可用的I/O技術(shù)有同步I/O,非阻塞式同步I/O(也稱反應(yīng)式I/O)贡羔,以及異步I/O廉白。《BIO,NIO,AIO的理解》
在高TCP并發(fā)的情形下乖寒,如果使用同步I/O猴蹂,這會(huì)嚴(yán)重阻塞程序的運(yùn)轉(zhuǎn),除非為每個(gè)TCP連接的I/O創(chuàng)建一個(gè)線程楣嘁。但是磅轻,過多的線程又會(huì)因系統(tǒng)對線程的調(diào)度造成巨大開銷。因此逐虚,在高TCP并發(fā)的情形下使用同步 I/O是不可取的聋溜,這時(shí)可以考慮使用非阻塞式同步I/O或異步I/O。非阻塞式同步I/O的技術(shù)包括使用select()叭爱,poll()撮躁,epoll等機(jī)制。異步I/O的技術(shù)就是使用AIO涤伐。
從I/O事件分派機(jī)制來看馒胆,使用select()是不合適的,因?yàn)樗С值牟l(fā)連接數(shù)有限(通常在1024個(gè)以內(nèi))凝果。如果考慮性能祝迂,poll()也是不合適的,盡管它可以支持的較高的TCP并發(fā)數(shù)器净,但是由于其采用“輪詢”機(jī)制型雳,當(dāng)并發(fā)數(shù)較高時(shí),其運(yùn)行效率相當(dāng)?shù)蜕胶Γ⒖赡艽嬖贗/O事件分派不均纠俭,導(dǎo)致部分TCP連接上的I/O出現(xiàn)“饑餓”現(xiàn)象。而如果使用epoll或AIO浪慌,則沒有上述問題(早期Linux內(nèi)核的AIO技術(shù)實(shí)現(xiàn)是通過在內(nèi)核中為每個(gè) I/O請求創(chuàng)建一個(gè)線程來實(shí)現(xiàn)的冤荆,這種實(shí)現(xiàn)機(jī)制在高并發(fā)TCP連接的情形下使用其實(shí)也有嚴(yán)重的性能問題。但在最新的Linux內(nèi)核中权纤,AIO的實(shí)現(xiàn)已經(jīng)得到改進(jìn))钓简。
綜上所述乌妒,在開發(fā)支持高并發(fā)TCP連接的Linux應(yīng)用程序時(shí),應(yīng)盡量使用epoll或AIO技術(shù)來實(shí)現(xiàn)并發(fā)的TCP連接上的I/O控制外邓,這將為提升程序?qū)Ω卟l(fā)TCP連接的支持提供有效的I/O保證撤蚊。
推薦配置(把原/etc/sysctl.conf內(nèi)容清掉,把下面內(nèi)容復(fù)制進(jìn)去):
net.ipv4.ip_local_port_range = 1024 65536
net.core.rmem_max=16777216
net.core.wmem_max=16777216
net.ipv4.tcp_rmem=4096 87380 16777216
net.ipv4.tcp_wmem=4096 65536 16777216
net.ipv4.tcp_fin_timeout = 10
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_window_scaling = 0
net.ipv4.tcp_sack = 0
net.core.netdev_max_backlog = 30000
net.ipv4.tcp_no_metrics_save=1
net.core.somaxconn = 262144
net.ipv4.tcp_syncookies = 0
net.ipv4.tcp_max_orphans = 262144
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_synack_retries = 2
net.ipv4.tcp_syn_retries = 2
這個(gè)配置參考于cache服務(wù)器varnish的推薦配置和SunOne 服務(wù)器系統(tǒng)優(yōu)化的推薦配置损话。
varnish調(diào)優(yōu)推薦配置的地址為:http://varnish.projects.linpro.no/wiki/Performance
不過varnish推薦的配置是有問題的侦啸,實(shí)際運(yùn)行表明“net.ipv4.tcp_fin_timeout = 3”的配置會(huì)導(dǎo)致頁面經(jīng)常打不開;并且當(dāng)網(wǎng)友使用的是IE6瀏覽器時(shí)丧枪,訪問網(wǎng)站一段時(shí)間后光涂,所有網(wǎng)頁都會(huì)打不開,重啟瀏覽器后正常豪诲《ソ荩可能是國外的網(wǎng)速快吧,我們國情決定需要調(diào)整“net.ipv4.tcp_fin_timeout = 10”屎篱,在10s的情況下,一切正常(實(shí)際運(yùn)行結(jié)論)葵蒂。
修改完畢后交播,執(zhí)行:
/sbin/sysctl -p /etc/sysctl.conf
/sbin/sysctl -w net.ipv4.route.flush=1
命令生效。為了保險(xiǎn)起見践付,也可以reboot系統(tǒng)秦士。
調(diào)整文件數(shù):
linux系統(tǒng)優(yōu)化完網(wǎng)絡(luò)必須調(diào)高系統(tǒng)允許打開的文件數(shù)才能支持大的并發(fā),默認(rèn)1024是遠(yuǎn)遠(yuǎn)不夠的永高。
執(zhí)行命令:
Shell代碼
echo ulimit -HSn 65536 >> /etc/rc.local
echo ulimit -HSn 65536 >>/root/.bash_profile
ulimit -HSn 65536
備注:
對mysql用戶可同時(shí)打開文件數(shù)設(shè)置為10240個(gè)隧土;
將Linux系統(tǒng)可同時(shí)打開文件數(shù)設(shè)置為1000000個(gè)(一定要大于對用戶的同時(shí)打開文件數(shù)限制);
將Linux系統(tǒng)對最大追蹤的TCP連接數(shù)限制為20000個(gè)(但是命爬,建議設(shè)置為10240曹傀;因?yàn)閷ysql用戶的同時(shí)打開文件數(shù)已經(jīng)限制在10240個(gè);且較小的值可以節(jié)省內(nèi)存)饲宛;
將linux系統(tǒng)端口范圍配置為1024~30000(可以支持60000個(gè)以上連接皆愉,不建議修改;默認(rèn)已經(jīng)支持20000個(gè)以上連接)艇抠;
綜合上述四點(diǎn)幕庐,TCP連接數(shù)限制在10140個(gè)。
這10240個(gè)文件中還得除去每個(gè)進(jìn)程必然打開的標(biāo)準(zhǔn)輸入家淤,標(biāo)準(zhǔn)輸出异剥,標(biāo)準(zhǔn)錯(cuò)誤,服務(wù)器監(jiān)聽 socket絮重,進(jìn)程間通訊的unix域socket等文件冤寿。
因此错妖,當(dāng)需要對TCP連接數(shù)進(jìn)行調(diào)整時(shí)只需要調(diào)整ulimit參數(shù)。
Linux下查看tcp連接數(shù)及狀態(tài)命令:
netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'