91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Linux高性能網絡IO和Reactor模型的示例分析

發布時間:2021-06-30 14:03:38 來源:億速云 閱讀:249 作者:小新 欄目:開發技術

小編給大家分享一下Linux高性能網絡IO和Reactor模型的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

目錄
  • 一、基本概念介紹

  • 二、網絡IO的讀寫過程

  • 三、Linux五種網絡IO模型

    • 3.1、阻塞式I/O (blocking IO)

    • 3.2、非阻塞式I/O (nonblocking IO)

    • 3.3、多路復用I/O (IO multiplexing)

    • 3.4、信號驅動式I/O (SIGIO)

    • 3.5、異步IO (POSIX的aio_系列函數)

  • 四、多路復用IO深入理解一波

    • 4.1、select

    • 4.2、epoll

    • 4.3、epoll相比select的優點

    • 4.4、關于epoll的IO模型是同步異步的疑問

  • 五、Reactor模型

    • 5.1、相關概念介紹

    • 5.2、Reactor的一般流程

    • 5.3、單線程 + Reactor

    • 5.4、多線程 + Reactor

    • 5.5、多線程 + 多個Reactor

  • 六、Proactor模型的一般流程

    • 6.1、Proactor和Reactor的區別

一、基本概念介紹

  • 進程(線程)切換:所有系統都有調度進程的能力,它可以掛起一個當前正在運行的進程,并恢復之前掛起的進程

  • 進程(線程)的阻塞:運行中的進程,有時會等待其他事件的執行完成,比如等待鎖,請求I/O的讀寫;進程在等待過程會被系統自動執行阻塞,此時進程不占用CPU

  • 文件描述符:在Linux,文件描述符是一個用于表述指向文件引用的抽象化概念,它是一個非負整數。當程序打開一個現有文件或者創建一個新文件時,內核向進程返回一個文件描述符

  • linux信號處理:Linux進程運行中可以接受來自系統或者進程的信號值,然后根據信號值去運行相應捕捉函數;信號相當于是硬件中斷的軟件模擬

在零拷貝機制篇章已介紹過 用戶空間和內核空間和緩沖區,這里就省略了

二、網絡IO的讀寫過程

  • 當在用戶空間發起對socket套接字的讀操作時,會導致上下文切換,用戶進程阻塞(R1)等待網絡數據流到來,從網卡復制到內核;(R2)然后從內核緩沖區向用戶進程緩沖區復制。此時進程切換恢復,處理拿到的數據

  • 這里我們給socket讀操作的第一階段起個別名R1,第二階段稱為R2

  • 當在用戶空間發起對socket的send操作時,導致上下文切換,用戶進程阻塞等待(1)數據從用戶進程緩沖區復制到內核緩沖區。數據copy完成,此時進程切換恢復

三、Linux五種網絡IO模型

3.1、阻塞式I/O (blocking IO)

ssize_t recvfrom(int sockfd,void *buf,size_t len,unsigned int flags, struct sockaddr *from,socket_t *fromlen);

Linux高性能網絡IO和Reactor模型的示例分析

  • 最基礎的I/O模型就是阻塞I/O模型,也是最簡單的模型。所有的操作都是順序執行的

  • 阻塞IO模型中,用戶空間的應用程序執行一個系統調用(recvform),會導致應用程序被阻塞,直到內核緩沖區的數據準備好,并且將數據從內核復制到用戶進程。最后進程才被系統喚醒處理數據

  • 在R1、R2連續兩個階段,整個進程都被阻塞

3.2、非阻塞式I/O (nonblocking IO)

Linux高性能網絡IO和Reactor模型的示例分析

  • 非阻塞IO也是一種同步IO。它是基于輪詢(polling)機制實現,在這種模型中,套接字是以非阻塞的形式打開的。就是說I/O操作不會立即完成,但是I/O操作會返回一個錯誤代碼(EWOULDBLOCK),提示操作未完成

  • 輪詢檢查內核數據,如果數據未準備好,則返回EWOULDBLOCK。進程再繼續發起recvfrom調用,當然你可以暫停去做其他事

  • 直到內核數據準備好,再拷貝數據到用戶空間,然后進程拿到非錯誤碼數據,接著進行數據處理。需要注意,拷貝數據整個過程,進程仍然是屬于阻塞的狀態

  • 進程在R2階段阻塞,雖然在R1階段沒有被阻塞,但是需要不斷輪詢

3.3、多路復用I/O (IO multiplexing)

Linux高性能網絡IO和Reactor模型的示例分析

  • 一般后端服務都會存在大量的socket連接,如果一次能查詢多個套接字的讀寫狀態,若有任意一個準備好,那就去處理它,效率會高很多。這就是“I/O多路復用”,多路是指多個socket套接字,復用是指復用同一個進程

  • linux提供了select、poll、epoll等多路復用I/O的實現方式

  • select或poll、epoll是阻塞調用

  • 與阻塞IO不同,select不會等到socket數據全部到達再處理,而是有了一部分socket數據準備好就會恢復用戶進程來處理。怎么知道有一部分數據在內核準備好了呢?答案:交給了系統系統處理吧

  • 進程在R1、R2階段也是阻塞;不過在R1階段有個技巧,在多進程、多線程編程的環境下,我們可以只分配一個進程(線程)去阻塞調用select,其他線程不就可以解放了嗎

3.4、信號驅動式I/O (SIGIO)

Linux高性能網絡IO和Reactor模型的示例分析

  • 需要提供一個信號捕捉函數,并和socket套接字關聯;發起sigaction調用之后進程就能解放去處理其他事

  • 當數據在內核準備好后,進程會收到一個SIGIO信號,繼而中斷去運行信號捕捉函數,調用recvfrom把數據從內核讀取到用戶空間,再處理數據

  • 可以看出用戶進程是不會阻塞在R1階段,但R2還是會阻塞等待

3.5、異步IO (POSIX的aio_系列函數)

Linux高性能網絡IO和Reactor模型的示例分析

  • 相對同步IO,異步IO在用戶進程發起異步讀(aio_read)系統調用之后,無論內核緩沖區數據是否準備好,都不會阻塞當前進程;在aio_read系統調用返回后進程就可以處理其他邏輯

  • socket數據在內核就緒時,系統直接把數據從內核復制到用戶空間,然后再使用信號通知用戶進程

  • R1、R2兩階段時進程都是非阻塞的

四、多路復用IO深入理解一波

4.1、select

int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);

1)使用copy_from_user從用戶空間拷貝fd_set到內核空間

2)注冊回調函數__pollwait

3)遍歷所有fd,調用其對應的poll方法(對于socket,這個poll方法是sock_poll,sock_poll根據情況會調用到tcp_poll,udp_poll或者datagram_poll)

4)以tcp_poll為例,其核心實現就是__pollwait,也就是上面注冊的回調函數

5)__pollwait的主要工作就是把current(當前進程)掛到設備的等待隊列中,不同的設備有不同的等待隊列,對于tcp_poll來說,其等待隊列是sk->sk_sleep(注意把進程掛到等待隊列中并不代表進程已經睡眠了)。在設備收到一條消息(網絡設備)或填寫完文件數據(磁盤設備)后,會喚醒設備等待隊列上睡眠的進程,這時current便被喚醒了

6)poll方法返回時會返回一個描述讀寫操作是否就緒的mask掩碼,根據這個mask掩碼給fd_set賦值

7)如果遍歷完所有的fd,還沒有返回一個可讀寫的mask掩碼,則會調用schedule_timeout是調用select的進程(也就是current)進入睡眠

8) 當設備驅動發生自身資源可讀寫后,會喚醒其等待隊列上睡眠的進程。如果超過一定的超時時間(timeout指定),還是沒人喚醒,則調用select的進程會重新被喚醒獲得CPU,進而重新遍歷fd,判斷有沒有就緒的fd

9)把fd_set從內核空間拷貝到用戶空間

select的缺點:

  • 每次調用select,都需要把fd集合從用戶態拷貝到內核態,這個開銷在fd很多時會很大

  • 同時每次調用select都需要在內核遍歷傳遞進來的所有fd,這個開銷在fd很多時也很大

  • select支持的文件描述符數量太小了,默認是1024

4.2、epoll

int epoll_create(int size);  
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);  
int epoll_wait(int epfd, struct epoll_event *events,int maxevents, int timeout);
  • 調用epoll_create,會在內核cache里建個紅黑樹用于存儲以后epoll_ctl傳來的socket,同時也會再建立一個rdllist雙向鏈表用于存儲準備就緒的事件。當epoll_wait調用時,僅查看這個rdllist雙向鏈表數據即可

  • epoll_ctl在向epoll對象中添加、修改、刪除事件時,是在rbr紅黑樹中操作的,非常快

  • 添加到epoll中的事件會與設備(如網卡)建立回調關系,設備上相應事件的發生時會調用回調方法,把事件加進rdllist雙向鏈表中;這個回調方法在內核中叫做ep_poll_callback

epoll的兩種觸發模式:

epoll有EPOLLLT和EPOLLET兩種觸發模式,LT是默認的模式,ET是“高速”模式(只支持no-block socket)

  • LT(水平觸發)模式下,只要這個文件描述符還有數據可讀,每次epoll_wait都會觸發它的讀事件

  • ET(邊緣觸發)模式下,檢測到有I/O事件時,通過 epoll_wait 調用會得到有事件通知的文件描述符,對于文件描述符,如可讀,則必須將該文件描述符一直讀到空(或者返回EWOULDBLOCK),否則下次的epoll_wait不會觸發該事件

4.3、epoll相比select的優點

解決select三個缺點:

  • 對于第一個缺點:epoll的解決方案在epoll_ctl函數中。每次注冊新的事件到epoll句柄中時(在epoll_ctl中指定EPOLL_CTL_ADD),會把所有的fd拷貝進內核,而不是在epoll_wait的時候重復拷貝。epoll保證了每個fd在整個過程中只會拷貝一次(epoll_wait不需要復制)

  • 對于第二個缺點:epoll為每個fd指定一個回調函數,當設備就緒,喚醒等待隊列上的等待者時,就會調用這個回調函數,而這個回調函數會把就緒的fd加入一個就緒鏈表。epoll_wait的工作實際上就是在這個就緒鏈表中查看有沒有就緒的fd(不需要遍歷)

  • 對于第三個缺點:epoll沒有這個限制,它所支持的FD上限是最大可以打開文件的數目,這個數字一般遠大于2048,舉個例子,在1GB內存的機器上大約是10萬左右,一般來說這個數目和系統內存關系很大

epoll的高性能:

  • epoll使用了紅黑樹來保存需要監聽的文件描述符事件,epoll_ctl增刪改操作快速

  • epoll不需要遍歷就能獲取就緒fd,直接返回就緒鏈表即可

  • linux2.6 之后使用了mmap技術,數據不在需要從內核復制到用戶空間,零拷貝

4.4、關于epoll的IO模型是同步異步的疑問

概念定義:

  • 同步I/O操作:導致請求進程阻塞,直到I/O操作完成

  • 異步I/O操作:不導致請求進程阻塞,異步只用處理I/O操作完成后的通知,并不主動讀寫數據,由系統內核完成數據的讀寫

  • 阻塞,非阻塞:進程/線程要訪問的數據是否就緒,進程/線程是否需要等待

異步IO的概念是要求無阻塞I/O調用。前面有介紹到I/O操作分兩階段:R1等待數據準備好。R2從內核到進程拷貝數據。雖然epoll在2.6內核之后采用mmap機制,使得其在R2階段不需要復制,但是它在R1還是阻塞的。因此歸類到同步IO

五、Reactor模型

Reactor的中心思想是將所有要處理的I/O事件注冊到一個中心I/O多路復用器上,同時主線程/進程阻塞在多路復用器上;一旦有I/O事件到來或是準備就緒,多路復用器返回,并將事先注冊的相應I/O事件分發到對應的處理器中

5.1、相關概念介紹

  • 事件:就是狀態;比如:讀就緒事件指的是我們可以從內核讀取數據的狀態

  • 事件分離器:一般會把事件的等待發生交給epoll、select;而事件的到來是隨機,異步的,所以需要循環調用epoll,在框架里對應封裝起來的模塊就是事件分離器(簡單理解為對epoll封裝)

  • 事件處理器:事件發生后需要進程或線程去處理,這個處理者就是事件處理器,一般和事件分離器是不同的線程

5.2、Reactor的一般流程

1)應用程序在事件分離器注冊讀寫就緒事件和讀寫就緒事件處理器

2)事件分離器等待讀寫就緒事件發生

3)讀寫就緒事件發生,激活事件分離器,分離器調用讀寫就緒事件處理器

4)事件處理器先從內核把數據讀取到用戶空間,然后再處理數據

Linux高性能網絡IO和Reactor模型的示例分析

5.3、單線程 + Reactor

Linux高性能網絡IO和Reactor模型的示例分析

5.4、多線程 + Reactor

Linux高性能網絡IO和Reactor模型的示例分析

5.5、多線程 + 多個Reactor

Linux高性能網絡IO和Reactor模型的示例分析

六、Proactor模型的一般流程

1)應用程序在事件分離器注冊讀完成事件和讀完成事件處理器,并向系統發出異步讀請求

2)事件分離器等待讀事件的完成

3)在分離器等待過程中,系統利用并行的內核線程執行實際的讀操作,并將數據復制進程緩沖區,最后通知事件分離器讀完成到來

4)事件分離器監聽到讀完成事件,激活讀完成事件的處理器

5)讀完成事件處理器直接處理用戶進程緩沖區中的數據

Linux高性能網絡IO和Reactor模型的示例分析

6.1、Proactor和Reactor的區別

  • Proactor是基于異步I/O的概念,而Reactor一般則是基于多路復用I/O的概念

  • Proactor不需要把數據從內核復制到用戶空間,這步由系統完成

以上是“Linux高性能網絡IO和Reactor模型的示例分析”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大石桥市| 通渭县| 如东县| 郑州市| 五家渠市| 晴隆县| 龙陵县| 襄樊市| 灵武市| 合山市| 吉林省| 河源市| 北安市| 巴里| 孝昌县| 正宁县| 托克托县| 通山县| 财经| 金湖县| 尉氏县| 建水县| 家居| 宝坻区| 来安县| 原阳县| 汨罗市| 台中市| 柏乡县| 柳河县| 凤阳县| 大宁县| 凉城县| 嵩明县| 昆明市| 阳春市| 启东市| 元氏县| 泸定县| 青州市| 收藏|