91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

為什么不要在nodejs中阻塞event loop

發布時間:2021-10-19 15:08:22 來源:億速云 閱讀:155 作者:iii 欄目:編程語言

本篇內容主要講解“為什么不要在nodejs中阻塞event loop”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“為什么不要在nodejs中阻塞event loop”吧!

簡介

我們知道event loop是nodejs中事件處理的基礎,event loop中主要運行的初始化和callback事件。除了event loop之外,nodejs中還有Worker Pool用來處理一些耗時的操作,比如I/O操作。

nodejs高效運行的秘訣就是使用異步IO從而可以使用少量的線程來處理大量的客戶端請求。

而同時,因為使用了少量的線程,所以我們在編寫nodejs程序的時候,一定要特別小心。

event loop和worker pool

在nodejs中有兩種類型的線程。第一類線程就是Event Loop也可以被稱為主線程,第二類就是一個Worker Pool中的n個Workers線程。

如果這兩種線程執行callback花費了太多的時間,那么我們就可以認為這兩個線程被阻塞了。

線程阻塞第一方面會影響程序的性能,因為某些線程被阻塞,就會導致系統資源的占用。因為總的資源是有限的,這樣就會導致處理其他業務的資源變少,從而影響程序的總體性能。

第二方面,如果經常會有線程阻塞的情況,很有可能被惡意攻擊者發起DOS攻擊,導致正常業務無法進行。

nodejs使用的是事件驅動的框架,Event Loop主要用來處理為各種事件注冊的callback,同時也負責處理非阻塞的異步請求,比如網絡I/O。

而由libuv實現的Worker Pool主要對外暴露了提交task的API,從而用來處理一些比較昂貴的task任務。這些任務包括CPU密集性操作和一些阻塞型IO操作。

而nodejs本身就有很多模塊使用的是Worker Pool。

比如IO密集型操作:

DNS模塊中的dns.lookup(), dns.lookupService()。

和除了fs.FSWatcher()和 顯式同步的文件系統的API之外,其他多有的File system模塊都是使用的Worker Pool。

CPU密集型操作:

Crypto模塊:crypto.pbkdf2(), crypto.scrypt(), crypto.randomBytes(), crypto.randomFill(), crypto.generateKeyPair()。

Zlib模塊:除了顯示同步的API之外,其他的API都是用的是worker pool。

一般來說使用Worker Pool的模塊就是這些了,除此之外,你還可以使用nodejs的C++ add-on來自行提交任務到Worker Pool。

event loop和worker pool中的queue

在之前的文件中,我們講到了event loop中使用queue來存儲event的callback,實際上這種描述是不準確的。

event loop實際上維護的是一個文件描述符集合。這些文件描述符使用的是操作系統內核的 epoll (Linux), kqueue (OSX), event ports (Solaris), 或者 IOCP (Windows)來對事件進行監聽。

當操作系統檢測到事件準備好之后,event loop就會調用event所綁定的callback事件,最終執行callback。

相反的,worker pool就真的是保存了要執行的任務隊列,這些任務隊列中的任務由各個worker來執行。當執行完畢之后,Woker將會通知Event Loop該任務已經執行完畢。

阻塞event loop

因為nodejs中的線程有限,如果某個線程被阻塞,就可能會影響到整個應用程序的執行,所以我們在程序設計的過程中,一定要小心的考慮event loop和worker pool,避免阻塞他們。

event loop主要關注的是用戶的連接和響應用戶的請求,如果event loop被阻塞,那么用戶的請求將會得不到及時響應。

因為event loop主要執行的是callback,所以,我們的callback執行時間一定要短。

event loop的時間復雜度

時間復雜度一般用在判斷一個算法的運行速度上,這里我們也可以借助時間復雜度這個概念來分析一下event loop中的callback。

如果所有的callback中的時間復雜度都是一個常量的話,那么我們可以保證所有的callback都可以很公平的被執行。

但是如果有些callback的時間復雜度是變化的,那么就需要我們仔細考慮了。

app.get('/constant-time', (req, res) => {
  res.sendStatus(200);
});

先看一個常量時間復雜度的情況,上面的例子中我們直接設置了respose的status,是一個常量時間操作。

app.get('/countToN', (req, res) => {
  let n = req.query.n;

  // n iterations before giving someone else a turn
  for (let i = 0; i < n; i++) {
    console.log(`Iter ${i}`);
  }

  res.sendStatus(200);
});

上面的例子是一個O(n)的時間復雜度,根據request中傳入的n的不同,我們可以得到不同的執行時間。

app.get('/countToN2', (req, res) => {
  let n = req.query.n;

  // n^2 iterations before giving someone else a turn
  for (let i = 0; i < n; i++) {
    for (let j = 0; j < n; j++) {
      console.log(`Iter ${i}.${j}`);
    }
  }

  res.sendStatus(200);
});

上面的例子是一個O(n^2)的時間復雜度。

這種情況應該怎么處理呢?首先我們需要估算出系統能夠承受的響應極限值,并且設定用戶傳入的參數極限值,如果用戶傳入的數據太長,超出了我們的處理范圍,則可以直接從用戶輸入端進行限制,從而保證我們的程序的正常運行。

Event Loop中不推薦使用的Node.js核心模塊

在nodejs中的核心模塊中,有一些方法是同步的阻塞API,使用起來開銷比較大,比如壓縮,加密,同步IO,子進程等等。

這些API的目的是供我們在REPL環境中使用的,我們不應該直接在服務器端程序中使用他們。

有哪些不推薦在server端使用的API呢?

  • Encryption: crypto.randomBytes (同步版本) crypto.randomFillSync crypto.pbkdf2Sync

  • Compression: zlib.inflateSync zlib.deflateSync

  • File system: 不要使用fs的同步API

  • Child process: child_process.spawnSync child_process.execSync child_process.execFileSync

partitioning 或者 offloading

為了不阻塞event loop,同時給其他event一些運行機會,我們實際上有兩種解決辦法,那就是partitioning和offloading。

partitioning就是分而治之,把一個長的任務,分成幾塊,每次執行一塊,同時給其他的event一些運行時間,從而不再阻塞event loop。

舉個例子:

for (let i = 0; i < n; i++)
  sum += i;
let avg = sum / n;
console.log('avg: ' + avg);

比如我們要計算n個數的平均數。上面的例子中我們的時間復雜度是O(n)。

function asyncAvg(n, avgCB) {
  // Save ongoing sum in JS closure.
  var sum = 0;
  function help(i, cb) {
    sum += i;
    if (i == n) {
      cb(sum);
      return;
    }

    // "Asynchronous recursion".
    // Schedule next operation asynchronously.
    setImmediate(help.bind(null, i+1, cb));
  }

  // Start the helper, with CB to call avgCB.
  help(1, function(sum){
      var avg = sum/n;
      avgCB(avg);
  });
}

asyncAvg(n, function(avg){
  console.log('avg of 1-n: ' + avg);
});

這里我們用到了setImmediate,將sum的任務分解成一步一步的。雖然asyncAvg需要執行很多次,但是每一次的event loop都可以保證不被阻塞。

partitioning雖然邏輯簡單,但是對于一些大型的計算任務來說,并不合適。并且partitioning本身還是運行在event loop中的,它并沒有享受到多核系統帶來的優勢。

這個時候我們就需要將任務offloading到worker Pool中。

使用Worker Pool有兩種方式,第一種就是使用nodejs自帶的Worker Pool,我們可以自行開發C++ addon或者node-webworker-threads。

第二種方式就是自行創建Worker Pool,我們可以使用Child Process 或者 Cluster來實現。

當然offloading也有缺點,它的最大缺點就是和Event Loop的交互損失。

V8引擎的限制

nodejs是運行在V8引擎上的,通常來說V8引擎已經足夠優秀足夠快了,但是還是存在兩個例外,那就是正則表達式和JSON操作。

REDOS正則表達式DOS攻擊

正則表達式有什么問題呢?正則表達式有一個悲觀回溯的問題。

什么是悲觀回溯呢?

我們舉個例子,假如大家對正則表達式已經很熟悉了。

假如我們使用/^(x*)y$/ 來和字符串xxxxxxy來進行匹配。

匹配之后第一個分組(也就是括號里面的匹配值)是xxxxxx。

如果我們把正則表達式改寫為 /^(x*)xy$/ 再來和字符串xxxxxxy來進行匹配。 匹配的結果就是xxxxx。

這個過程是怎么樣的呢?

首先(x*)會盡可能的匹配更多的x,知道遇到字符y。 這時候(x*)已經匹配了6個x。

接著正則表達式繼續執行(x*)之后的xy,發現不能匹配,這時候(x*)需要從已經匹配的6個x中,吐出一個x,然后重新執行正則表達式中的xy,發現能夠匹配,正則表達式結束。

這個過程就是一個回溯的過程。

如果正則表達式寫的不好,那么就有可能會出現悲觀回溯。

還是上面的例子,但是這次我們用/^(x*)y$/ 來和字符串xxxxxx來進行匹配。

按照上面的流程,我們知道正則表達式需要進行6次回溯,最后匹配失敗。

考慮一些極端的情況,可能會導致回溯一個非常大的次數,從而導致CPU占用率飆升。

我們稱正則表達式的DOS攻擊為REDOS。

舉個nodejs中REDOS的例子:

app.get('/redos-me', (req, res) => {
  let filePath = req.query.filePath;

  // REDOS
  if (filePath.match(/(\/.+)+$/)) {
    console.log('valid path');
  }
  else {
    console.log('invalid path');
  }

  res.sendStatus(200);
});

上面的callback中,我們本意是想匹配 /a/b/c這樣的路徑。但是如果用戶輸入filePath=///.../\n,假如有100個/,最后跟著換行符。

那么將會導致正則表達式的悲觀回溯。因為.表示的是匹配除換行符 \n 之外的任何單字符。但是我們只到最后才發現不能夠匹配,所以產生了REDOS攻擊。

如何避免REDOS攻擊呢?

一方面有一些現成的正則表達式模塊,我們可以直接使用,比如safe-regex,rxxr2和node-re2等。

一方面可以到www.regexlib.com網站上查找要使用的正則表達式規則,這些規則是經過驗證的,可以減少自己編寫正則表達式的失誤。

JSON DOS攻擊

通常我們會使用JSON.parse 和 JSON.stringify 這兩個JSON常用的操作,但是這兩個操作的時間是和輸入的JSON長度相關的。

舉個例子:

var obj = { a: 1 };
var niter = 20;

var before, str, pos, res, took;

for (var i = 0; i < niter; i++) {
  obj = { obj1: obj, obj2: obj }; // Doubles in size each iter
}

before = process.hrtime();
str = JSON.stringify(obj);
took = process.hrtime(before);
console.log('JSON.stringify took ' + took);

before = process.hrtime();
pos = str.indexOf('nomatch');
took = process.hrtime(before);
console.log('Pure indexof took ' + took);

before = process.hrtime();
res = JSON.parse(str);
took = process.hrtime(before);
console.log('JSON.parse took ' + took);

上面的例子中我們對obj進行解析操作,當然這個obj比較簡單,如果用戶傳入了一個超大的json文件,那么就會導致event loop的阻塞。

解決辦法就是限制用戶的輸入長度。或者使用異步的JSON API:比如JSONStream和Big-Friendly JSON。

阻塞Worker Pool

nodejs的理念就是用最小的線程來處理最大的客戶連接。上面我們也講過了要把復雜的操作放到Worker Pool中來借助線程池的優勢來運行。

但是線程池中的線程個數也是有限的。如果某一個線程執行了一個long run task,那么就等于線程池中少了一個worker線程。

惡意攻擊者實際上是可以抓住系統的這個弱點,來實施DOS攻擊。

所以對Worker Pool中long run task的最優解決辦法就是partitioning。從而讓所有的任務都有平等的執行機會。

當然,如果你可以很清楚的區分short task和long run task,那么我們實際上可以分別構造不同的worker Pool來分別為不同的task任務類型服務。

到此,相信大家對“為什么不要在nodejs中阻塞event loop”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宁德市| 剑川县| 全州县| 苏尼特左旗| 库尔勒市| 慈溪市| 衢州市| 阿拉善右旗| 顺义区| 宁强县| 双鸭山市| 运城市| 临泽县| 罗定市| 肃宁县| 竹溪县| 汉沽区| 黄石市| 沅陵县| 新邵县| 资中县| 衡南县| 民权县| 彭泽县| 上饶市| 鄂伦春自治旗| 仪征市| 永康市| 吉木乃县| 石泉县| 星子县| 嘉定区| 巩留县| 阳西县| 科技| 衡山县| 麻栗坡县| 祁门县| 隆回县| 宾川县| 太谷县|