91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

NodeJS爬蟲的示例分析

發布時間:2021-08-19 09:14:52 來源:億速云 閱讀:149 作者:小新 欄目:web開發

小編給大家分享一下NodeJS爬蟲的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

 request 庫

request 是一個輕量級的 http 庫,功能十分強大且使用簡單。可以使用它實現 Http 的請求,并且支持 HTTP 認證, 自定請求頭等。下面對 request 庫中一部分功能進行介紹。

安裝 request 模塊如下:

npm install request

在安裝好 request 后,即可進行使用,下面利用 request 請求一下百度的網頁。

const req = require('request');
req('http://www.baidu.com', (error, response, body) => {
 if (!error && response.statusCode == 200) {
 console.log(body)
 }
})

在沒有設置 options 參數時,request 方法默認是 get 請求。而我喜歡利用 request 對象的具體方法,使用如下:

req.get({
 url: 'http://www.baidu.com'
},(err, res, body) => {
 if (!err && res.statusCode == 200) {
 console.log(body)
 }
});

然而很多時候,直接去請求一個網址所獲取的 html 源碼,往往得不到我們需要的信息。一般情況下,需要考慮到請求頭和網頁編碼。

網頁的請求頭網頁的編碼

下面介紹在請求的時候如何添加網頁請求頭以及設置正確的編碼。

req.get({
 url : url,
 headers: {
  "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36",
  "Host" : "www.zhihu.com",
  "Upgrade-Insecure-Requests" : "1"
 },
 encoding : 'utf-8'
}, (err, res, body)=>{
 if(!err)
  console.log(body);
})

設置 options 參數, 添加 headers 屬性即可實現請求頭的設置;添加 encoding 屬性即可設置網頁的編碼。需要注意的是,若 encoding:null ,那么 get 請求所獲取的內容則是一個 Buffer 對象,即 body 是一個 Buffer 對象。

上面介紹的功能足矣滿足后面的所需了

 cheerio 庫

cheerio 是一款服務器端的 Jquery,以輕、快、簡單易學等特點被開發者喜愛。有 Jquery 的基礎后再來學習 cheerio 庫非常輕松。它能夠快速定位到網頁中的元素,其規則和 Jquery 定位元素的方法是一樣的;它也能以一種非常方便的形式修改 html 中的元素內容,以及獲取它們的數據。下面主要針對 cheerio 快速定位網頁中的元素,以及獲取它們的內容進行介紹。

首先安裝 cheerio 庫

npm install cheerio

下面先給出一段代碼,再對代碼進行解釋 cheerio 庫的用法。對博客園首頁進行分析,然后提取每一頁中文章的標題。

首先對博客園首頁進行分析。如下圖:

NodeJS爬蟲的示例分析

對 html 源代碼進行分析后,首先通過 .post_item 獲取所有標題,接著對每一個 .post_item 進行分析,使用 a.titlelnk 即可匹配每個標題的 a 標簽。下面通過代碼進行實現。

const req = require('request');
const cheerio = require('cheerio');

req.get({
 url: 'https://www.cnblogs.com/'
 }, (err, res, body) => {
 if (!err && res.statusCode == 200) {
  let cnblogHtmlStr = body;
  let $ = cheerio.load(cnblogHtmlStr);
  $('.post_item').each((index, ele) => {
  let title = $(ele).find('a.titlelnk');
  let titleText = title.text();
  let titletUrl = title.attr('href');
  console.log(titleText, titletUrl);
  });
 }
 });

當然,cheerio 庫也支持鏈式調用,上面的代碼也可改寫成:

let cnblogHtmlStr = body;
let $ = cheerio.load(cnblogHtmlStr);
let titles = $('.post_item').find('a.titlelnk');
titles.each((index, ele) => {
 let titleText = $(ele).text();
 let titletUrl = $(ele).attr('href');
 console.log(titleText, titletUrl);

上面的代碼非常簡單,就不再用文字進行贅述了。下面總結一點自己認為比較重要的幾點。

使用 find() 方法獲取的節點集合 A,若再次以 A 集合中的元素為根節點定位它的子節點以及獲取子元素的內容與屬性,需對 A 集合中的子元素進行 $(A[i]) 包裝,如上面的$(ele) 一樣。在上面代碼中使用 $(ele) ,其實還可以使用 $(this) 但是由于我使用的是 es6 的箭頭函數,因此改變了 each 方法中回調函數的 this 指針,因此,我使用 $(ele); cheerio 庫也支持鏈式調用,如上面的 $('.post_item').find('a.titlelnk') ,需要注意的是,cheerio 對象 A 調用方法 find(),如果 A 是一個集合,那么 A 集合中的每一個子元素都調用 find() 方法,并放回一個結果結合。如果 A 調用 text() ,那么 A 集合中的每一個子元素都調用 text() 并返回一個字符串,該字符串是所有子元素內容的合并(直接合并,沒有分隔符)。

最后在總結一些我比較常用的方法。

first() last() children([selector]): 該方法和 find 類似,只不過該方法只搜索子節點,而 find 搜索整個后代節點。

糗事百科爬蟲

通過上面對 requestcheerio 類庫的介紹,下面利用這兩個類庫對糗事百科的頁面進行爬取。

1、在項目目錄中,新建 httpHelper.js 文件,通過 url 獲取糗事百科的網頁源碼,代碼如下:

//爬蟲
const req = require('request');

function getHtml(url){
 return new Promise((resolve, reject) => {
  req.get({
   url : url,
   headers: {
    "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36",
    "Referer" : "https://www.qiushibaike.com/"
   },
   encoding : 'utf-8'
  }, (err, res, body)=>{
   if(err) reject(err);
   else resolve(body);
  })
 });
}
exports.getHtml = getHtml;

2、在項目目錄中,新建一個 Splider.js 文件,分析糗事百科的網頁代碼,提取自己需要的信息,并且建立一個邏輯通過更改 url 的 id 來爬取不同頁面的數據。

const cheerio = require('cheerio');
const httpHelper = require('./httpHelper');
function getQBJok(htmlStr){
 let $ = cheerio.load(htmlStr);
 let jokList = $('#content-left').children('div');
 let rst = [];
 jokList.each((i, item)=>{
  let node = $(item);
  let titleNode = node.find('h3');
  let title = titleNode ? titleNode.text().trim() : '匿名用戶';
  let content = node.find('.content span').text().trim();
  let likeNumber = node.find('i[class=number]').text().trim();
  rst.push({
   title : title,
   content : content,
   likeNumber : likeNumber
  });
 });
 return rst;
}
async function splider(index = 1){
 let url = `https://www.qiushibaike.com/8hr/page/${index}/`;
 let htmlStr = await httpHelper.getHtml(url);
 let rst = getQBJok(htmlStr);
 return rst;
}
splider(1);

在獲取糗事百科網頁信息的時候,首先在瀏覽器中對源碼進行分析,定位到自己所需要標簽,然后提取標簽的文本或者屬性值,這樣就完成了網頁的解析。

Splider.js 文件入口是 splider 方法,首先根據傳入該方法的 index 索引,構造糗事百科的 url,接著獲取該 url 的網頁源碼,最后將獲取的源碼傳入 getQBJok 方法,進行解析,本文只解析每條文本笑話的作者、內容以及喜歡個數。

直接運行 Splider.js 文件,即可爬取第一頁的笑話信息。然后可以更改 splider 方法的參數,實現抓取不同頁面的信息。

在上面已有代碼的基礎上,使用 koavue2.0 搭建一個瀏覽文本的頁面,效果如下:

NodeJS爬蟲的示例分析

項目運行依賴 node v7.6.0 以上, 首先從 Github 上面克隆整個項目。

git clone https://github.com/StartAction/SpliderQB.git

克隆之后,進入項目目錄,運行下面命令即可。

node app.js

以上是“NodeJS爬蟲的示例分析”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

土默特左旗| 叙永县| 香格里拉县| 溧阳市| 阳山县| 广州市| 铁岭市| 宝坻区| 揭阳市| 镇赉县| 宜章县| 承德县| 中江县| 喀喇沁旗| 抚州市| 海兴县| 龙陵县| 土默特右旗| 定兴县| 桐乡市| 遂平县| 略阳县| 喀喇| 星子县| 岳阳市| 广州市| 卓尼县| 苗栗县| 都安| 西贡区| 土默特右旗| 开化县| 读书| 秦皇岛市| 镇沅| 白河县| 湟中县| 岳池县| 蒙山县| 梅河口市| 卓尼县|