91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Chrome+Puppeteer+Node.js爬取網站的方法

發布時間:2020-08-21 14:20:04 來源:億速云 閱讀:370 作者:小新 欄目:web開發

這篇文章將為大家詳細講解有關Chrome+Puppeteer+Node.js爬取網站的方法,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

我們將學到什么?

在本教程中,您將學習如何使用 JavaScript 自動化和清理 web 。要做到這一點,我們將使用 Puppeteer 。Puppeteer是一個允許我們控制無頭Chrome 的 Node 庫 API。Headless Chrome是一種在不真實運行 Chrome 的情況下運行 Chrome 瀏覽器的方法。

【視頻教程推薦:nodejs視頻教程 】

如果這一切都沒有意義,您真正需要知道的是,我們將編寫 JavaScript 代碼,使 Google Chrome 實現自動化。

開始之前

開始之前,您需要在計算機上安裝 Node 8+。您可以在此處進行安裝。確保選擇「當前」版本 8+ 版本。

如果您以前從未使用過 Node 并想學習,請查看:學習 Node JS 3 種最佳在線 Node JS 課程

安裝完 Node 后,創建一個新的項目文件夾并安裝 Puppeteer。 Puppeteer 附帶了 Chromium 的最新版本,該版本可以與 API 一起使用:

npm install --save puppeteer

例 #1 — 截圖

安裝完 Puppeteer 之后,我們將首先介紹一個簡單的示例。此示例來自Puppeteer 文檔(進行了少量更改)。我們將通過代碼逐步介紹對您訪問的網站如何截圖。

首先,創建一個名為test.js的文件,然后復制以下代碼:

const puppeteer = require('puppeteer');

async function getPic() {
  const browser = await puppeteer.launch();
  const page = await browser.newPage();
  await page.goto('https://google.com');
  await page.screenshot({path: 'google.png'});

  await browser.close();
}

getPic();

讓我們逐行瀏覽這個例子。

  • 第1行: 我們需要我們先前安裝的 Puppeteer 依賴項
  • 第3-10行:這是我們的主函數getPic()。該函數將保存我們所有的自動化代碼。
  • 第12行:在第12行上,我們調用getPic()函數。

需要注意的是,getPic()函數是一個異步函數,并利用了新的ES 2017async/await功能。由于這個函數是異步的,所以當調用時它返回一個Promise。當Async函數最終返回值時,Promise將被解析(如果存在錯誤,則Reject)。

由于我們使用的是async函數,因此我們可以使用await表達式,該表達式將暫停函數執行并等待Promise解析后再繼續。 如果現在所有這些都沒有意義,那也沒關系。隨著我們繼續學習教程,它將變得更加清晰。

現在,我們概述了主函數,讓我們深入了解其內部功能:

  • 第4行:
const browser = await puppeteer.launch();

這是我們實際啟動 puppeteer 的地方。實際上,我們正在啟動 Chrome 實例,并將其設置為等于我們新創建的browser變量。由于我們使用了await關鍵字,因此該函數將在此處暫停,直到Promise解析(直到我們成功創建 Chrome 實例或出錯)為止。

  • 第5行:
const page = await browser.newPage();

在這里,我們在自動瀏覽器中創建一個新頁面。我們等待新頁面打開并將其保存到我們的page變量中。

  • 第6行:
await page.goto('https://google.com');

使用我們在代碼的最后一行中創建的page,現在可以告訴page導航到URL。在此示例中,導航到 google。我們的代碼將暫停,直到頁面加載完畢。

  • 第7行:
await page.screenshot({path: 'google.png'});

現在,我們告訴 Puppeteer 截取當前頁面的屏幕。screenshot()方法將自定義的.png屏幕截圖的保存位置的對象作為參數。同樣,我們使用了await關鍵字,因此在執行操作時我們的代碼會暫停。

  • 第9行:
await browser.close();

最后,我們到了getPic()函數的結尾,并且關閉了browser

運行示例

您可以使用 Node 運行上面的示例代碼:

node test.js

這是生成的屏幕截圖:

Chrome+Puppeteer+Node.js爬取網站的方法
太棒了!為了增加樂趣(并簡化調試),我們可以不以無頭方式運行代碼。

這到底是什么意思?自己嘗試一下,看看吧。更改代碼的第4行從:

const browser = await puppeteer.launch();

改為:

const browser = await puppeteer.launch({headless: false});

然后使用 Node 再次運行:

node test.js

太酷了吧?當我們使用{headless:false}運行時,您可以真實看到 Google Chrome 按照您的代碼工作。

在繼續之前,我們將對這段代碼做最后一件事。還記得我們的屏幕截圖有點偏離中心嗎?那是因為我們的頁面有點小。我們可以通過添加以下代碼行來更改頁面的大小:

await page.setViewport({width: 1000, height: 500})

這個屏幕截圖更好看點:

Chrome+Puppeteer+Node.js爬取網站的方法

這是本示例的最終代碼:

const puppeteer = require('puppeteer');

async function getPic() {
  const browser = await puppeteer.launch({headless: false});
  const page = await browser.newPage();
  await page.goto('https://google.com');
  await page.setViewport({width: 1000, height: 500})
  await page.screenshot({path: 'google.png'});

  await browser.close();
}

getPic();

示例 #2-讓我們抓取一些數據

既然您已經了解了 Headless Chrome 和 Puppeteer 的工作原理,那么讓我們看一個更復雜的示例,在該示例中我們事實上可以抓取一些數據。

首先, 在此處查看 Puppeteer 的 API 文檔。 如您所見,我們有很多方法可以使用, 不僅可以點擊網站,還可以填寫表格,輸入內容和讀取數據。

在本教程中,我們將抓取 Books To Scrape ,這是一家專門設置的假書店,旨在幫助人們練習抓取。

在同一目錄中,創建一個名為scrape.js的文件,并插入以下樣板代碼:

const puppeteer = require('puppeteer');

let scrape = async () => {
  // 實際的抓取從這里開始...

  // 返回值
};

scrape().then((value) => {
    console.log(value); // 成功!
});

理想情況下,在看完第一個示例之后,上面的代碼對您有意義。如果沒有,那沒關系!

我們上面所做的需要以前安裝的puppeteer依賴關系。然后我們有scraping()函數,我們將在其中填入抓取代碼。此函數將返回值。最后,我們調用scraping函數并處理返回值(將其記錄到控制臺)。

我們可以通過在scrape函數中添加一行代碼來測試以上代碼。試試看:

let scrape = async () => {
  return 'test';
};

現在,在控制臺中運行node scrape.js。您應該返回test!完美,我們返回的值正在記錄到控制臺。現在我們可以開始補充我們的scrape函數。

步驟1:設置

我們需要做的第一件事是創建瀏覽器實例,打開一個新頁面,然后導航到URL。我們的操作方法如下:

let scrape = async () => {
  const browser = await puppeteer.launch({headless: false});
  const page = await browser.newPage();
  await page.goto('http://books.toscrape.com/');
  await page.waitFor(1000); // Scrape browser.close();
  return result;};

太棒了!讓我們逐行學習它:

首先,我們創建瀏覽器,并將headless模式設置為false。這使我們可以準確地觀察發生了什么:

const browser = await puppeteer.launch({headless: false});

然后,我們在瀏覽器中創建一個新頁面:

const page = await browser.newPage();

接下來,我們轉到books.toscrape.com URL:

await page.goto('http://books.toscrape.com/');

我選擇性地添加了1000毫秒的延遲。盡管通常沒有必要,但這將確保頁面上的所有內容都加載:

await page.waitFor(1000);

最后,完成所有操作后,我們將關閉瀏覽器并返回結果。

browser.close();
return result;

步驟2:抓取

正如您現在可能已經確定的那樣,Books to Scrape 擁有大量的真實書籍和這些書籍的偽造數據。我們要做的是選擇頁面上的第一本書,然后返回該書的標題和價格。這是要抓取的圖書的主頁。我有興趣點第一本書(下面紅色標記)
Chrome+Puppeteer+Node.js爬取網站的方法

查看 Puppeteer API,我們可以找到單擊頁面的方法:

page.click(selector[, options])
  • selector  用于選擇要單擊的元素的選擇器,如果有多個滿足選擇器的元素,則將單擊第一個。

幸運的是,使用 Google Chrome 開發者工具可以非常輕松地確定特定元素的選擇器。只需右鍵單擊圖像并選擇檢查:
Chrome+Puppeteer+Node.js爬取網站的方法

這將打開元素面板,突出顯示該元素。現在,您可以單擊左側的三個點,選擇復制,然后選擇復制選擇器:

Chrome+Puppeteer+Node.js爬取網站的方法

太棒了!現在,我們復制了選擇器,并且可以將click方法插入程序。像這樣:

await page.click('#default > p > p > p > p > section > p:nth-child(2) > ol > li:nth-child(1) > article > p.image_container > a > img');

我們的窗口將單擊第一個產品圖像并導航到該產品頁面!

在新頁面上,我們對商品名稱和商品價格均感興趣(以下以紅色概述)

Chrome+Puppeteer+Node.js爬取網站的方法
為了檢索這些值,我們將使用page.evaluate()方法。此方法使我們可以使用內置的 DOM 選擇器,例如querySelector()

我們要做的第一件事是創建page.evaluate()函數,并將返回值保存到變量result中:

const result = await page.evaluate(() => {// return something});

在函數里,我們可以選擇所需的元素。我們將使用 Google Developers 工具再次解決這一問題。右鍵單擊標題,然后選擇檢查:

Chrome+Puppeteer+Node.js爬取網站的方法

正如您將在 elements 面板中看到的那樣,標題只是一個h2元素。我們可以使用以下代碼選擇此元素:

let title = document.querySelector('h2');

由于我們希望文本包含在此元素中,因此我們需要添加.innerText-最終代碼如下所示:

let title = document.querySelector('h2').innerText;

同樣,我們可以通過單擊右鍵檢查元素來選擇價格:

Chrome+Puppeteer+Node.js爬取網站的方法

如您所見,我們的價格有price_color類,我們可以使用此類選擇元素及其內部文本。這是代碼:

let price = document.querySelector('.price_color').innerText;

現在我們有了所需的文本,可以將其返回到一個對象中:

return {
  title,
  price
}

太棒了!我們選擇標題和價格,將其保存到一個對象中,然后將該對象的值返回給result變量。放在一起是這樣的:

const result = await page.evaluate(() => {
  let title = document.querySelector('h2').innerText;
  let price = document.querySelector('.price_color').innerText;
  return {
     title,
     price
}});

剩下要做的唯一一件事就是返回result,以便可以將其記錄到控制臺:

return result;

您的最終代碼應如下所示:

const puppeteer = require('puppeteer');

let scrape = async () => {
    const browser = await puppeteer.launch({headless: false});
    const page = await browser.newPage();

    await page.goto('http://books.toscrape.com/');
    await page.click('#default > p > p > p > p > section > p:nth-child(2) > ol > li:nth-child(1) > article > p.image_container > a > img');
    await page.waitFor(1000);

    const result = await page.evaluate(() => {
        let title = document.querySelector('h2').innerText;
        let price = document.querySelector('.price_color').innerText;

        return {
            title,
            price
        }

    });

    browser.close();
    return result;
};

scrape().then((value) => {
    console.log(value); // 成功!
});

您可以通過在控制臺中鍵入以下內容來運行 Node 文件:

node scrape.js // { 書名: 'A Light in the Attic', 價格: '£51.77' }

您應該看到所選圖書的標題和價格返回到屏幕上!您剛剛抓取了網頁!

示例 #3 ——完善它

現在您可能會問自己,當標題和價格都顯示在主頁上時,為什么我們要點擊書?為什么不從那里抓取呢?而在我們嘗試時,為什么不抓緊所有書籍的標題和價格呢?

因為有很多方法可以抓取網站! (此外,如果我們留在首頁上,我們的標題將被刪掉)。但是,這為您提供了練習新的抓取技能的絕好機會!

挑戰
目標 ——從首頁抓取所有書名和價格,并以數組形式返回。這是我最終的輸出結果:

Chrome+Puppeteer+Node.js爬取網站的方法
開始!看看您是否可以自己完成此任務。與我們剛創建的上述程序非常相似,如果卡住,請向下滾動…
GO! See if you can accomplish this on your own. It’s very similar to the above program we just created. Scroll down if you get stuck…


提示:
此挑戰與上一個示例之間的主要區別是需要遍歷大量結果。您可以按照以下方法設置代碼來做到這一點:

const result = await page.evaluate(() => {
  let data = []; // 創建一個空數組
  let elements = document.querySelectorAll('xxx'); // 選擇全部   
    // 遍歷每一個產品
    // 選擇標題
    // 選擇價格
    data.push({title, price}); // 將數據放到數組里, 返回數據; 
    // 返回數據數組
});

如果您不明白,沒事!這是一個棘手的問題…… 這是一種可能的解決方案。在以后的文章中,我將深入研究此代碼及其工作方式,我們還將介紹更高級的抓取技術。如果您想收到通知,請務必 在此處輸入您的電子郵件

方案:

const puppeteer = require('puppeteer');

let scrape = async () => {
    const browser = await puppeteer.launch({headless: false});
    const page = await browser.newPage();

    await page.goto('http://books.toscrape.com/');

    const result = await page.evaluate(() => {
        let data = []; // 創建一個空數組, 用來存儲數據
        let elements = document.querySelectorAll('.product_pod'); // 選擇所有產品

        for (var element of elements){ // 遍歷每個產品
            let title = element.childNodes[5].innerText; // 選擇標題
            let price = element.childNodes[7].children[0].innerText; // 選擇價格

            data.push({title, price}); // 將對象放進數組 data 
        }

        return data; // 返回數組 data
    });

    browser.close();
    return result; //  返回數據
};

scrape().then((value) => {
    console.log(value); // 成功!
});

關于Chrome+Puppeteer+Node.js爬取網站的方法就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

临湘市| 九龙坡区| 盘山县| 治多县| 临夏市| 泰州市| 苍梧县| 新巴尔虎左旗| 嘉兴市| 宁城县| 米泉市| 乡城县| 福安市| 阳东县| 榆树市| 紫金县| 吉木乃县| 福建省| 手机| 呼玛县| 大渡口区| 长顺县| 昌平区| 宁津县| 昌宁县| 会理县| 沙坪坝区| 桐柏县| 济宁市| 汽车| 泾源县| 台南县| 镇康县| 天门市| 扎赉特旗| 溧水县| 石河子市| 柳州市| 新绛县| 云林县| 茌平县|