91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用nodejs爬取數據

發布時間:2021-07-21 10:10:56 來源:億速云 閱讀:200 作者:Leah 欄目:web開發

如何使用nodejs爬取數據,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

1、本次爬蟲目標

    從網站中爬取數據,并分析整理,我的目標是完整復刻出一個webapp網站以作練手,所以會對輸入如何存到MongoDB做思考。爬取的數據先暫時存到json文件中;當然在實際中可以直接存到自己的MongoDB中,這樣復刻出來的網站就是一個完整的網站了,至于視頻播放,可以把視頻地址爬下來寫到特定字段,用戶調用是直接拿原來網站的視頻就可以了(只爬取慕課免費課程的所有數據)。

    運行完會的到另個json文件,結構如下

    free.json(記錄課程的方向和分類) 

    如何使用nodejs爬取數據

    freeCourse.json(記錄所有課程的文件,但數據會有id與free中的分類一一對應)

     如何使用nodejs爬取數據

2、創建項目

   1)創建craler目錄,再新建index.js文件。在目錄下執行npm init命令,然后一直回車。

   2)安裝npm包,執行npm install mongoose(生成MongoDB用的id),npm install https,npm install cheerio;得到以下目錄結構

    如何使用nodejs爬取數據

3、獲取課程的分類和方向的數據

const mongoose = require('mongoose');
const https = require('https');
const fs = require('fs');
const cheerio = require('cheerio');
var courses = [],
totalPage = 0,
orientations = [],//課程方向
orientationMap = {},
classifyMap = {},//課程分類
baseUrl = 'https://www.imooc.com',
freeCourseUrl = 'https://www.imooc.com/course/list';//免費課程
function fetchPage(url){
getFreeType(url);
}
//類型獲取
function getFreeType(url) {
https.get(url, function(res){
var html = '';
res.setEncoding('utf-8')//防止中文亂碼
res.on('data' ,function(chunk){
html += chunk;
})
//監聽end事件,如果整個網頁內容的html都獲取完畢,就執行回調函數
res.on('end',function(){
var $ = cheerio.load(html);
var orientationUrl = []//獲取課程方向url
,orientationTag = $($('.course-nav-row')[0]);
orientationTag.find('.course-nav-item').each(function(index,ele){
if(index == 0){return}
//課程方向數據表
let orientationTemp ={
_id:new mongoose.Types.ObjectId(),
name: $(ele).find('a').text().trim(),
tagkey: $(ele).find('a').attr('href').split('=').pop(),
}
orientations.push(orientationTemp)
orientationUrl.push('https://m.imooc.com' + $(ele).find('a').attr('href'));
});
getOrientationPage(orientationUrl);//獲取每個方向下的分類
})
})
}
//獲取每個方向下的分類
function getOrientationPage(orientationUrl){
var promiseList = [];
orientationUrl.forEach((url,index) => {
var prom = new Promise(function(resolve,reject){
https.get(url,function(res){
var html = '';
res.setEncoding('utf-8');
res.on('data',function(chunk){
html += chunk;
});
res.on('end',function(){
var $ = cheerio.load(html);
var classifications = [];
$('.course-item-w a').each((ind,ele) => {
var classTemp = {
_id: new mongoose.Types.ObjectId(),
name: cheerio.load(ele)('.course-label').text().trim(),
tagkey: $(ele).attr('href').split('=').pop(),
img: $(ele).find('.course-img').css('background-image').replace('url(','').replace(')',''),
};
classifications.push(classTemp);
classifyMap[classTemp.name] = classTemp.tagkey;
orientationMap[classTemp.name] = orientations[index].tagkey;
})
orientations[index].classifications = classifications;
resolve('done');
})
}).on('error',function(err){
reject(err)
})
})
promiseList.push(prom);
});
Promise.all(promiseList).then(arr => {
console.log('類型數據收集完畢');
getFreeCourses(freeCourseUrl);
fs.writeFile('./free.json',JSON.stringify(orientations),function(err){
if(err){
console.log(err);
}else{
console.log('free.json文件寫入成功!');
}
});
});
}

4、獲取所有課程

    因為本次獲取的課程足足有800多個課程,其中也有分頁;所以不可能一次同時獲取所有的課程。一開始我使用遞歸請求,每請求處理完一個課程就接著請求下一個課程,這樣也可以實現,但是這樣的話就處理的太慢了;完全沒有發揮出Ajax異步的優勢,所以我就用了es6的語法,使用promise.all解決了這個問題。一次請求10個頁面(多了node服務就處理不來了,就報各種錯,目前沒有想到其他好的辦法,忘各位大神多指教)。每處理完成10個請求就就接著請求下一頁,直至完成。這樣把800多個課程數據處理完,也需要大概3分鐘左右。

function pageGetDetail(startPage){
if(!startPage)startPage = 0;
let page = 10;
let eachArr = courses.slice(startPage*page,(startPage+1)*page);
let promiseList = [];
eachArr.forEach((course,index)=> {
var promise = new Promise(function(resolve,reject){
https.get(course.detailUrl,res =>{
let html = '';
res.setEncoding('utf-8');
res.on('data',function(chunk){
html += chunk;
});
res.on('end',function(){
let $ = cheerio.load(html);
let chapter = [];
let chapterEle = $('.course-chapters .chapter');
let teacherEle = $('.teacher-info');
var element = courses[startPage*page+index];
chapterEle.each(function(ind,ele){
let $ele = cheerio.load(ele);
let chapterList = [];
$ele('.video .J-media-item').each(function(ind,item){
let txt = cheerio.load(item).text();
txt = txt.replace('開始學習');
txt = txt.trim();
chapterList.push({
txt: txt.replace(/[ \r\n]/g, ""),
type:'vedio'
});
})
let tempObj ={
header: $ele('h4').text().replace(/[ \r\n]/g, ""),
desc: $ele('.chapter-description').text().replace(/[ \r\n]/g, ""),
list: chapterList
}
chapter.push(tempObj);
})
element.duration = $('.static-item')[1] ? cheerio.load($('.static-item')[1])(".meta-value").text() : '';
element.grade = $('.score-btn .meta-value')[0] ? cheerio.load($('.score-btn .meta-value')[0]).text() : '';
element.intro = $('.course-description').text().replace(/[ \r\n]/g, "");
element.notice = $('.course-info-tip .first .autowrap').text();
element.whatlearn = $('.course-info-tip .autowrap')[1] ? cheerio.load($('.course-info-tip .autowrap')[1]).text() : "";
element.chapter = chapter;
element.teacher = {
name: teacherEle.find('.tit').text().trim(),
job: teacherEle.find('.job').text(),
imgSrc: 'http' + $('.teacher-info>a>img').attr('src'),
img: $('.teacher-info>a>img').attr('src')?$('.teacher-info>a>img').attr('src').split('/').pop():''
};
element.teacherUrl = baseUrl + $('.teacher-info>a').attr('href'),
element.questionUrl =  baseUrl + $('#qaOn').attr('href');
element.noteUrl = baseUrl + $('#noteOn').attr('href');
element.commentUrl = baseUrl + $('#commentOn').attr('href');
delete element.detailUrl;
resolve('done');
})
})
});
promiseList.push(promise);
});
Promise.all(promiseList).then(arr => {
if( startPage * 10 > courses.length){
fs.writeFile('./freeCourses.json',JSON.stringify(courses),function(err){
if(err){
console.log(err);
}else{
console.log('freeCourses.json文件寫入成功!');
}
});
}else{
let currentPage = startPage + 1;
pageGetDetail(currentPage);
}
})
}
getFreeType(freeCourseUrl);

 5、執行程序

    代碼寫完,直接在crawler目錄下執行node index就可以了。我用的是vscode,賊方便。如果打印出以下的結果就說明成功了。

如何使用nodejs爬取數據

關于如何使用nodejs爬取數據問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

米易县| 屏山县| 万全县| 黄浦区| 翁源县| 武城县| 陵川县| 札达县| 合川市| 山东省| 张家口市| 安龙县| 宁津县| 新营市| 内乡县| 那曲县| 孟州市| 商洛市| 天长市| 广元市| 凉山| 巴林右旗| 南城县| 遂平县| 焦作市| 浦北县| 东兴市| 南江县| 东阿县| 静安区| 潞城市| 新竹县| 嘉禾县| 土默特右旗| 江津市| 宜黄县| 育儿| 沂源县| 广灵县| 临武县| 大同市|