91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

C++ Socket庫實現網絡爬蟲功能

發布時間:2024-10-29 10:48:24 來源:億速云 閱讀:93 作者:小樊 欄目:編程語言

實現一個基于C++的網絡爬蟲功能,可以使用C++的Socket庫進行網絡通信。以下是一個簡單的示例,展示了如何使用C++ Socket庫實現一個基本的網絡爬蟲。

首先,確保你已經安裝了支持C++11或更高版本的編譯器,例如GCC 4.8或更高版本。

接下來,創建一個名為crawler.cpp的文件,并將以下代碼粘貼到文件中:

#include <iostream>
#include <string>
#include <vector>
#include <thread>
#include <mutex>
#include <condition_variable>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <netdb.h>
#include <curl/curl.h>

std::mutex mtx;
std::condition_variable cv;
bool done = false;

size_t WriteCallback(void* contents, size_t size, size_t nmemb, void* userp) {
    ((std::string*)userp)->append((char*)contents, size * nmemb);
    return size * nmemb;
}

void Crawl(const std::string& url) {
    CURL* curl;
    CURLcode res;

    curl_global_init(CURL_GLOBAL_DEFAULT);
    curl = curl_easy_init();
    if(curl) {
        std::string response;
        curl_easy_setopt(curl, CURLOPT_URL, url.c_str());
        curl_easy_setopt(curl, CURLOPT_WRITEFUNCTION, WriteCallback);
        curl_easy_setopt(curl, CURLOPT_WRITEDATA, &response);
        res = curl_easy_perform(curl);
        if(res != CURLE_OK) {
            std::cerr << "Error: " << curl_easy_strerror(res) << std::endl;
        } else {
            std::unique_lock<std::mutex> lock(mtx);
            cv.wait(lock, []{ return !done; });
            std::cout << "Fetched content from: " << url << std::endl;
            std::cout << response << std::endl;
        }
        curl_easy_cleanup(curl);
    }
    curl_global_cleanup();
}

void WorkerThread() {
    while (true) {
        std::unique_lock<std::mutex> lock(mtx);
        cv.wait(lock, []{ return !urls.empty() || done; });
        if (!urls.empty()) {
            std::string url = urls.front();
            urls.erase(urls.begin());
            lock.unlock();
            Crawl(url);
        } else {
            done = true;
            lock.unlock();
            break;
        }
    }
}

int main() {
    std::vector<std::thread> threads;
    urls = {
        "https://www.example.com",
        "https://www.google.com",
        "https://www.wikipedia.org"
    };

    for (int i = 0; i < std::thread::hardware_concurrency(); ++i) {
        threads.emplace_back(WorkerThread);
    }

    for (auto& t : threads) {
        t.join();
    }

    return 0;
}

在代碼中,我們使用了libcurl庫來處理HTTP請求。請確保已經安裝了libcurl庫,并在編譯時鏈接它。例如,使用g++編譯時,可以使用以下命令:

g++ crawler.cpp -o crawler -lcurl

編譯完成后,運行生成的可執行文件:

./crawler

這個示例中的網絡爬蟲會從預定義的URL列表中抓取網頁內容。你可以根據需要修改代碼,以便從其他來源獲取URL列表,或者實現更復雜的抓取策略。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

c++
AI

永兴县| 湖北省| 青龙| 遂平县| 五家渠市| 浦北县| 枣阳市| 武穴市| 雅江县| 邵东县| 黄浦区| 林甸县| 普安县| 禹州市| 虹口区| 博罗县| 贵阳市| 阳原县| 龙南县| 西吉县| 北海市| 万山特区| 左权县| 松滋市| 桂阳县| 福泉市| 盐池县| 武乡县| 玉田县| 灵石县| 广河县| 新竹县| 景泰县| 手机| 宁南县| 华宁县| 新郑市| 通化市| 鸡东县| 宜兰县| 县级市|