91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python如何使用Chrome插件實現爬蟲

發布時間:2020-07-17 14:21:39 來源:億速云 閱讀:501 作者:小豬 欄目:開發技術

小編這次要給大家分享的是Python如何使用Chrome插件實現爬蟲,文章內容豐富,感興趣的小伙伴可以來了解一下,希望大家閱讀完這篇文章之后能夠有所收獲。

做電商時,消費者對商品的評論是很重要的,但是不會寫代碼怎么辦?這里有個Chrome插件可以做到簡單的數據爬取,一句代碼都不用寫。下面給大家展示部分抓取后的數據:

Python如何使用Chrome插件實現爬蟲

可以看到,抓取的地址,評論人,評論內容,時間,產品顏色都已經抓取下來了。那么,爬取這些數據需要哪些工具呢?就兩個:

1. Chrome瀏覽器;

2. 插件:Web Scraper

插件下載地址:https://chromecj.com/productivity/2018-05/942.html

最后,如果你想自己動手抓取一下,這里是這次抓取的詳細過程:

1. 首先,復制如下的代碼,對,你不需要寫代碼,但是為了便于上手,復制代碼還是需要的,后續可以自己定制和選擇,不需要寫代碼。

{
  "_id": "jdreview",
  "startUrl": [
    "https://item.jd.com/100000680365.html#comment"
  ],
  "selectors": [
    {
      "id": "user",
      "type": "SelectorText",
      "selector": "div.user-info",
      "parentSelectors": [
        "main"
      ],
      "multiple": false,
      "regex": "",
      "delay": 0
    },
    {
      "id": "comments",
      "type": "SelectorText",
      "selector": "div.comment-column > p.comment-con",
      "parentSelectors": [
        "main"
      ],
      "multiple": false,
      "regex": "",
      "delay": 0
    },
    {
      "id": "time",
      "type": "SelectorText",
      "selector": "div.comment-message:nth-of-type(5) span:nth-of-type(4), div.order-info span:nth-of-type(4)",
      "parentSelectors": [
        "main"
      ],
      "multiple": false,
      "regex": "",
      "delay": "0"
    },
    {
      "id": "color",
      "type": "SelectorText",
      "selector": "div.order-info span:nth-of-type(1)",
      "parentSelectors": [
        "main"
      ],
      "multiple": false,
      "regex": "",
      "delay": 0
    },
    {
      "id": "main",
      "type": "SelectorElementClick",
      "selector": "div.comment-item",
      "parentSelectors": [
        "_root"
      ],
      "multiple": true,
      "delay": "10000",
      "clickElementSelector": "div.com-table-footer a.ui-pager-next",
      "clickType": "clickMore",
      "discardInitialElements": false,
      "clickElementUniquenessType": "uniqueHTMLText"
    }
  ]
}

2. 然后打開chrome瀏覽器,在任意頁面同時按下Ctrl+Shift+i,在彈出的窗口中找到Web Scraper,如下:

Python如何使用Chrome插件實現爬蟲

3. 如下

Python如何使用Chrome插件實現爬蟲

4. 如圖,粘貼上述的代碼:

Python如何使用Chrome插件實現爬蟲

5. 如圖,如果需要定制網址,注意替代一下,網址后面的#comment是直達評論的鏈接,不能去掉:

Python如何使用Chrome插件實現爬蟲

6. 如圖:

Python如何使用Chrome插件實現爬蟲

7. 如圖:

Python如何使用Chrome插件實現爬蟲

8. 如圖,點擊Scrape后,會自動運行打開需要抓取得頁面,不要關閉窗口,靜靜等待完成,完成后右下方會提示完成,一般1000條以內的評論不會有問題:

Python如何使用Chrome插件實現爬蟲

9. 最后,點擊下載到電腦,數據保存好。

Python如何使用Chrome插件實現爬蟲

使用這個工具的好處是:

1. 不需要編程;

2. 京東的評論基本可以通用此腳本,修改對應的url即可;

3. 如果需要爬取的評論不到1000條,這個工具會非常稱手,所有的數據完全自動下載;

使用的注意點:

1. 抓取過一次的數據會有記錄,立刻再次抓取將不會保存,建議關閉瀏覽器重新打開后再試;

2. 抓取數量:1000條以內沒有問題,可能是京東按照IP直接阻止了更多的爬取;

看完這篇關于Python如何使用Chrome插件實現爬蟲的文章,如果覺得文章內容寫得不錯的話,可以把它分享出去給更多人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

肥西县| 定远县| 辽阳市| 昭平县| 汕头市| 驻马店市| 贵南县| 丹巴县| 新余市| 台东县| 浠水县| 西盟| 广昌县| 深水埗区| 紫金县| 大埔区| 郧西县| 兴义市| 隆化县| 遂川县| 荔浦县| 玉林市| 阳泉市| 左云县| 衡水市| 赣榆县| 新巴尔虎右旗| 昭觉县| 钟祥市| 南岸区| 陕西省| 嘉义县| 甘洛县| 启东市| 镶黄旗| 泾川县| 柳州市| 容城县| 西林县| 涿鹿县| 玉山县|