91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲相關工具有哪些

發布時間:2021-11-20 15:36:19 來源:億速云 閱讀:121 作者:iii 欄目:編程語言

這篇文章主要介紹“Python爬蟲相關工具有哪些”,在日常操作中,相信很多人在Python爬蟲相關工具有哪些問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Python爬蟲相關工具有哪些”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

網絡爬蟲和相關工具

網絡爬蟲的概念

網絡爬蟲(web crawler),以前經常稱之為網絡蜘蛛(spider),是按照一定的規則自動瀏覽萬維網并獲取信息的機器人程序(或腳本),曾經被廣泛的應用于互聯網搜索引擎。使用過互聯網和瀏覽器的人都知道,網頁中除了供用戶閱讀的文字信息之外,還包含一些超鏈接。網絡爬蟲系統正是通過網頁中的超鏈接信息不斷獲得網絡上的其它頁面。正因如此,網絡數據采集的過程就像一個爬蟲或者蜘蛛在網絡上漫游,所以才被形象的稱為網絡爬蟲或者網絡蜘蛛。

爬蟲的應用領域

在理想的狀態下,所有ICP(Internet Content Provider)都應該為自己的網站提供API接口來共享它們允許其他程序獲取的數據,在這種情況下爬蟲就不是必需品,國內比較有名的電商平臺(如淘寶、京東等)、社交平臺(如騰訊微博等)等網站都提供了自己的Open API,但是這類Open API通常會對可以抓取的數據以及抓取數據的頻率進行限制。對于大多數的公司而言,及時的獲取行業相關數據是企業生存的重要環節之一,然而大部分企業在行業數據方面的匱乏是其與生俱來的短板,合理的利用爬蟲來獲取數據并從中提取出有商業價值的信息是至關重要的。當然爬蟲還有很多重要的應用領域,下面列舉了其中的一部分:

  1. 搜索引擎

  2. 新聞聚合

  3. 社交應用

  4. 輿情監控

  5. 行業數據

合法性和背景調研

爬蟲合法性探討

  1. 網絡爬蟲領域目前還屬于拓荒階段,雖然互聯網世界已經通過自己的游戲規則建立起一定的道德規范(Robots協議,全稱是“網絡爬蟲排除標準”),但法律部分還在建立和完善中,也就是說,現在這個領域暫時還是灰色地帶。

  2. “法不禁止即為許可”,如果爬蟲就像瀏覽器一樣獲取的是前端顯示的數據(網頁上的公開信息)而不是網站后臺的私密敏感信息,就不太擔心法律法規的約束,因為目前大數據產業鏈的發展速度遠遠超過了法律的完善程度。

  3. 在爬取網站的時候,需要限制自己的爬蟲遵守Robots協議,同時控制網絡爬蟲程序的抓取數據的速度;在使用數據的時候,必須要尊重網站的知識產權(從Web 2.0時代開始,雖然Web上的數據很多都是由用戶提供的,但是網站平臺是投入了運營成本的,當用戶在注冊和發布內容時,平臺通常就已經獲得了對數據的所有權、使用權和分發權)。如果違反了這些規定,在打官司的時候敗訴幾率相當高。

Robots.txt文件

大多數網站都會定義robots.txt文件,下面以淘寶的robots.txt文件為例,看看該網站對爬蟲有哪些限制。

User-agent: Baiduspider
Allow: /article
Allow: /oshtml
Disallow: /product/
Disallow: /
User-Agent: Googlebot
Allow: /article
Allow: /oshtml
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Disallow: /
User-agent: Bingbot
Allow: /article
Allow: /oshtml
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Disallow: /
User-Agent: 360Spider
Allow: /article
Allow: /oshtml
Disallow: /
User-Agent: Yisouspider
Allow: /article
Allow: /oshtml
Disallow: /
User-Agent: Sogouspider
Allow: /article
Allow: /oshtml
Allow: /product
Disallow: /
User-Agent: Yahoo! Slurp
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Disallow: /
User-Agent: *
Disallow: /

注意上面robots.txt第一段的最后一行,通過設置“Disallow: /”禁止百度爬蟲訪問除了“Allow”規定頁面外的其他所有頁面。因此當你在百度搜索“淘寶”的時候,搜索結果下方會出現:“由于該網站的robots.txt文件存在限制指令(限制搜索引擎抓取),系統無法提供該頁面的內容描述”。百度作為一個搜索引擎,至少在表面上遵守了淘寶網的robots.txt協議,所以用戶不能從百度上搜索到淘寶內部的產品信息。

到此,關于“Python爬蟲相關工具有哪些”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

曲靖市| 炎陵县| 夹江县| 建德市| 会昌县| 三门县| 石楼县| 溆浦县| 长兴县| 黄大仙区| 沁阳市| 康马县| 宽甸| 胶南市| 桦川县| 堆龙德庆县| 罗定市| 涿州市| 仁化县| 西吉县| 绩溪县| 德保县| 阳西县| 合作市| 肇源县| 辽源市| 绥中县| 潜山县| 明溪县| 三河市| 弥勒县| 巴塘县| 寿光市| 阳山县| 舒兰市| 巩留县| 清镇市| 铁力市| 宣威市| 湘潭县| 河西区|