91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python網絡爬蟲方向的第三方庫是什么

發布時間:2022-07-12 10:02:08 來源:億速云 閱讀:439 作者:iii 欄目:編程語言

這篇文章主要介紹“python網絡爬蟲方向的第三方庫是什么”,在日常操作中,相信很多人在python網絡爬蟲方向的第三方庫是什么問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”python網絡爬蟲方向的第三方庫是什么”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

爬蟲方向第三方庫:1、urllib3,一個Python HTTP庫,安全連接池、支持文件post、可用性高;2、MechanicalSoup,一個與網站自動交互Python庫;3、grab,一個基于pycurl/multicur的網絡爬蟲框架;4、portia,一個基于Scrapy的可視化爬蟲庫;5、Tornado,一個網絡框架和異步網絡庫;6、scrapy,一個網絡爬蟲框架。

python網絡爬蟲方向的第三方庫是什么

本教程操作環境:windows7系統、Python3、Dell G3電腦。

這個列表包含與網頁抓取和數據處理的Python庫

網絡

  • 通用

    • urllib -網絡庫(stdlib)。

    • requests -網絡庫。

    • grab – 網絡庫(基于pycurl)。

    • pycurl – 網絡庫(綁定libcurl)。

    • urllib3 – Python HTTP庫,安全連接池、支持文件post、可用性高。

    • httplib2 – 網絡庫。

    • RoboBrowser – 一個簡單的、極具Python風格的Python庫,無需獨立的瀏覽器即可瀏覽網頁。

    • MechanicalSoup -一個與網站自動交互Python庫。

    • mechanize -有狀態、可編程的Web瀏覽庫。

    • socket – 底層網絡接口(stdlib)。

    • Unirest for Python – Unirest是一套可用于多種語言的輕量級的HTTP庫。

    • hyper – Python的HTTP/2客戶端。

    • PySocks – SocksiPy更新并積極維護的版本,包括錯誤修復和一些其他的特征。作為socket模塊的直接替換。

  • 異步

    • treq – 類似于requests的API(基于twisted)。

    • aiohttp – asyncio的HTTP客戶端/服務器(PEP-3156)。

網絡爬蟲框架

  • 功能齊全的爬蟲

    • grab – 網絡爬蟲框架(基于pycurl/multicur)。

    • scrapy – 網絡爬蟲框架(基于twisted),不支持Python3。

    • pyspider – 一個強大的爬蟲系統。

    • cola – 一個分布式爬蟲框架。

  • 其他

    • portia – 基于Scrapy的可視化爬蟲。

    • restkit – Python的HTTP資源工具包。它可以讓你輕松地訪問HTTP資源,并圍繞它建立的對象。

    • demiurge – 基于PyQuery的爬蟲微框架。

HTML/XML解析器

  • 通用

    • lxml – C語言編寫高效HTML/ XML處理庫。支持XPath。

    • cssselect – 解析DOM樹和CSS選擇器。

    • pyquery – 解析DOM樹和jQuery選擇器。

    • BeautifulSoup – 低效HTML/ XML處理庫,純Python實現。

    • html5lib – 根據WHATWG規范生成HTML/ XML文檔的DOM。該規范被用在現在所有的瀏覽器上。

    • feedparser – 解析RSS/ATOM feeds。

    • MarkupSafe – 為XML/HTML/XHTML提供了安全轉義的字符串。

    • xmltodict – 一個可以讓你在處理XML時感覺像在處理JSON一樣的Python模塊。

    • xhtml2pdf – 將HTML/CSS轉換為PDF。

    • untangle – 輕松實現將XML文件轉換為Python對象。

  • 清理

    • Bleach – 清理HTML(需要html5lib)。

    • sanitize – 為混亂的數據世界帶來清明。

文本處理

用于解析和操作簡單文本的庫。

  • 通用

  • difflib – (Python標準庫)幫助進行差異化比較。

  • Levenshtein – 快速計算Levenshtein距離和字符串相似度。

  • fuzzywuzzy – 模糊字符串匹配。

  • esmre – 正則表達式加速器。

  • ftfy – 自動整理Unicode文本,減少碎片化。

  • 轉換

  • unidecode – 將Unicode文本轉為ASCII。

  • 字符編碼

  • uniout – 打印可讀字符,而不是被轉義的字符串。

  • chardet – 兼容 Python的2/3的字符編碼器。

  • xpinyin – 一個將中國漢字轉為拼音的庫。

  • pangu.py – 格式化文本中CJK和字母數字的間距。

  • Slug化

  • awesome-slugify – 一個可以保留unicode的Python slugify庫。

  • python-slugify – 一個可以將Unicode轉為ASCII的Python slugify庫。

  • unicode-slugify – 一個可以將生成Unicode slugs的工具。

  • pytils – 處理俄語字符串的簡單工具(包括pytils.translit.slugify)。

  • 通用解析器

  • PLY – lex和yacc解析工具的Python實現。

  • pyparsing – 一個通用框架的生成語法分析器。

  • 人的名字

  • python-nameparser -解析人的名字的組件。

  • 電話號碼

  • phonenumbers -解析,格式化,存儲和驗證國際電話號碼。

  • 用戶代理字符串

  • python-user-agents – 瀏覽器用戶代理的解析器。

  • HTTP Agent Parser – Python的HTTP代理分析器。

特定格式文件處理

解析和處理特定文本格式的庫。

  • 通用

  • tablib – 一個把數據導出為XLS、CSV、JSON、YAML等格式的模塊。

  • textract – 從各種文件中提取文本,比如 Word、PowerPoint、PDF等。

  • messytables – 解析混亂的表格數據的工具。

  • rows – 一個常用數據接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT – 將來還會提供更多!)。

  • Office

  • python-docx – 讀取,查詢和修改的Microsoft Word2007/2008的docx文件。

  • xlwt / xlrd – 從Excel文件讀取寫入數據和格式信息。

  • XlsxWriter – 一個創建Excel.xlsx文件的Python模塊。

  • xlwings – 一個BSD許可的庫,可以很容易地在Excel中調用Python,反之亦然。

  • openpyxl – 一個用于讀取和寫入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的庫。

  • Marmir – 提取Python數據結構并將其轉換為電子表格。

  • PDF

  • PDFMiner – 一個從PDF文檔中提取信息的工具。

  • PyPDF2 – 一個能夠分割、合并和轉換PDF頁面的庫。

  • ReportLab – 允許快速創建豐富的PDF文檔。

  • pdftables – 直接從PDF文件中提取表格。

  • Markdown

  • Python-Markdown – 一個用Python實現的John Gruber的Markdown。

  • Mistune – 速度最快,功能全面的Markdown純Python解析器。

  • markdown2 – 一個完全用Python實現的快速的Markdown。

  • YAML

  • PyYAML – 一個Python的YAML解析器。

  • CSS

  • cssutils – 一個Python的CSS庫。

  • ATOM/RSS

  • feedparser – 通用的feed解析器。

  • SQL

  • sqlparse – 一個非驗證的SQL語句分析器。

  • HTTP

  • HTTP

  • http-parser – C語言實現的HTTP請求/響應消息解析器。

  • 微格式

  • opengraph – 一個用來解析Open Graph協議標簽的Python模塊。

  • 可移植的執行體

  • pefile – 一個多平臺的用于解析和處理可移植執行體(即PE)文件的模塊。

  • PSD

  • psd-tools – 將Adobe Photoshop PSD(即PE)文件讀取到Python數據結構。

自然語言處理

處理人類語言問題的庫。

  • NLTK -編寫Python程序來處理人類語言數據的最好平臺。

  • Pattern – Python的網絡挖掘模塊。他有自然語言處理工具,機器學習以及其它。

  • TextBlob – 為深入自然語言處理任務提供了一致的API。是基于NLTK以及Pattern的巨人之肩上發展的。

  • jieba – 中文分詞工具。

  • SnowNLP – 中文文本處理庫。

  • loso – 另一個中文分詞庫。

  • genius – 基于條件隨機域的中文分詞。

  • langid.py – 獨立的語言識別系統。

  • Korean – 一個韓文形態庫。

  • pymorphy2 – 俄語形態分析器(詞性標注+詞形變化引擎)。

  • PyPLN  – 用Python編寫的分布式自然語言處理通道。這個項目的目標是創建一種簡單的方法使用NLTK通過網絡接口處理大語言庫。

瀏覽器自動化與仿真

  • selenium – 自動化真正的瀏覽器(Chrome瀏覽器,火狐瀏覽器,Opera瀏覽器,IE瀏覽器)。

  • Ghost.py – 對PyQt的webkit的封裝(需要PyQT)。

  • Spynner – 對PyQt的webkit的封裝(需要PyQT)。

  • Splinter – 通用API瀏覽器模擬器(selenium web驅動,Django客戶端,Zope)。

多重處理

  • threading – Python標準庫的線程運行。對于I/O密集型任務很有效。對于CPU綁定的任務沒用,因為python GIL。

  • multiprocessing – 標準的Python庫運行多進程。

  • celery – 基于分布式消息傳遞的異步任務隊列/作業隊列。

  • concurrent-futures – concurrent-futures 模塊為調用異步執行提供了一個高層次的接口。

異步

異步網絡編程庫

  • asyncio – (在Python 3.4 +版本以上的 Python標準庫)異步I/O,時間循環,協同程序和任務。

  • Twisted – 基于事件驅動的網絡引擎框架。

  • Tornado – 一個網絡框架和異步網絡庫。

  • pulsar – Python事件驅動的并發框架。

  • diesel – Python的基于綠色事件的I/O框架。

  • gevent – 一個使用greenlet 的基于協程的Python網絡庫。

  • eventlet – 有WSGI支持的異步框架。

  • Tomorrow – 異步代碼的奇妙的修飾語法。

隊列

  • celery – 基于分布式消息傳遞的異步任務隊列/作業隊列。

  • huey – 小型多線程任務隊列。

  • mrq – Mr. Queue – 使用redis & Gevent 的Python分布式工作任務隊列。

  • RQ – 基于Redis的輕量級任務隊列管理器。

  • simpleq – 一個簡單的,可無限擴展,基于Amazon SQS的隊列。

  • python-gearman – Gearman的Python API。

云計算

  • picloud – 云端執行Python代碼。

  • dominoup.com – 云端執行R,Python和matlab代碼。

電子郵件

電子郵件解析庫

  • flanker – 電子郵件地址和Mime解析庫。

  • Talon – Mailgun庫用于提取消息的報價和簽名。

網址和網絡地址操作

解析/修改網址和網絡地址庫。

  • URL

    • furl – 一個小的Python庫,使得操縱URL簡單化。

    • purl – 一個簡單的不可改變的URL以及一個干凈的用于調試和操作的API。

    • urllib.parse – 用于打破統一資源定位器(URL)的字符串在組件(尋址方案,網絡位置,路徑等)之間的隔斷,為了結合組件到一個URL字符串,并將“相對URL”轉化為一個絕對URL,稱之為“基本URL”。

    • tldextract – 從URL的注冊域和子域中準確分離TLD,使用公共后綴列表。

  • 網絡地址

    • netaddr – 用于顯示和操縱網絡地址的Python庫。

網頁內容提取

提取網頁內容的庫。

  • HTML頁面的文本和元數據

    • newspaper – 用Python進行新聞提取、文章提取和內容策展。

    • html2text – 將HTML轉為Markdown格式文本。

    • python-goose – HTML內容/文章提取器。

    • lassie – 人性化的網頁內容檢索工具

    • micawber – 一個從網址中提取豐富內容的小庫。

    • sumy -一個自動匯總文本文件和HTML網頁的模塊

    • Haul – 一個可擴展的圖像爬蟲。

    • python-readability – arc90 readability工具的快速Python接口。

    • scrapely – 從HTML網頁中提取結構化數據的庫。給出了一些Web頁面和數據提取的示例,scrapely為所有類似的網頁構建一個分析器。

  • 視頻

    • youtube-dl – 一個從YouTube下載視頻的小命令行程序。

    • you-get – Python3的YouTube、優酷/ Niconico視頻下載器。

  • 維基

    • WikiTeam – 下載和保存wikis的工具。

WebSocket

用于WebSocket的庫。

  • Crossbar – 開源的應用消息傳遞路由器(Python實現的用于Autobahn的WebSocket和WAMP)。

  • AutobahnPython – 提供了WebSocket協議和WAMP協議的Python實現并且開源。

  • WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客戶端和服務器庫。

DNS解析

  • dnsyo – 在全球超過1500個的DNS服務器上檢查你的DNS。

  • pycares – c-ares的接口。c-ares是進行DNS請求和異步名稱決議的C語言庫。

計算機視覺

  • OpenCV – 開源計算機視覺庫。

  • SimpleCV – 用于照相機、圖像處理、特征提取、格式轉換的簡介,可讀性強的接口(基于OpenCV)。

  • mahotas – 快速計算機圖像處理算法(完全使用 C++ 實現),完全基于 numpy 的數組作為它的數據類型。

代理服務器

  • shadowsocks – 一個快速隧道代理,可幫你穿透防火墻(支持TCP和UDP,TFO,多用戶和平滑重啟,目的IP黑名單)。

  • tproxy – tproxy是一個簡單的TCP路由代理(第7層),基于Gevent,用Python進行配置。

其他Python工具列表

  • awesome-python

  • pycrumbs

  • python-github-projects

  • python_reference

  • pythonidae

到此,關于“python網絡爬蟲方向的第三方庫是什么”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

瓮安县| 运城市| 玛曲县| 凤凰县| 中卫市| 金秀| 赤水市| 三明市| 台中县| 夏津县| 西充县| 清原| 保德县| 手游| 清水河县| 仁化县| 佳木斯市| 双流县| 安福县| 贵溪市| 拜泉县| 镇宁| 贺州市| 开封县| 诏安县| 彩票| 焦作市| 沙田区| 宜章县| 潞西市| 巫山县| 封开县| 东丽区| 滁州市| 大冶市| 雷州市| 天柱县| 葫芦岛市| 常宁市| 南华县| 綦江县|