91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Beautiful Soup4庫文檔學習

發布時間:2020-07-11 11:55:52 來源:網絡 閱讀:543 作者:Eugenebo 欄目:開發技術

https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/#id4

中文版BeautifulSoup庫

 

作用

  1. 提取HTML和XML文檔中的數據

  2. 修改、導航、查找文檔

 

創建html_doc

>>> html_doc = """
... <html><head><title>The Dormouse's story</title></head> 
... <body> 
... <p class="title"><b>The Dormouse's story</b></p> 
...  
... <p class="story">Once upon a time there were three little sisters; and their names were 
... <a class="sister" id="link1">Elsie</a>, 
... <a class="sister" id="link2">Lacie</a> and 
... <a class="sister" id="link3">Tillie</a>; 
... and they lived at the bottom of a well.</p> 
...  
... <p class="story">...</p> 
... """

 

#使用bs4庫
>>> from bs4 import BeautifulSoup
>>> soup = BeautifulSoup(html_doc)
>>> print soup.prettify()
<html>
 <head>
  <title>
   The Dormouse's story
  </title>
 </head>
 <body>
  <p class="title">
   <b>
    The Dormouse's story
   </b>
  </p>
  <p class="story">
   Once upon a time there were three little sisters; and their names were
   <a class="sister" id="link1">
    Elsie
   </a>
   ,
   <a class="sister" id="link2">
    Lacie
   </a>
   and
   <a class="sister" id="link3">
    Tillie
   </a>
   ; 
and they lived at the bottom of a well.
  </p>
  <p class="story">
   ...
  </p>
 </body>
</html>

 

提取所需的字段
>>> soup.title                                                    #提取標題
<title>The Dormouse's story</title>
>>> soup.title.name
'title'


>>> soup.title.string                                            #提取標題的內容
u"The Dormouse's story"


>>> soup.a                                                        #提取<a>字段信息(第一個<a>)
<a class="sister" id="link1">Elsie</a>

>>> soup.p
<p class="title"><b>The Dormouse's story</b></p>
>>> soup.p['class']
['title']

 

查找<a>
>>> soup.find_all('a')    
[<a class="sister" id="link1">Elsie</a>, <a class="sister" id="link2">Lacie</a>, <a class="sister" id="link3">Tillie</a>]

>>> for link in soup.find_all('a'):
...     print link.get('href')                        #提取link, href字段
...
http://example.com/elsie
http://example.com/lacie
http://example.com/tillie

 

 

 

 

 

 

 

 

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

会宁县| 双城市| 华池县| 辉南县| 新安县| 汾西县| 昌宁县| 英德市| 莲花县| 那曲县| 泰顺县| 得荣县| 安泽县| 湘潭市| 重庆市| 定兴县| 临泉县| 汉阴县| 恭城| 虎林市| 枣阳市| 黄平县| 门头沟区| 武义县| 当涂县| 大丰市| 姜堰市| 土默特右旗| 枞阳县| 育儿| 普定县| 凤翔县| 竹山县| 象山县| 和硕县| 孝昌县| 偏关县| 大英县| 伊通| 霍山县| 永昌县|