91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python如何采集百度搜索結果帶有特定URL的鏈接

發布時間:2021-09-03 13:51:15 來源:億速云 閱讀:169 作者:小新 欄目:開發技術

這篇文章主要介紹python如何采集百度搜索結果帶有特定URL的鏈接,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

#coding utf-8
import requests
from bs4 import BeautifulSoup as bs
import re
from Queue import Queue
import threading
from argparse import ArgumentParser

arg = ArgumentParser(description='baidu_url_collet py-script by xiaoye')
arg.add_argument('keyword',help='keyword like inurl:?id=for searching sqli site')
arg.add_argument('-p','--page',help='page count',dest='pagecount',type=int)
arg.add_argument('-t','--thread',help='the thread_count',dest='thread_count',type=int,default=10)
arg.add_argument('-o','--outfile',help='the file save result',dest='oufile',type=int,default='result.txt')
result = arg.parse_args()
headers = {'User-Agent':'Mozilla/5.0(windows NT 10.0 WX64;rv:50.0) Gecko/20100101 Firefox/50.0'}

class Bg_url(threading.Thread):
  def __init__(self,que):
    threading.Thread.__init__(self)
    self._que = que
  def run(self):
    while not self._que.empty():
      URL = self._que.get()
      try:
        self.bd_url_collet(URL)
      except Exception,e:
        print(e)
        pass
  def bd_url_collect(self, url):
    r = requests.get(url, headers=headers, timeout=3)
    soup = bs(r.content, 'lxml', from_encoding='utf-8')
    bqs = soup.find_all(name='a', attrs={‘data-click‘:re.compile(r'.'), 'class':None})#獲得從百度搜索出來的a標簽的鏈接
    for bq in bqs:
      r = requests.get(bq['href'], headers=headers, timeout=3)#獲取真實鏈接
      if r.status_code == 200:#如果狀態碼為200
        print r.url
        with open(result.outfile, 'a') as f:
          f.write(r.url + '\n')
def main():
  thread = []
  thread_count = result.thread_count
  que = Queue()
  for i in range(0,(result.pagecount-1)*10,10):
  que.put('https://www.baidu.com/s?wd=' + result.keyword + '&pn=' + str(i))
  or i in range(thread_count):
  thread.append(Bd_url(que))
  for i in thread:
    i.start()
  for i in thread:
    i.join()    
if __name__ == '__main__':
  main()  
#執行格式
python aaaaa.py "inurl:asp?id=" -p 30 -t 30

以上是“python如何采集百度搜索結果帶有特定URL的鏈接”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

丰城市| 金溪县| 阿拉善左旗| 舞阳县| 铜川市| 蕉岭县| 济阳县| 汪清县| 绥化市| 乌兰县| 城固县| 晋城| 黄冈市| 兴海县| 揭西县| 若尔盖县| 扎兰屯市| 福州市| 鹤壁市| 邛崃市| 博客| 张家口市| 会昌县| 富顺县| 湘乡市| 郴州市| 清远市| 曲阜市| 安塞县| 龙山县| 保康县| 兴城市| 东乡族自治县| 黑龙江省| 锦屏县| 翁源县| 杭锦后旗| 贡觉县| 白城市| 景洪市| 萍乡市|