91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Python怎么實現一個爬蟲刷回復功能

發布時間:2021-04-09 17:21:36 來源:億速云 閱讀:180 作者:Leah 欄目:開發技術

使用Python怎么實現一個爬蟲刷回復功能?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

'''
獲取cookie
'''
def get_cookie(login_data, url, testurl=None):
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  hadler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(hadler)
  post_data = urllib.urlencode(
    {'logname': 123456, "logpass": "123456", "action": "login", })
  url = 'http://*****.me/waplogin.aspx'
  opener.open(url, post_data)
  cookie.save(ignore_discard=True, ignore_expires=True)
  print("獲取成功")
  # print(opener.open(testurl).read())

先要分析該網站登錄地址,登錄需要的參數,如上代碼

獲得cookie之后,分析該論壇的回復參數,該論壇采用的是post提交,需要有帖子id,回復內容等等,分析之后得到如下代碼

代碼先加載文件里面的cookie,然后調用了haha這個笑話api,當然我已經將這個api的json進行了處理,這里只要笑話內容就行。

'''
回復帖子
'''
def post_reply():
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  cookie.load(filename, ignore_discard=True, ignore_expires=True)
  handler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(handler)
  num=0
  for i in range(216255, 800000):
    num = num + 1
    huifu = urllib.urlencode(
      {'sendmsg': 0, "content": str(haha(num)), "action": "add", "id": str(i), "classid": 177})
    gradeUrl = 'http://******.me/bbs/book_re.aspx'
    result = opener.open(gradeUrl)
    print result.read()
    print "當前第" + str(num) + "" + "次回帖"
    print("當前帖子id" + str(i))
    sleep(1)

發帖子代碼:

'''
發帖子(普通帖子或者加懸賞分的帖子:并不是懸賞板塊的帖子)
'''
def post_articles(book_title, book_content, classid=177, sendmoney=0):
  filename = "cookie"
  cookie = cookielib.MozillaCookieJar(filename)
  cookie.load(filename, ignore_discard=True, ignore_expires=True)
  handler = urllib2.HTTPCookieProcessor(cookie)
  opener = urllib2.build_opener(handler)
  post_articles = urllib.urlencode(
    {'sendmsg': 0, "book_title": str(book_title), "action": "gomod", "siteid": "1000",
     "book_content": str(book_content), "classid": classid, "sendmoney": sendmoney})
  gradeUrl = 'http://*****.me/bbs/book_view_add.aspx'
  result = opener.open(gradeUrl, post_articles)
  print(result.read())

將這些代碼進行進行調用就可以去刷回復了。

使用Python怎么實現一個爬蟲刷回復功能

關于使用Python怎么實現一個爬蟲刷回復功能問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

改则县| 阜平县| 尖扎县| 荔波县| 彰武县| 二连浩特市| 锦州市| 微博| 华宁县| 彝良县| 津市市| 高安市| 依兰县| 兰坪| 鹤山市| 琼中| 龙泉市| 双柏县| 霍林郭勒市| 裕民县| 林州市| 长寿区| 商洛市| 星座| 牡丹江市| 新野县| 崇州市| 武宣县| 封开县| 沙洋县| 德安县| 泉州市| 双鸭山市| 扎鲁特旗| 彭水| 佛学| 乌什县| 双峰县| 巴彦县| 裕民县| 余姚市|