91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python中如何使用Github用戶數據爬蟲

發布時間:2021-10-09 16:19:34 來源:億速云 閱讀:161 作者:柒染 欄目:編程語言

Python中如何使用Github用戶數據爬蟲,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

前言

主要目標是爬取Github上指定用戶的粉絲數據以及對爬取到的數據進行一波簡單的可視化分析。 讓我們愉快地開始吧~

開發工具

Python版本:3.6.4

相關模塊:

bs4模塊;

requests模塊;

argparse模塊;

pyecharts模塊;

以及一些python自帶的模塊。

環境搭建

安裝Python并添加到環境變量,pip安裝需要的相關模塊即可。

數據爬取

感覺好久沒用beautifulsoup了,所以今天就用它來解析網頁從而獲得我們自己想要的數據唄。以我自己的賬戶為例:

Python中如何使用Github用戶數據爬蟲

我們先抓取所有關注者的用戶名,它在類似如下圖所示的標簽中:

Python中如何使用Github用戶數據爬蟲

用beautifulsoup可以很方便地提取它們:

'''獲得followers的用戶名'''
def getfollowernames(self):
    print('[INFO]: 正在獲取%s的所有followers用戶名...' % self.target_username)
    page = 0
    follower_names = []
    headers = self.headers.copy()
    while True:
        page += 1
        followers_url = f'https://github.com/{self.target_username}?page={page}&tab=followers'
        try:
            response = requests.get(followers_url, headers=headers, timeout=15)
            html = response.text
            if 've reached the end' in html:
                break
            soup = BeautifulSoup(html, 'lxml')
            for name in soup.find_all('span', class_='link-gray pl-1'):
                print(name)
                follower_names.append(name.text)
            for name in soup.find_all('span', class_='link-gray'):
                print(name)
                if name.text not in follower_names:
                    follower_names.append(name.text)
        except:
            pass
        time.sleep(random.random() + random.randrange(0, 2))
        headers.update({'Referer': followers_url})
    print('[INFO]: 成功獲取%s的%s個followers用戶名...' % (self.target_username, len(follower_names)))
    return follower_names

接著,我們就可以根據這些用戶名進入到他們的主頁來抓取對應用戶的詳細數據了,每個主頁鏈接的構造方式為:

https://github.com/ + 用戶名
例如: https://github.com/CharlesPikachu

我們想要抓取的數據包括:

Python中如何使用Github用戶數據爬蟲

同樣地,我們利用beautifulsoup來提取這些信息:

for idx, name in enumerate(follower_names):
    print('[INFO]: 正在爬取用戶%s的詳細信息...' % name)
    user_url = f'https://github.com/{name}'
    try:
        response = requests.get(user_url, headers=self.headers, timeout=15)
        html = response.text
        soup = BeautifulSoup(html, 'lxml')
        # --獲取用戶名
        username = soup.find_all('span', class_='p-name vcard-fullname d-block overflow-hidden')
        if username:
            username = [name, username[0].text]
        else:
            username = [name, '']
        # --所在地
        position = soup.find_all('span', class_='p-label')
        if position:
            position = position[0].text
        else:
            position = ''
        # --倉庫數, stars數, followers, following
        overview = soup.find_all('span', class_='Counter')
        num_repos = self.str2int(overview[0].text)
        num_stars = self.str2int(overview[2].text)
        num_followers = self.str2int(overview[3].text)
        num_followings = self.str2int(overview[4].text)
        # --貢獻數(最近一年)
        num_contributions = soup.find_all('h3', class_='f4 text-normal mb-2')
        num_contributions = self.str2int(num_contributions[0].text.replace('\n', '').replace(' ', ''). \
                            replace('contributioninthelastyear', '').replace('contributionsinthelastyear', ''))
        # --保存數據
        info = [username, position, num_repos, num_stars, num_followers, num_followings, num_contributions]
        print(info)
        follower_infos[str(idx)] = info
    except:
        pass
    time.sleep(random.random() + random.randrange(0, 2))

數據可視化

這里以我們自己的粉絲數據為例,大概1200條吧。

先來看看他們在過去一年里提交的代碼次數分布吧:

Python中如何使用Github用戶數據爬蟲

提交最多的一位名字叫fengjixuchui,在過去一年一共有9437次提交。平均下來,每天都得提交20多次,也太勤快了。Python中如何使用Github用戶數據爬蟲

再來看看每個人擁有的倉庫數量分布唄:

Python中如何使用Github用戶數據爬蟲

本以為會是條單調的曲線,看來低估各位了。

接著來看看star別人的數量分布唄:

Python中如何使用Github用戶數據爬蟲

還行,至少不全都是"潛水白嫖"的Python中如何使用Github用戶數據爬蟲

。表揚一下名為lifa123的老哥,竟然給別人了18700個????,也太秀了。Python中如何使用Github用戶數據爬蟲

再來看看這1000多個人擁有的粉絲數量分布唄:

Python中如何使用Github用戶數據爬蟲

關于Python中如何使用Github用戶數據爬蟲問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

肃北| 富川| 苏州市| 容城县| 延长县| 五台县| 突泉县| 体育| 灵寿县| 博湖县| 水城县| 惠州市| 浦江县| 蓬溪县| 仙居县| 宾阳县| 望都县| 阳曲县| 石门县| 桃源县| 贞丰县| 富宁县| 探索| 晋州市| 石景山区| 博爱县| 新安县| 神农架林区| 平陆县| 阿克陶县| 塔城市| 延长县| 来宾市| 日照市| 兰溪市| 凉城县| 隆子县| 内黄县| 昭苏县| 井冈山市| 苗栗县|