91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在python中利用Yolact訓練數據集

發布時間:2021-04-06 15:44:02 來源:億速云 閱讀:323 作者:Leah 欄目:開發技術

怎么在python中利用Yolact訓練數據集?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

1:提前準備好自己的數據集

使用labelme來制作分割數據集,但是得到的是一個個單獨的json文件。需要將其轉換成coco。
labelme2coco.py如下所示(代碼來源:github鏈接):

import os
import json
import numpy as np
import glob
import shutil
from sklearn.model_selection import train_test_split
np.random.seed(41)

#0為背景,此處根據你數據集的類別來修改key
classname_to_id = {"1": 1}

class Lableme2CoCo:

 def __init__(self):
  self.images = []
  self.annotations = []
  self.categories = []
  self.img_id = 0
  self.ann_id = 0

 def save_coco_json(self, instance, save_path):
  json.dump(instance, open(save_path, 'w', encoding='utf-8'), ensure_ascii=False, indent=1) # indent=2 更加美觀顯示

 # 由json文件構建COCO
 def to_coco(self, json_path_list):
  self._init_categories()
  for json_path in json_path_list:
   obj = self.read_jsonfile(json_path)
   self.images.append(self._image(obj, json_path))
   shapes = obj['shapes']
   for shape in shapes:
    annotation = self._annotation(shape)
    self.annotations.append(annotation)
    self.ann_id += 1
   self.img_id += 1
  instance = {}
  instance['info'] = 'spytensor created'
  instance['license'] = ['license']
  instance['images'] = self.images
  instance['annotations'] = self.annotations
  instance['categories'] = self.categories
  return instance

 # 構建類別
 def _init_categories(self):
  for k, v in classname_to_id.items():
   category = {}
   category['id'] = v
   category['name'] = k
   self.categories.append(category)

 # 構建COCO的image字段
 def _image(self, obj, path):
  image = {}
  from labelme import utils
  img_x = utils.img_b64_to_arr(obj['imageData'])
  h, w = img_x.shape[:-1]
  image['height'] = h
  image['width'] = w
  image['id'] = self.img_id
  image['file_name'] = os.path.basename(path).replace(".json", ".jpg")
  return image

 # 構建COCO的annotation字段
 def _annotation(self, shape):
  label = shape['label']
  points = shape['points']
  annotation = {}
  annotation['id'] = self.ann_id
  annotation['image_id'] = self.img_id
  annotation['category_id'] = int(classname_to_id[label])
  annotation['segmentation'] = [np.asarray(points).flatten().tolist()]
  annotation['bbox'] = self._get_box(points)
  annotation['iscrowd'] = 0
  annotation['area'] = 1.0
  return annotation

 # 讀取json文件,返回一個json對象
 def read_jsonfile(self, path):
  with open(path, "r", encoding='utf-8') as f:
   return json.load(f)

 # COCO的格式: [x1,y1,w,h] 對應COCO的bbox格式
 def _get_box(self, points):
  min_x = min_y = np.inf
  max_x = max_y = 0
  for x, y in points:
   min_x = min(min_x, x)
   min_y = min(min_y, y)
   max_x = max(max_x, x)
   max_y = max(max_y, y)
  return [min_x, min_y, max_x - min_x, max_y - min_y]


if __name__ == '__main__':
 labelme_path = "labelme/" # 此處根據你的數據集地址來修改
 saved_coco_path = "./"
 # 創建文件
 if not os.path.exists("%scoco/annotations/"%saved_coco_path):
  os.makedirs("%scoco/annotations/"%saved_coco_path)
 if not os.path.exists("%scoco/images/train2017/"%saved_coco_path):
  os.makedirs("%scoco/images/train2017"%saved_coco_path)
 if not os.path.exists("%scoco/images/val2017/"%saved_coco_path):
  os.makedirs("%scoco/images/val2017"%saved_coco_path)
 # 獲取images目錄下所有的joson文件列表
 json_list_path = glob.glob(labelme_path + "/*.json")
 # 數據劃分,這里沒有區分val2017和tran2017目錄,所有圖片都放在images目錄下
 train_path, val_path = train_test_split(json_list_path, test_size=0.12)
 print("train_n:", len(train_path), 'val_n:', len(val_path))

 # 把訓練集轉化為COCO的json格式
 l2c_train = Lableme2CoCo()
 train_instance = l2c_train.to_coco(train_path)
 l2c_train.save_coco_json(train_instance, '%scoco/annotations/instances_train2017.json'%saved_coco_path)
 for file in train_path:
  shutil.copy(file.replace("json","jpg"),"%scoco/images/train2017/"%saved_coco_path)
 for file in val_path:
  shutil.copy(file.replace("json","jpg"),"%scoco/images/val2017/"%saved_coco_path)

 # 把驗證集轉化為COCO的json格式
 l2c_val = Lableme2CoCo()
 val_instance = l2c_val.to_coco(val_path)
 l2c_val.save_coco_json(val_instance, '%scoco/annotations/instances_val2017.json'%saved_coco_path)

只需要修改兩個地方即可,然后放到data文件夾下。
最后,得到的coco格式的數據集如下所示:

怎么在python中利用Yolact訓練數據集

至此,數據準備已經結束。

2:下載github存儲庫

網址:YOLACT

之后解壓,但是我解壓的時候不知道為啥沒有yolact.py這個文件。后來又建了一個py文件,復制了里面的代碼。

怎么在python中利用Yolact訓練數據集

下載權重文件,把權重文件放到yolact-master下的weights文件夾里(沒有就新建):

怎么在python中利用Yolact訓練數據集

怎么在python中利用Yolact訓練數據集

3:修改config.py

文件所在位置:

怎么在python中利用Yolact訓練數據集

修改類別,把原本的coco的類別全部注釋掉,修改成自己的(如紅色框),注意COCO_CLASSES里有一個逗號。

怎么在python中利用Yolact訓練數據集

修改數據集地址dataset_base

怎么在python中利用Yolact訓練數據集

修改coco_base_config(下面第二個橫線max_iter并不是控制訓練輪數的,第二張圖中的max_iter才是)

怎么在python中利用Yolact訓練數據集

怎么在python中利用Yolact訓練數據集

4:訓練

cd到指定路徑下,執行下面命令即可

python train.py --config=yolact_base_config

剛開始:

怎么在python中利用Yolact訓練數據集

因為我是租的云服務器,在jupyter notebook里訓練的。輸出的訓練信息比較亂。

訓練幾分鐘后:

怎么在python中利用Yolact訓練數據集

主要看T后面的數字即可,好像他就是總的loss,如果它收斂了,按下Ctrl+C,即可中止訓練,保存模型權重。

第一個問題:

PytorchStreamReader failed reading zip archive: failed finding central directory

怎么在python中利用Yolact訓練數據集

第二個問題:
(但是不知道為啥,我訓練時如果中斷,保存的模型不能用來測試,會爆出下面的錯誤)

RuntimeError: unexpected EOF, expected *** more bytes. The file might be corruptrd

沒辦法解決,所以只能跑完,自動結束之后保存的模型拿來測試(自動保存的必中斷保存的要大十幾兆)

模型保存的格式:<config>_<epoch>_<iter>.pth。如果是中斷的:<config>_<epoch>_<iter>_interrupt.pth

5:測試

使用官網的測試命令即可

怎么在python中利用Yolact訓練數據集

關于怎么在python中利用Yolact訓練數據集問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

惠安县| 兴国县| 台南市| 阳江市| 南木林县| 汉阴县| 大宁县| 山东| 平昌县| 合川市| 文化| 马龙县| 延吉市| 绥芬河市| 平泉县| 平邑县| 平果县| 铁岭市| 大余县| 乐昌市| 隆德县| 宁夏| 邛崃市| 台湾省| 津南区| 阿巴嘎旗| 沭阳县| 洪泽县| 壶关县| 和田市| 汉川市| 五莲县| 都安| 西吉县| 鹿邑县| 双城市| 黑龙江省| 伊宁市| 弋阳县| 白河县| 黄骅市|