91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python的tf.train.batch函數怎么用

發布時間:2022-05-05 09:29:49 來源:億速云 閱讀:167 作者:iii 欄目:開發技術

這篇文章主要介紹“python的tf.train.batch函數怎么用”的相關知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望這篇“python的tf.train.batch函數怎么用”文章能幫助大家解決問題。

tf.train.batch函數

tf.train.batch(
    tensors,
    batch_size,
    num_threads=1,
    capacity=32,
    enqueue_many=False,
    shapes=None,
    dynamic_pad=False,
    allow_smaller_final_batch=False,
    shared_name=None,
    name=None
)

其中:

1、tensors:利用slice_input_producer獲得的數據組合。

2、batch_size:設置每次從隊列中獲取出隊數據的數量。

3、num_threads:用來控制線程的數量,如果其值不唯一,由于線程執行的特性,數據獲取可能變成亂序。

4、capacity:一個整數,用來設置隊列中元素的最大數量

5、allow_samller_final_batch:當其為True時,如果隊列中的樣本數量小于batch_size,出隊的數量會以最終遺留下來的樣本進行出隊;當其為False時,小于batch_size的樣本不會做出隊處理。

6、name:名字

測試代碼

1、allow_samller_final_batch=True

import pandas as pd
import numpy as np
import tensorflow as tf
# 生成數據
def generate_data():
    num = 18
    label = np.arange(num)
    return label
# 獲取數據
def get_batch_data():
    label = generate_data()
    input_queue = tf.train.slice_input_producer([label], shuffle=False,num_epochs=2)
    label_batch = tf.train.batch(input_queue, batch_size=5, num_threads=1, capacity=64,allow_smaller_final_batch=True)
    return label_batch
# 數據組
label = get_batch_data()
sess = tf.Session()
# 初始化變量
sess.run(tf.global_variables_initializer())
sess.run(tf.local_variables_initializer())
# 初始化batch訓練的參數
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess,coord)
try:
    while not coord.should_stop():
        # 自動獲取下一組數據
        l = sess.run(label)
        print(l)
except tf.errors.OutOfRangeError:
    print('Done training')
finally:
    coord.request_stop()
coord.join(threads)
sess.close()

運行結果為:

[0 1 2 3 4]
[5 6 7 8 9]
[10 11 12 13 14]
[15 16 17  0  1]
[2 3 4 5 6]
[ 7  8  9 10 11]
[12 13 14 15 16]
[17]
Done training

2、allow_samller_final_batch=False

相比allow_samller_final_batch=True,輸出結果少了[17]

import pandas as pd
import numpy as np
import tensorflow as tf
# 生成數據
def generate_data():
    num = 18
    label = np.arange(num)
    return label
# 獲取數據
def get_batch_data():
    label = generate_data()
    input_queue = tf.train.slice_input_producer([label], shuffle=False,num_epochs=2)
    label_batch = tf.train.batch(input_queue, batch_size=5, num_threads=1, capacity=64,allow_smaller_final_batch=False)
    return label_batch
# 數據組
label = get_batch_data()
sess = tf.Session()
# 初始化變量
sess.run(tf.global_variables_initializer())
sess.run(tf.local_variables_initializer())
# 初始化batch訓練的參數
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess,coord)
try:
    while not coord.should_stop():
        # 自動獲取下一組數據
        l = sess.run(label)
        print(l)
except tf.errors.OutOfRangeError:
    print('Done training')
finally:
    coord.request_stop()
coord.join(threads)
sess.close()

運行結果為:

[0 1 2 3 4]
[5 6 7 8 9]
[10 11 12 13 14]
[15 16 17  0  1]
[2 3 4 5 6]
[ 7  8  9 10 11]
[12 13 14 15 16]
Done training

關于“python的tf.train.batch函數怎么用”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識,可以關注億速云行業資訊頻道,小編每天都會為大家更新不同的知識點。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

嫩江县| 汉中市| 文水县| 彭水| 荔浦县| 齐齐哈尔市| 西贡区| 南开区| 财经| 南投县| 开平市| 溧水县| 崇明县| 福贡县| 胶南市| 呼和浩特市| 华池县| 莱芜市| 元江| 威海市| 安岳县| 武乡县| 水城县| 深水埗区| 卢氏县| 余庆县| 红原县| 施甸县| 峨边| 承德市| 大洼县| 揭东县| 玉门市| 大邑县| 栖霞市| 砀山县| 手游| 西藏| 龙川县| 金华市| 巴马|