當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python tf.compat.v1.data.TFRecordDataset.prefetch用法及代碼示例


用法

prefetch(
    buffer_size, name=None
)

參數

  • buffer_size tf.int64 標量 tf.Tensor ,表示預取時將緩衝的最大元素數。如果使用值tf.data.AUTOTUNE,則動態調整緩衝區大小。
  • name 可選的。 tf.data 轉換的名稱。

返回

  • Dataset 一個Dataset

創建一個Dataset,從這個數據集中預取元素。

大多數數據集輸入管道應以調用 prefetch 結束。這允許在處理當前元素的同時準備後麵的元素。這通常會提高延遲和吞吐量,但代價是使用額外的內存來存儲預取的元素。

注意:與其他 Dataset 方法一樣,預取對輸入數據集的元素進行操作。它沒有示例與批次的概念。 examples.prefetch(2) 將預取兩個元素(2 個示例),而 examples.batch(20).prefetch(2) 將預取 2 個元素(2 個批次,每個 20 個示例)。

dataset = tf.data.Dataset.range(3)
dataset = dataset.prefetch(2)
list(dataset.as_numpy_iterator())
[0, 1, 2]

相關用法


注:本文由純淨天空篩選整理自tensorflow.org大神的英文原創作品 tf.compat.v1.data.TFRecordDataset.prefetch。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。