当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python tf.compat.v1.data.TextLineDataset.prefetch用法及代码示例


用法

prefetch(
    buffer_size, name=None
)

参数

  • buffer_size tf.int64 标量 tf.Tensor ,表示预取时将缓冲的最大元素数。如果使用值tf.data.AUTOTUNE,则动态调整缓冲区大小。
  • name 可选的。 tf.data 转换的名称。

返回

  • Dataset 一个Dataset

创建一个Dataset,从这个数据集中预取元素。

大多数数据集输入管道应以调用 prefetch 结束。这允许在处理当前元素的同时准备后面的元素。这通常会提高延迟和吞吐量,但代价是使用额外的内存来存储预取的元素。

注意:与其他 Dataset 方法一样,预取对输入数据集的元素进行操作。它没有示例与批次的概念。 examples.prefetch(2) 将预取两个元素(2 个示例),而 examples.batch(20).prefetch(2) 将预取 2 个元素(2 个批次,每个 20 个示例)。

dataset = tf.data.Dataset.range(3)
dataset = dataset.prefetch(2)
list(dataset.as_numpy_iterator())
[0, 1, 2]

相关用法


注:本文由纯净天空筛选整理自tensorflow.org大神的英文原创作品 tf.compat.v1.data.TextLineDataset.prefetch。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。