当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Tensorflow.js tf.layers.inputLayer()用法及代码示例


Tensorflow.js是由Google开发的开源库,用于在浏览器或节点环境中运行机器学习模型以及深度学习神经网络。

tf.layers.inputLayer() 函数是 tf.LayersModel 的入口点。它是通过定义 inputshape 或 batchInputShape 以支持第一层而自发产生的,以支持 tf.Sequentialmodels。它不能被特别定义。此外,例如,在从其他顺序模型层的子集中创建顺序模型时,它可以定期使用。

用法:

tf.layers.inputLayer(args)

Parameters: 

  • args:上述方法可以容纳陈述的论点。它是 object 类型,它持有的参数如下所述。
    1. inputShape:不包括批次轴的所述输入形状。它可以是 (null | number)[] 类型。
    2. batchSize:它是规定的可选输入批量大小。它可以是整数或空类型。
    3. batchInputShape:它是包含批轴的规定批输入形状。它可以是 (null | number)[] 类型。
    4. dtype:所述输入的数据类型。它可以是 float32、int32、bool、complex64 或 string 类型。
    5. sparse:它说明创建的占位符是否是稀疏的。它是布尔值。
    6. name:正在使用的图层的指定名称。它是字符串类型。

返回值:它返回输入层。



范例1:

Javascript


// Importing the tensorflow.js library
import * as tf from "@tensorflow/tfjs"
  
// Defining a model
const model = tf.sequential();
  
// Calling layers.inputLayer() using add() method
model.add(tf.layers.inputLayer({inputShape:[4]}));
  
// Printing output
model.predict(tf.ones([1, 4])).print();

输出:

Tensor
     [[1, 1, 1, 1],]

范例2:

Javascript


// Importing the tensorflow.js library
import * as tf from "@tensorflow/tfjs"
  
// Defining a model
const model = tf.sequential();
  
// Calling layers.inputLayer() method using add() method
model.add(tf.layers.inputLayer({batchInputShape:[4], 
      dtype:'int32', sparse:false, name:'mlayer'}));
  
// Printing output
model.summary();

输出:

_________________________________________________________________
Layer (type)                 Output shape              Param #   
=================================================================
mlayer (InputLayer)          [4]                       0         
=================================================================
Total params:0
Trainable params:0
Non-trainable params:0
_________________________________________________________________

参考: https://js.tensorflow.org/api/latest/#layers.inputLayer




相关用法


注:本文由纯净天空筛选整理自nidhi1352singh大神的英文原创作品 Tensorflow.js tf.layers.inputLayer() Function。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。