当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Tensorflow.js tf.layers.prelu()用法及代码示例


Tensorflow.js是Google开发的开源工具包,用于在浏览器或节点平台上执行机器学习模型和深度学习神经网络。它还使开发人员能够在 JavaScript 中创建机器学习模型,并直接在浏览器中或通过 Node.js 使用它们。

tf.layers.prelu() 函数用于对数据应用泄漏修正线性单元激活函数的参数化版本。

用法:

tf.layers.prelu(args?)

输入形状:任意。当使用该层作为模型中的初始层时,请使用 inputShape 配置。

输出形状:输出与输入具有相同的形状。

参数:它接受 args 对象,该对象可以具有以下属性:

  • args:它是一个包含以下属性的对象:
    • alphaInitializer:可学习 alpha 的初始值设定项。
    • alphaRegularizer:对于可学习的 alpha,这是正则化器。
    • alphaConstraint:对于可学习的阿尔法来说,这就是限制。
    • sharedAxes:激活函数的可学习参数应共享的轴
    • inputShape:如果设置了此属性,它将用于构造一个输入层,该输入层将插入到该层之前。
    • batchInputShape:如果设置了此属性,将创建一个输入层并将其插入到该层之前。
    • batchSize:如果未提供batchInputShape而提供了inputShape,则使用batchSize来构建batchInputShape。
    • dtype:这是该层的数据类型。 float32 是默认值。该参数仅适用于输入层。
    • name:这是图层的名称,是字符串类型。
    • trainable:如果该层的权重可以通过拟合来改变。 True 是默认值。
    • weights:图层的初始权重值。

返回:它返回一个对象(PReLU)。

示例 1:

Javascript


import * as tf from "@tensorflow/tfjs"; 
  
const pReLULayer = tf.layers.prelu({ 
    alphaInitializer: 'glorotUniform'
}); 
      
const x = tf.tensor([11, -8, -9, 12]); 
  
pReLULayer.apply(x).print();

输出:

Tensor
   [11, -6.450459, -7.2567663, 12]

示例 2:

Javascript


import * as tf from "@tensorflow/tfjs"; 
  
const pReLULayer = tf.layers.prelu({ 
    alphaInitializer: 'glorotUniform'
}); 
      
const x = tf.tensor([1.12, -0.8, 1.9,  
    0.12, 0.25, -3.4], [2, 3]); 
  
pReLULayer.apply(x).print();

输出:

Tensor
   [[1.12, 0.5329878, 1.9       ],
    [0.12, 0.25     , -3.0655782]]

参考: https://js.tensorflow.org/api/latest/#layers.prelu



相关用法


注:本文由纯净天空筛选整理自aayushmohansinha大神的英文原创作品 Tensorflow.js tf.layers.prelu() Function。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。