Tensorflow.js是Google开发的开源工具包,用于在浏览器或节点平台上执行机器学习模型和深度学习神经网络。它还使开发人员能够在 JavaScript 中创建机器学习模型,并直接在浏览器中或通过 Node.js 使用它们。
tf.layers.prelu() 函数用于对数据应用泄漏修正线性单元激活函数的参数化版本。
用法:
tf.layers.prelu(args?)
输入形状:任意。当使用该层作为模型中的初始层时,请使用 inputShape 配置。
输出形状:输出与输入具有相同的形状。
参数:它接受 args 对象,该对象可以具有以下属性:
- args:它是一个包含以下属性的对象:
- alphaInitializer:可学习 alpha 的初始值设定项。
- alphaRegularizer:对于可学习的 alpha,这是正则化器。
- alphaConstraint:对于可学习的阿尔法来说,这就是限制。
- sharedAxes:激活函数的可学习参数应共享的轴
- inputShape:如果设置了此属性,它将用于构造一个输入层,该输入层将插入到该层之前。
- batchInputShape:如果设置了此属性,将创建一个输入层并将其插入到该层之前。
- batchSize:如果未提供batchInputShape而提供了inputShape,则使用batchSize来构建batchInputShape。
- dtype:这是该层的数据类型。 float32 是默认值。该参数仅适用于输入层。
- name:这是图层的名称,是字符串类型。
- trainable:如果该层的权重可以通过拟合来改变。 True 是默认值。
- weights:图层的初始权重值。
返回:它返回一个对象(PReLU)。
示例 1:
Javascript
import * as tf from "@tensorflow/tfjs";
const pReLULayer = tf.layers.prelu({
alphaInitializer: 'glorotUniform'
});
const x = tf.tensor([11, -8, -9, 12]);
pReLULayer.apply(x).print();
输出:
Tensor [11, -6.450459, -7.2567663, 12]
示例 2:
Javascript
import * as tf from "@tensorflow/tfjs";
const pReLULayer = tf.layers.prelu({
alphaInitializer: 'glorotUniform'
});
const x = tf.tensor([1.12, -0.8, 1.9,
0.12, 0.25, -3.4], [2, 3]);
pReLULayer.apply(x).print();
输出:
Tensor [[1.12, 0.5329878, 1.9 ], [0.12, 0.25 , -3.0655782]]
参考: https://js.tensorflow.org/api/latest/#layers.prelu
相关用法
- Tensorflow.js tf.layers.permute()用法及代码示例
- Tensorflow.js tf.layers.minimum()用法及代码示例
- Tensorflow.js tf.layers.flatten()用法及代码示例
- Tensorflow.js tf.layers.average()用法及代码示例
- Tensorflow.js tf.layers.repeatVector()用法及代码示例
- Tensorflow.js tf.layers.multiply()用法及代码示例
- Tensorflow.js tf.layers.embedding()用法及代码示例
- Tensorflow.js tf.layers.dense()用法及代码示例
- Tensorflow.js tf.layers.reshape()用法及代码示例
- Tensorflow.js tf.layers.dropout()用法及代码示例
- Tensorflow.js tf.layers.concatenate()用法及代码示例
- Tensorflow.js tf.layers.gaussianNoise()用法及代码示例
- Tensorflow.js tf.layers.gaussianDropout()用法及代码示例
- Tensorflow.js tf.layers.alphaDropout()用法及代码示例
- Tensorflow.js tf.layers.elu()用法及代码示例
- Tensorflow.js tf.layers.masking()用法及代码示例
- Tensorflow.js tf.layers.timeDistributed()用法及代码示例
- Tensorflow.js tf.layers.gru()用法及代码示例
- Tensorflow.js tf.layers.simpleRNNCell()用法及代码示例
- Tensorflow.js tf.layers.add()用法及代码示例
- Tensorflow.js tf.layers.gruCell()用法及代码示例
- Tensorflow.js tf.layers.maximum()用法及代码示例
- Tensorflow.js tf.layers.zeroPadding2d()用法及代码示例
- Tensorflow.js tf.layers.dot()用法及代码示例
- Tensorflow.js tf.layers.activation()用法及代码示例
注:本文由纯净天空筛选整理自aayushmohansinha大神的英文原创作品 Tensorflow.js tf.layers.prelu() Function。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。