Tensorflow.js是Google開發的開源工具包,用於在瀏覽器或節點平台上執行機器學習模型和深度學習神經網絡。它還使開發人員能夠在 JavaScript 中創建機器學習模型,並直接在瀏覽器中或通過 Node.js 使用它們。
tf.layers.prelu() 函數用於對數據應用泄漏修正線性單元激活函數的參數化版本。
用法:
tf.layers.prelu(args?)
輸入形狀:任意。當使用該層作為模型中的初始層時,請使用 inputShape 配置。
輸出形狀:輸出與輸入具有相同的形狀。
參數:它接受 args 對象,該對象可以具有以下屬性:
- args:它是一個包含以下屬性的對象:
- alphaInitializer:可學習 alpha 的初始值設定項。
- alphaRegularizer:對於可學習的 alpha,這是正則化器。
- alphaConstraint:對於可學習的阿爾法來說,這就是限製。
- sharedAxes:激活函數的可學習參數應共享的軸
- inputShape:如果設置了此屬性,它將用於構造一個輸入層,該輸入層將插入到該層之前。
- batchInputShape:如果設置了此屬性,將創建一個輸入層並將其插入到該層之前。
- batchSize:如果未提供batchInputShape而提供了inputShape,則使用batchSize來構建batchInputShape。
- dtype:這是該層的數據類型。 float32 是默認值。該參數僅適用於輸入層。
- name:這是圖層的名稱,是字符串類型。
- trainable:如果該層的權重可以通過擬合來改變。 True 是默認值。
- weights:圖層的初始權重值。
返回:它返回一個對象(PReLU)。
示例 1:
Javascript
import * as tf from "@tensorflow/tfjs";
const pReLULayer = tf.layers.prelu({
alphaInitializer: 'glorotUniform'
});
const x = tf.tensor([11, -8, -9, 12]);
pReLULayer.apply(x).print();
輸出:
Tensor [11, -6.450459, -7.2567663, 12]
示例 2:
Javascript
import * as tf from "@tensorflow/tfjs";
const pReLULayer = tf.layers.prelu({
alphaInitializer: 'glorotUniform'
});
const x = tf.tensor([1.12, -0.8, 1.9,
0.12, 0.25, -3.4], [2, 3]);
pReLULayer.apply(x).print();
輸出:
Tensor [[1.12, 0.5329878, 1.9 ], [0.12, 0.25 , -3.0655782]]
參考: https://js.tensorflow.org/api/latest/#layers.prelu
相關用法
- Tensorflow.js tf.layers.permute()用法及代碼示例
- Tensorflow.js tf.layers.minimum()用法及代碼示例
- Tensorflow.js tf.layers.flatten()用法及代碼示例
- Tensorflow.js tf.layers.average()用法及代碼示例
- Tensorflow.js tf.layers.repeatVector()用法及代碼示例
- Tensorflow.js tf.layers.multiply()用法及代碼示例
- Tensorflow.js tf.layers.embedding()用法及代碼示例
- Tensorflow.js tf.layers.dense()用法及代碼示例
- Tensorflow.js tf.layers.reshape()用法及代碼示例
- Tensorflow.js tf.layers.dropout()用法及代碼示例
- Tensorflow.js tf.layers.concatenate()用法及代碼示例
- Tensorflow.js tf.layers.gaussianNoise()用法及代碼示例
- Tensorflow.js tf.layers.gaussianDropout()用法及代碼示例
- Tensorflow.js tf.layers.alphaDropout()用法及代碼示例
- Tensorflow.js tf.layers.elu()用法及代碼示例
- Tensorflow.js tf.layers.masking()用法及代碼示例
- Tensorflow.js tf.layers.timeDistributed()用法及代碼示例
- Tensorflow.js tf.layers.gru()用法及代碼示例
- Tensorflow.js tf.layers.simpleRNNCell()用法及代碼示例
- Tensorflow.js tf.layers.add()用法及代碼示例
- Tensorflow.js tf.layers.gruCell()用法及代碼示例
- Tensorflow.js tf.layers.maximum()用法及代碼示例
- Tensorflow.js tf.layers.zeroPadding2d()用法及代碼示例
- Tensorflow.js tf.layers.dot()用法及代碼示例
- Tensorflow.js tf.layers.activation()用法及代碼示例
注:本文由純淨天空篩選整理自aayushmohansinha大神的英文原創作品 Tensorflow.js tf.layers.prelu() Function。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。