當前位置: 首頁>>編程示例 >>用法及示例精選 >>正文


Tensorflow.js tf.initializers.heNormal()用法及代碼示例

Tensorflow.js是Google開發的開源庫,用於在瀏覽器或節點環境中運行機器學習模型和深度學習神經網絡。它還可以幫助開發人員使用JavaScript語言開發ML模型,並可以直接在瀏覽器或Node.js中使用ML。

tf.initializers.heNormal() 函數從以零為中心的截斷正態分布中抽取樣本,stddev = sqrt(2 /fanIn) 位於 [-limit, limit] 內,其中 limit 為 sqrt(6 /fan_in)。請注意,fanIn 是張量權重中的輸入數量。

用法:

tf.initializers.heNormal(arguments)

參數:

  • arguments:它是一個包含種子(一個數字)的對象,它是隨機數生成器的種子/數字。

返回值:它返回 tf.initializers.Initializer



範例1:

Javascript


// Importing the tensorflow.js library
import * as tf from "@tensorflow/tfjs"
// Initializing the .initializers.heNormal()
// function
const geek = tf.initializers.heNormal(7)
// Printing gain
console.log(geek);
console.log('\nIndividual values:\n');
console.log(geek.scale);
console.log(geek.mode);
console.log(geek.distribution);

輸出:

{
  "scale":2,
  "mode":"fanIn",
  "distribution":"normal"
}

Individual values:

2
fanIn
normal

範例2:

Javascript


// Importing the tensorflow.Js library
import * as tf from "@tensorflow/tfjs
// Defining the input value
const inputValue = tf.input({shape:[4]});
// Initializing tf.initializers.heNormal() function
const funcValue = tf.initializers.heNormal(3)
// Creating dense layer 1
const dense_layer_1 = tf.layers.dense({
    units:7,
    activation:'relu',
    kernelInitialize:funcValue
});
// Creating dense layer 2
const dense_layer_2 = tf.layers.dense({
    units:8,
    activation:'softmax'
});
// Output
const outputValue = dense_layer_2.apply(
  dense_layer_1.apply(inputValue)
);
// Creation the model.
const model = tf.model({
    inputs:inputValue,
    outputs:outputValue
});
// Predicting the output.
model.predict(tf.ones([2, 4])).print();

輸出:

Tensor 
[[0.0802892, 0.1482767, 0.1004469, 0.1141223, 0.218376, 0.1217001, 0.139549, 0.0772399], 
[0.0802892, 0.1482767, 0.1004469, 0.1141223, 0.218376, 0.1217001, 0.139549, 0.0772399]]

參考: https://js.tensorflow.org/api/latest/#initializers.heNormal




相關用法


注:本文由純淨天空篩選整理自cyber_psych0大神的英文原創作品 Tensorflow.js tf.initializers.heNormal() Function。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。