本文整理汇总了Python中rbm.RBM.prop_up方法的典型用法代码示例。如果您正苦于以下问题:Python RBM.prop_up方法的具体用法?Python RBM.prop_up怎么用?Python RBM.prop_up使用的例子?那么, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在类rbm.RBM
的用法示例。
在下文中一共展示了RBM.prop_up方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。
示例1: RBM
# 需要导入模块: from rbm import RBM [as 别名]
# 或者: from rbm.RBM import prop_up [as 别名]
data_sh = theano.shared(np.asarray(data, dtype=theano.config.floatX), borrow=True)
data_target_sh = theano.shared(np.asarray(data_target, dtype=theano.config.floatX), borrow=True)
rbm = RBM(num_vis = num_dims, num_hid = 500)
rbm_line = RBMBinLine(num_vis = 500, num_hid = 2)
# hyper parameters
train_params = { 'batch_size' : 100, 'learning_rate' : 0.1, 'cd_steps' : 2, 'max_epoch' : 25, 'persistent' : False}
train_rbm(rbm, data_sh, train_params, False, False)
fine_tune(rbm, data_sh, epochs = 10, batch_size=100)
# collect statistics
pre_sigm, hid_stat = theano.function([], rbm.prop_up(data_sh))()
hid_stat_sh = theano.shared(np.asarray(hid_stat, dtype=theano.config.floatX), borrow=True)
# hyper parameters
train_params = { 'batch_size' : 100, 'learning_rate' : 0.05, 'cd_steps' : 1, 'max_epoch' : 20, 'persistent' : False }
train_rbm(rbm_line, hid_stat_sh, train_params, False, False)
hid_stat = theano.function([], rbm.prop_up(hid_stat_sh))()
x = hid_stat[0:1000,0].tolist()
y = hid_stat[0:1000,1].tolist()
import rpy2.robjects as ro
lab = ro.IntVector(data_target[0:100].tolist())
lab_col = ro.StrVector(map(lambda p: p == 0 and 'blue' or 'red', lab))
lab_col.names = lab
ro.r.plot(x,y, xlab = "x", ylab="y", type="n")
ro.r.text(x,y,labels=lab, col = lab_col)