本文整理汇总了Python中utils.logger.Logger.graphical_cost方法的典型用法代码示例。如果您正苦于以下问题:Python Logger.graphical_cost方法的具体用法?Python Logger.graphical_cost怎么用?Python Logger.graphical_cost使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在类utils.logger.Logger
的用法示例。
在下文中一共展示了Logger.graphical_cost方法的1个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。
示例1: _GradientDescent
# 需要导入模块: from utils.logger import Logger [as 别名]
# 或者: from utils.logger.Logger import graphical_cost [as 别名]
from optim.momentGD import MomentGradientDescent, NesterovMomentGradientDescent
from optim.proximal import ProximalDescent
gd = _GradientDescent(pb, decreasing_rate="")
gdm = MomentGradientDescent(pb, decreasing_rate="", alpha_moment=0.8, restart=True)
gdnm = NesterovMomentGradientDescent(pb, decreasing_rate="", alpha_moment=0.8, restart=True)
pd = ProximalDescent(pb, restart=False)
pdr = ProximalDescent(pb, restart=True)
pdr2 = ProximalDescent(pb, restart=True, f_theta=0.8)
i, go = 0, [True, True, True]
while i < 100 and np.any(go):
go = [gd.update(), gdm.update(), gdnm.update(), pd.update(), pdr.update(), pdr2.update()]
i += 1
log.progress(name="Gradient Optimisation", iteration=i, i_max=100)
if args.log_cost:
log.graphical_cost(name="Test", cost=gd.cost[-1], iteration=i, curve="GD")
log.graphical_cost(name="Test", cost=gdm.cost[-1], iteration=i, curve="Moementum")
log.graphical_cost(name="Test", cost=gdnm.cost[-1], iteration=i, curve="Nesterov Momentum")
log.graphical_cost(name="Test", cost=pd.cost[-1], iteration=i, curve="Proximal Descent")
log.graphical_cost(name="Test", cost=pdr.cost[-1], iteration=i, curve="PDR")
log.graphical_cost(name="Test", cost=pdr2.cost[-1], iteration=i, curve="PDR2")
if args.log_cost:
log.graphical_cost(name="Test", end=True)
import matplotlib.pyplot as plt
plt.loglog(gd.cost, label="GD")
plt.loglog(gdm.cost, label="Momentum")
plt.loglog(gdnm.cost, label="Nesterov Momentum")
plt.loglog(pd.cost, label="Proximal")
plt.loglog(pdr.cost, label="Proximal restart")