作者:丹阳

为什么L1稀疏,L2平滑?

使用机器学习方法解决实际问题时,我们通常要用L1或L2范数做正则化(regularization),从而限制权值大小,减少过拟合风险。特别是在使用梯度下降来做目标函...

那些年踩过的坑。。。

@
前车之覆,后车之鉴! 本文记录日常遇到的技术小问题及解决方法,不定期更新。 1. 问题:word2vec在mac上make编译,遇到报错: fatal e...

Spark的Cache和Checkpoint

本文阐述了Spark中几种数据持久化方法Cache/Persist/Checkpoint的用法以及区别和联系,对于计算链条过长或者数据量较大的Spark任务有指导意义。原文来自:htt...