


连续特征的离散化:在什么情况下将连续的特征离散化之后可以获得更好的效果?- 知乎
https://www.zhihu.com/question/31989952
脚踏实地:来自Google的企业级推荐算法实践 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/634217033
《互联网大厂推荐算法实战》的目录 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/617615036
算法周报220510:Online Learning怎么才能学了不忘 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/512556219
动态权重:推荐算法的新范式 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/500934745
日久见人心:论建模用户长期兴趣的几种姿势 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/494881660
授人以渔:分享我的算法学习经验 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/462811848
刀功:谈推荐系统特征工程中的几个高级技巧 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/448680238
先入为主:将先验知识注入推荐模型 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/442845759
少数派报告:谈推荐场景下的对比学习 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/435903339
四化大业:论算法工程师的自我修养 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/341376500
万变不离其宗:用统一框架理解向量化召回 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/345378441
推荐算法的"五环之歌" - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/336643635
阿里ESAM:用迁移学习解决召回中的样本偏差 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/335626180
负样本为王:评Facebook的向量化召回算法 - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/165064102
看Google如何实现Wide & Deep模型(1) - 石塔西的文章 - 知乎
https://zhuanlan.zhihu.com/p/47293765