- 2023
- candidate sampling
- 2021
- KKT条件
- Dice 激活函数
- EE
- xgboost 调参
- 价格挤压因子
- 时间序列预估
- 几种特征处理方法
- word2vec的tf实现
- EGES
- SPARK笔记
- 常见的ctr模型
- SVM
- LDA
- CEM
- 预算平滑
- 保留价
- ocpx
- loss损失函数
- PID初体验
- 模型校准
- MCMC
- SVD 和PCA
- xgboost 代码阅读
- 2020
- AdamW
- L1 正则为什么会得到稀疏模型
- FTRL的简单理解
- 多分类gbdt推导
- 交叉熵损失和指数损失的关系
- 牛顿法和Xgboost
- GBDT 为什么使用负梯度作为拟合目标
- AdaBoost
- RankNet
- LightGBM:A Highly Efficient Gradient Boosting Decision Tree
- Han Note
- DeepMatch
- dqn-tensorflow笔记
- Graphsage Note
- Gat Note
- RoBERTa
- FastText
- Bert 源码阅读
- Transformer 源码阅读
- DeepCTR 笔记
- 2019
- 遇到过的hive问题
- rsync 错误
- 脚本之间共享变量
- 2018
- shell笔记
- hive常用函数
- AUC
- git笔记
- 一些常用的bash命令
- python 笔记
- 搭建开发环境
- numpy 笔记
- cs20si 笔记
- tensorflow笔记
- cs231n笔记之优化
- batch normalization 反向传播推导
- SVM损失函数的梯度推导
- 逻辑斯蒂损失函数的两种形式
- 2017
- numpy笔记
- Backpropagation
- RNN中的梯度消失和梯度爆炸
- 神经网络中的常用梯度推导(2)
- tensorflow笔记
- 神经网络中的常用梯度推导
- softmax函数梯度
- seq2seq模型
- RNN/LSTM/GRU推导
- 神经网络推导
- word2vec推导
- FM推导
- CNN反向推导
- xgboost推导
- aws初体验
- 重新开始
- 2015
- build pandas form source on red hat
- build scikit-learn form source on red hat
- how to use mathjax in jekyll
- scikit-learn ensemble note
- scikit-learn note GLM
- Test from stackedit.io