- MachineLearning
- candidate sampling
- KKT条件
- Dice 激活函数
- EE
- xgboost 调参
- 价格挤压因子
- 时间序列预估
- 几种特征处理方法
- word2vec的tf实现
- EGES
- SPARK笔记
- 常见的ctr模型
- SVM
- LDA
- CEM
- 预算平滑
- 保留价
- ocpx
- loss损失函数
- PID初体验
- 模型校准
- MCMC
- SVD 和PCA
- xgboost 代码阅读
- AdamW
- L1 正则为什么会得到稀疏模型
- FTRL的简单理解
- 多分类gbdt推导
- 交叉熵损失和指数损失的关系
- 牛顿法和Xgboost
- GBDT 为什么使用负梯度作为拟合目标
- AdaBoost
- RankNet
- LightGBM:A Highly Efficient Gradient Boosting Decision Tree
- DeepMatch
- dqn-tensorflow笔记
- RoBERTa
- FastText
- Bert 源码阅读
- Transformer 源码阅读
- DeepCTR 笔记
- AUC
- 搭建开发环境
- cs20si 笔记
- tensorflow笔记
- cs231n笔记之优化
- batch normalization 反向传播推导
- SVM损失函数的梯度推导
- 逻辑斯蒂损失函数的两种形式
- RNN中的梯度消失和梯度爆炸
- 神经网络中的常用梯度推导(2)
- tensorflow笔记
- 神经网络中的常用梯度推导
- softmax函数梯度
- seq2seq模型
- RNN/LSTM/GRU推导
- 神经网络推导
- word2vec推导
- FM推导
- CNN反向推导
- xgboost推导
- aws初体验
- 重新开始
- build pandas form source on red hat
- build scikit-learn form source on red hat
- scikit-learn ensemble note
- scikit-learn note GLM
- Test from stackedit.io
- software
- how to use mathjax in jekyll
- tensorflow
- 神经网络中的常用梯度推导(2)
- tensorflow笔记
- 神经网络中的常用梯度推导
- numpy
- numpy 笔记
- numpy笔记
- python
- python 笔记
- Linux
- git笔记
- 一些常用的bash命令
- Hive
- hive常用函数
- 开发
- 遇到过的hive问题
- rsync 错误
- 脚本之间共享变量
- shell笔记