xgboost面试问题整理!
word2vec-and-fastText
发表于
整理word2vec和fasttext的原理。
关于面试中的python细节
python面试常见问题总结。
推荐系统入门
推荐系统一般分为2个部分,召回、粗排、精排、重排。本文是对推荐系统的一个入门学习。
Xgboost
Xgboost在面试中被问到过很多次,因为没有实践过,只有一些浅显的理论理解。
集成学习
常见的集成学习框架有三种:Bagging,Boosting 和 Stacking。三种集成学习框架在基学习器的产生和综合结果的方式上会有些区别,做一些整理。
最大似然估计与最大后验估计(贝叶斯估计)
最大似然估计(Maximum Likelihood Estimation)与最大后验估计(Maximum A Posteriori)是机器学习中最常用的两种参数估计方法(统计领域问题: 已知数据,推模型和参数 )。 最大似然估计可以认为是频率学派的观点,最大后验概率估计可以认为是贝叶斯学派的观点。
最大似然估计
- 最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。
- 最大似然估计假设数据都是独立同分布的。
- 最大化P(x0|θ)
最大后验估计
- 最大化 P(θ∣x0)=P(x0∣θ)P(θ) / P(x0) 贝叶斯公式 P(θ|x0) 即后验概率
二者区别
最大似然估计,是通过给定观测值,需要获得参数,使得多组观测值出现的概率最大化。最大后验估计,在给定观测值的同时,给出参数的先验分布,通过先验和似然并且利用贝叶斯公式得最大后验。
MAP 考虑了模型的先验分布,而MLE 假设模型是均匀分布,即先验概率P(θ)=1。 可以说,MLE是MAP的一种特例
参考
最小的K个数的多种解法
最小的k个数在面试中遇到了4次,记录一下多种解法。
机器学习常用算法的整理
本文整理了常用的机器学习算法以备面试。
条件随机场
条件随机场的知识点整理。