面试过程中往往遇到过一些bert中容易忽略的细节,本文做一个整理。
手撕排序之堆排序
机器学习细节的知识点
本文整理面试中可能出现的一些机器学习相关问题,以备记忆。
微软实习内容简单梳理
本文简单梳理一下微软工作中遗留的一些知识点。
预训练语言模型相关
该文通过四种分类维度来划分目前已有的预训练模型。包括:
「表征的类型」,即:学习到的表征是否是上下文感知的。
「编码器结构」,如:LSTM、Transformer;
「预训练任务类型」,如LM,MLM,PLM;
「针对特定场景的拓展」,如跨语言预训练,知识增强,多模态预训练,模型压缩等。
knowledge distillation
训练和部署两个阶段对模型的要求是不同的。在训练阶段,我们希望模型可以从大量的、高度冗余的信息中学到数据的特征,此阶段对延迟和计算资源没有太严格的要求。但是如果模型要被部署到大量用户那里,对延迟和计算资源的限制就很高。因此,我们可以先训练一个大模型。这个大模型可以是很多独立模型的集成,也可以是单个的使用了Dropout等正则化方法的复杂模型。在大模型训练好之后,我们就可以使用一个称为“蒸馏”的训练过程,将大模型中的知识迁移到便于部署的小模型中。
Transformer
本文以QA的方式整理关于transformer的知识点。
RNN相关知识点
引入RNN:处理序列问题
leetcode中位运算的整理
位运算中常常有一些很骚的思路,本文整理了算法题中常见的位运算的细节。
背包问题整理
整理了一下几种背包问题。