3. 复习
3.1. 汇总
github
2018校招算法岗面试题汇总
3.2. C++
虚函数
C++构造函数和析构函数能否声明为虚函数?(转载)
重载、重写(覆盖)和隐藏的区别
C++ STL中vector内存用尽后,为啥每次是两倍的增长,而不是3倍或其他数值?Hint:\(1 + 2 + 1 + 4 + 1 + 1 + 1 + 8 + \cdots + n = \mathcal{O}(n)\) ,每一次 push_back 操作的摊还代价为 \(\mathcal{O}(1)\) 。
常见C++笔试面试题整理
3.3. Python
基本数据类型
Python中的None
使用lambda高效操作列表的教程
经典7大Python面试题
迭代器和生成器
3.4. 机器学习/深度学习
激活函数
Batch Normalization
过拟合
正则化项L1和L2的区别
KMeans秘籍之如何确定K值
决策树
Logistic Regression
Support Vector Machine
PCA
3.5. 论文相关
AlexNet/VGG/GoogleNet
CNN卷积神经网络_ GoogLeNet 之 Inception(V1-V4)
ResNet
Deep Residual Learning for Image Recognition
torchvision.models.resnet
ResNet-50 结构
ResNeXt
R-CNN系列
RCNN(三):Fast R-CNN
一文读懂Faster RCNN
【RCNN系列】【超详细解析】
实例分割模型Mask R-CNN详解:从R-CNN,Fast R-CNN,Faster R-CNN再到Mask R-CNN
(Mask RCNN)——论文详解(真的很详细)
实例分割–Mask RCNN详解(ROI Align / Loss Fun)
ROI-Align 原理理解
为什么RCNN用SVM做分类而不直接用CNN全连接之后softmax输出?
Focal Loss(样本不均衡:正/负样本数量不均衡( \(\alpha\) ),简单/困难样本数量不均衡( \(\gamma\) ))
\[\begin{split}CE &=\ -y \log y_t - (1 - y) \log (1 - y_t) & &\ [\text{Cross Entropy Loss}] \\ FL &=\ -y \alpha (1 - y_t)^\gamma \log y_t - (1 - y) (1 - \alpha) y_t^\gamma \log (1 - y_t) & &\ [\text{Focal Loss}]\end{split}\]即
$$ CE = \begin{cases} - \log y_t, & &\ y=1\\ - \log (1 - y_t), & &\ y=0 \end{cases} $$ $$ FL = \begin{cases} - \alpha (1 - y_t)^\gamma \log y_t, & &\ y=1\\ - (1 - \alpha) y_t^\gamma \log (1 - y_t), & &\ y=0 \end{cases} $$
损失函数改进方法之Focal Loss
RetinaNet论文理解
Focal Loss理解
FCN(Fully Convolutional Networks)
FCN学习:Semantic Segmentation
FCN于反卷积(Deconvolution)、上采样(UpSampling)
FPN(Feature Pyramid Networks for Object Detection)
CapsuleNet解读
轻量级网络–MobileNet论文解读
一文读懂卷积神经网络中的1x1卷积核。Hint:升维、降维、跨通道信息交互。
Image Classification Architectures
模型,FLOP(浮点计算量),性能,参数量(表格中的参数量单位是字节,按 4 字节/浮点型数计算,需要除以 4 才得到参数个数)
torchvision.models
3.6. 其他
理解数据库的事务,ACID,CAP和一致性