机器学习与深度学习
机器学习
监督学习
监督学习(Supervised Learning)
- 定义:所有训练数据都具有明确的标签,模型通过这些标签进行学习。
- 特点:模型训练相对直接,性能受限于标注数据的质量和数量。
- 示例:传统的分类问题,如手写数字识别、垃圾邮件检测等。
无监督学习(Unsupervised Learning)
- 定义:训练数据完全没有标签,模型需要自己去发现数据中的模式或结构。
- 特点:常用于聚类、降维、关联规则挖掘等任务,难以直接用于分类任务。
- 示例:聚类算法(如K-means)和主成分分析(PCA)。
半监督学习(Semi‑supervised Learning)
- 定义:介于监督学习和无监督学习之间,使用少量带标签的数据和大量未标签的数据共同训练模型,以在标注数据稀缺时提升分类性能。
- 特点:结合标签信息与数据分布结构,通过利用未标签数据的内在聚类或流形结构降低对标注数据的依赖,从而提高模型泛化能力并降低标注成本;通常依赖平滑假设和聚类假设等前提。
- 示例:在猫狗图像分类任务中,先使用少量已标记的猫狗图片训练初始模型,再用该模型为大量未标记图片生成“伪标签”,将这些伪标签数据与原有标记数据合并重新训练,从而获得比仅使用有标签数据更高的分类准确率。
- 在半监督学习中,为了避免将错误的模型预测“伪标签”纳入训练,必须对每个未标注样本的预测结果进行可信度评估,只保留高置信度、准确率更高的伪标签作为新增训练数据。
深度学习
前向传播
Mini Batch梯度下降
Batch Size(批大小)
-
定义
Batch Size 指在深度学习模型训练过程中,每次迭代送入网络进行前向传播和反向传播的样本数量。
-
特点
Batch Size 决定了梯度更新的频率和稳定性;较大的 Batch Size 能更好地利用 GPU 并行计算、减少迭代次数、加快训练速度,但会显著增加显存占用且可能降低模型泛化能力;较小的 Batch Size 则带来更大的梯度噪声,有助于跳出局部最优、提高泛化性能,但训练过程更不稳定且耗时更长。
-
示例:在 PyTorch 中,使用
DataLoader(dataset, batch_size=32, shuffle=True)
表示每次迭代从数据集中抽取 32 个样本进行训练。一个batch的所有样本会被打包成一个张量,一次性并行送入网络进行计算
将完整训练集分割成若干大小相同的小批量(mini‑batch),每次迭代仅使用一个 mini‑batch 来计算梯度并更新模型参数,结合了批量梯度下降(Batch GD)和随机梯度下降(SGD)的优势。
- 当
batch_size=1
时退化为随机梯度下降;当batch_size=m
(训练集总样本数)时退化为批量梯度下降。 - 通常选择 2 的幂(如32、64、128、256)以匹配 GPU/CPU 内存布局并提升运算效率。
算法流程
-
将训练数据随机打乱并按
batch_size
划分成多个 mini‑batch。 -
对每个 mini‑batch 执行:
-
前向传播计算输出。
-
计算 mini‑batch 上的平均损失。
-
反向传播计算梯度。
-
按公式更新参数: $$ \theta \leftarrow \theta - \eta \frac{1}{|\text{batch}|}\sum_{i\in \text{batch}} \nabla_\theta \mathcal{L}(x_i,y_i) $$
-
-
遍历所有 mini‑batch 即完成一个 epoch,可重复多轮直到收敛。
Softmax 公式
假设有一个输入向量
$$ z = [z_1, z_2, \dots, z_K], $$ 则 softmax 函数的输出为: $$ \sigma(z)_i = \frac{e^{z_i}}{\sum_{j=1}^{K} e^{z_j}}, $$ 其中 $i = 1, 2, \dots, K$。- 分子:对每个 $z_i$ 取自然指数 $e^{z_i}$,目的是将原始的实数扩展到正数范围。
- 分母:对所有 $e^{z_j}$ 求和,从而实现归一化,使得所有输出概率和为 1。
交叉熵损失
假设有三个类别,真实标签为第二类,因此用 one-hot 编码表示为:
$$ y = [0,\; 1,\; 0]. $$假设模型经过 softmax 后输出的预测概率为:
$$ \hat{y} = [0.2,\; 0.7,\; 0.1]. $$交叉熵损失函数的定义为:
$$ L = -\sum_{i=1}^{3} y_i \log \hat{y}_i. $$将 $y$ 和 $\hat{y}$ 的对应元素代入公式中:
$$ L = -(0 \cdot \log 0.2 + 1 \cdot \log 0.7 + 0 \cdot \log 0.1) = -\log 0.7. $$计算 $-\log 0.7$(以自然对数为例):
$$ -\log 0.7 \approx -(-0.3567) \approx 0.3567. $$因此,这个样本的交叉熵损失大约为 0.3567。
残差连接
假设一个神经网络层(或一组层)的输入为 $x$,传统的设计会期望该层直接学习一个映射 $F(x)$。而采用残差连接的设计,则将输出定义为:
$$ \text{Output} = F(x) + x. $$ 这里:- $F(x)$ 表示经过几层变换(比如卷积、激活等)后所学到的“残差”部分,
- $x$ 则是直接通过捷径传递过来的输入。
为什么使用残差连接
-
缓解梯度消失问题
在深层网络中,梯度往往会在反向传播过程中逐层衰减,而残差连接为梯度提供了一条捷径,使得梯度可以直接从后面的层传递到前面的层,从而使得网络更容易训练。 -
简化学习任务
网络不必学习从零开始构造一个完整的映射,而只需要学习输入与目标之间的残差。这样可以使得学习任务变得更简单,更易收敛。 -
提高网络性能
在很多实际应用中(例如图像识别中的 ResNet),引入残差连接的网络能训练得更深,并在多个任务上取得更好的效果。