linda1729
返回专栏目录 I. Core Foundations|专业基石

Deep Learning Essentials

深度学习基础

深度学习是我理解“机器如何模仿人类思考”的旅程。沿着数学直觉与工程实践,
逐步构建从基础网络到现代架构的知识骨架,记录实验、直觉与开放问题。

专栏章节导航

点击卡片即可打开对应博文,随时回到专栏页浏览更多章节。

Chapter 1

PyTorch 入门与感知机实验手记

梳理张量操作、梯度下降与螺旋分类实验,记录感知机的动手直觉。

阅读文章
Chapter 2

卷积神经网络实验:从 MNIST 到 CIFAR-10

对比 FNN 与 CNN 的效果,并复盘 LeNet、VGG16 在两个数据集上的训练表现。

阅读文章
Chapter 3

轻量级网络实验:MobileNet、ShuffleNet 与 HybridSN

对比多种轻量级骨干在分类任务中的表现,整理参数量与精度的取舍。

阅读文章
Chapter 4

Vision Transformer 实训:CIFAR-10 与 Swin 分析

记录 ViT 训练流程、配置要点与与 Swin Transformer 的差异观察。

阅读文章
Chapter 5

MobileNet 体系解析:轻量级 CNN 学习笔记

汇总 MobileNet V1-V3 的主干设计、深度可分卷积与适用场景。

阅读文章
Chapter 6

MobileNet 架构拆解与倒残差设计

重点讲解 inverted residual、瓶颈结构与 SE/注意力的组合策略。

阅读文章
Chapter 7

ShuffleNet 结构笔记:通道混洗与高效推理

拆解深度可分 + 通道混洗的推理流程,并总结分组卷积的限制。

阅读文章
Chapter 8

SE Block 理解:通道注意力与重标定

用图示解释 squeeze-excitation 的数学流程与常见变体。

阅读文章
Chapter 9

Multi-Head Self-Attention 直观解析

以张量形状和矩阵推导说明缩放点积与多头拆分的计算步骤。

阅读文章
Chapter 10

Vision Transformer 理论速记:Patch 到分类头

从 Patch Embedding 到分类头串联 ViT 的关键组件与设计理由。

阅读文章
Chapter 11

Swin Transformer 核心思路与层次化设计

聚焦 shifted window、自注意力复杂度与多尺度输出的组合方式。

阅读文章
Chapter 12

深度学习基础概念:卷积层直观解释

通过公式与示意图复习卷积核、感受野与参数计算的入门概念。

阅读文章