linda1729
Vision Transformer 理论速记:Patch 到分类头 Vision Transformer 理论速记:Patch 到分类头
Vision Transformer(ViT)一、背景:从卷积到Transformer在计算机视觉领域,卷积神经网络长期占据主导地位。 从LeNet到ResNet,CNN通过卷积层在图像上滑动窗口,捕捉局部特征(如边缘、纹理、形状)。然而,
GitHub 配置与协作实践清单 GitHub 配置与协作实践清单
初始化:账号与 SSH Key 本地生成密钥: ssh-keygen -t ed25519 -C "you@example.com" 将 ~/.ssh/id_ed25519.pub 上传至 GitHub → Sett
Multi-Head Self-Attention 直观解析 Multi-Head Self-Attention 直观解析
Multi-Head Self-Attention(多头自注意力机制)一、什么是注意力机制(Attention)?当你看一张图片时,你不会一次性注意所有像素。比如看一只猫,你可能先注意它的头,再注意尾巴、背景等。 注意力机制就是让模型学会
WSL 网络连通性排查手记 WSL 网络连通性排查手记
常见现象与第一时间自检 apt update 长时间卡住或报错 Temporary failure resolving:说明 DNS 未正确转发。 curl https://google.com 失败但 ping baidu.com 正常:
SE Block 理解:通道注意力与重标定 SE Block 理解:通道注意力与重标定
Squeeze-and-Excitation(SE)学习笔记 理论可见:https://cloud.tencent.com/developer/article/1052599; 代码可见:https://gitee.com/gaopurs
WSL 入门指南:从安装到日常使用 WSL 入门指南:从安装到日常使用
为何选择 WSL? 原生体验:在 Windows 下直接运行 Linux 可执行文件,无需虚拟机或双系统。 共享资源:磁盘、剪贴板与网络默认互通,省却跨系统搬运文件的麻烦。 生态兼容:能使用 apt、pip 等原生包管理器,同时调用 Win
灵感捕手与素材库 灵感捕手与素材库
占位内容:分享灵感收集的方法、素材归档体系与跨媒介创作的草图思考,未来会陆续更新记录。
ShuffleNet 结构笔记:通道混洗与高效推理 ShuffleNet 结构笔记:通道混洗与高效推理
ShuffleNet 学习笔记一、ShuffleNet 概述提出背景:MobileNet 使用 Depthwise Separable Conv 减少计算量,但在实际移动端(如 ARM CPU)中仍存在计算瓶颈(尤其是 1×1 卷积耗时多)
快速原型与材料手记 快速原型与材料手记
占位内容:将整理创客实验的工具清单、材料选择、快速原型过程与调试心得,欢迎后续关注更新。
MobileNet 架构拆解与倒残差设计 MobileNet 架构拆解与倒残差设计
MobileNetMobileNet v1网络详解传统卷积神经网络,内存需求大、运算量大导致无法在移动设备以及嵌入式设备上运行;所以提出了MobileNet应用到实际生活中。 2017年提出的轻量级CNN网络MobileNet专注于移动端
事故日志与复盘清单 事故日志与复盘清单
占位内容:整理事故记录模板、复盘关键问题与后续行动清单的最佳实践,待补充真实案例与工具推荐。
模块化与抽象的底层逻辑 模块化与抽象的底层逻辑
占位内容:将在这里总结 MIT 6.033 课程与经典案例中的抽象层次、模块化策略,以及在复杂系统中保持可靠性与可维护性的实践经验。
2 / 4