Skip to main content
Back to top
Ctrl
+
K
📚 AI 学习笔记 🧠
深度学习基础与理论
张量
广播机制
深度学习中的轴/axis/dim全解
激活函数
自动求导
学习率的重要性
梯度下降
PyTorch核心与模型构建
层和块
参数管理
自定义层
关于tensor中的is_leaf
读写文件
GPU
经典神经网络模型
线性回归
Softmax 回归原理
交叉熵损失函数原理详解
Softmax回归代码实现
多层感知机的简洁实现
卷积神经网络(CNN)基础
图像卷积
填充和步幅
多输入多输出通道
汇聚层
卷积神经网络(LeNet)
重零开始进行手写数字识别
现代卷积神经网络
深度卷积神经网络(AlexNet)
使用块的网络(VGG)
网络中的网络(NiN)
含并行连结的网络(GoogLeNet)
残差网络(ResNet)
批量规范化
稠密连接网络(DenseNet)
Transformer
什么是LLMs
Transformer介绍
Seq2Seq 模型
Embedding 词嵌入
Attention 注意力机制
Positional Encoding 位置编码
The Residuals 残差
Mask机制
堆叠多层
Transformer代码实现
计算机视觉应用
视觉微调
目标检测和边界框
目标检测数据集
锚框
多尺度目标检测
语义分割和数据集
风格迁移
大模型微调
什么是微调
计算机性能
异步计算
参数服务器
附录:常用函数与工具
PyTorch图像处理
torch.argmax
torch.matmul
torch.normal
torch.zeros
torch.nn.Linear
torch.nn.ReLU
torch.nn.init
torch.arange
torch.meshgrid
方差和标准差计算
Index