Skip to main content
Back to top
Ctrl
+
K
📚 AI 学习笔记 🧠
前置知识
张量
广播机制
深度学习中的轴/axis/dim全解
自动求导
关于tensor中的is_leaf
PyTorch图像处理
激活函数
函数详解
torch.argmax
torch.matmul
torch.normal
torch.zeros
torch.nn.Linear
torch.nn.ReLU
torch.nn.init
torch.arange
torch.meshgrid
方差和标准差计算
线性神经网络
线性回归
Softmax 回归原理
交叉熵损失函数原理详解
Softmax回归代码实现
多层感知机
多层感知机的简洁实现
深度学习计算
层和块
参数管理
自定义层
读写文件
GPU
卷积神经网络
图像卷积
填充和步幅
多输入多输出通道
汇聚层
卷积神经网络(LeNet)
现代卷积神经网络
深度卷积神经网络(AlexNet)
使用块的网络(VGG)
网络中的网络(NiN)
含并行连结的网络(GoogLeNet)
残差网络(ResNet)
批量规范化
稠密连接网络(DenseNet)
计算机性能
异步计算
参数服务器
计算机视觉
微调
目标检测和边界框
目标检测数据集
锚框
多尺度目标检测
语义分割和数据集
风格迁移
自然语言处理
什么是LLMs
Transformer
Transformer介绍
Seq2Seq 模型
Embedding 词嵌入
Attention 注意力机制
Positional Encoding 位置编码
The Residuals 残差
Mask机制
堆叠多层
Transformer代码实现
大模型微调
什么是微调
Index