Pytorch-Dataset与Dataloader的使用.
在 PyTorch 中,Dataset、DataLoader 和 Sampler 是用于数据加载和处理的核心组件。它们相互配合,使得数据的加载和批处理更加高效和灵活。 Dataset 是一个...
在 PyTorch 中,Dataset、DataLoader 和 Sampler 是用于数据加载和处理的核心组件。它们相互配合,使得数据的加载和批处理更加高效和灵活。 Dataset 是一个...
1 2 import torch import torch.nn as nn 1. 线性层 1 2 3 4 5 input = torch.randn(3, 4) #3个样本,每个样本4个特征 linear = nn.Linear(in_features=4, out_features=2) linear(input).shape # torch.Size([3, 2]) 2. 正则化层 2.1 dropout 1 2 3 4 5 6 7 dropout = nn.Dropout(p=0.5) input = torch.randn(3, 4) dropout(input) # tensor([[ 0.0000, -0.0000, -0.5670,...
https://pytorch.org/get-started/locally/ 1. 概念 GPU(图形处理单元)是执行并行计算的硬件。 具有不同的型号,例如GeForce RTX 3080、Tesla V100等 https://www.topcpu.net/gpu-r/fp32-float CUDA是NVIDI...
1. 优化器optimizer Adam:自适应学习率优化器 1 optimizer = torch.optim.Adam(model.parameters(), lr=1e-3) AdamW:Adam 的变体,加入了权重衰减来改善正则化效果,在 Transformer 类模型中表现...
注意力计算 注意力计算的三要素分别是:Query, Key,Value。而在自注意力计算中,三者则是等价的。 结合如下图示例:一个序列有2个词元,...
在深度/机器学习模型训练时,有必要展示或者记录每个batch/epoch的各种损失以及精度信息。除了最简单的print方式,目前有多种库提供...
在深度学习的前向传播中,最重要的是理解每个计算步骤的输入前与输入后的维度形状。与之对应的时需要熟悉一些常见的维度操作方法,根据项目的学习总结...
1. 背景 DDP分布式训练与DP并行训练 在之前了解多GPU训练时,学习过一种数据并行方式DataParallel (DP)。其核心将模型复制到每个...
1. 示例模型 两层MLP的神经网络 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 import torch import torch.nn as nn import torch.nn.functional as F class SimpleMLP(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(SimpleMLP, self).__init__() self.fc1 = nn.Linear(input_size, hidden_size) self.fc2 = nn.Linear(hidden_size, output_size) def forward(self, x): x = F.relu(self.fc1(x)) x...
homogeneous graph : 一种节点,一种边 heterogeneous graph: 多种节点,多种边 bipartite graph : 两种节点,一种边 1、DGLgraph结构 1.1 同构图 Cora论文关系图–同构图(ho...