找到 135 篇文章 关于 PyTorch

PyTorch – 如何获取张量元素的指数?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:32:17

1K+ 次查看

要查找输入张量元素的指数,我们可以应用 Tensor.exp() 或 torch.exp(input)。在这里,input 是计算指数的输入张量。这两种方法都会返回一个新的张量,其中包含输入张量元素的指数值。语法Tensor.exp()或 torch.exp(input) 步骤我们可以使用以下步骤来计算输入张量元素的指数 -导入 torch 库。确保您已安装它。import torch创建一个张量并打印它。t1 = torch.rand(4, 3) print("Tensor:", t1)计算张量元素的指数。为此,使用 torch.exp(input) 并可选地... 阅读更多

PyTorch – torch.log2() 方法

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:28:13

419 次查看

我们使用 torch.log2() 方法计算张量元素以 2 为底的对数。它返回一个新的张量,其中包含原始输入张量元素的对数值。它以张量作为输入参数并输出张量。语法torch.log2(input)其中 input 是 PyTorch 张量。它返回一个具有以 2 为底的对数值的新张量。步骤导入 torch 库。确保您已安装它。import torch创建一个张量并打印它。tensor1 = torch.rand(5, 3) print("Tensor:", tensor1)计算 torch.log2(input) 并可选地将此值赋给一个新变量。在这里,input 是创建的张量。logb2 = ... 阅读更多

Tensor.detach() 在 PyTorch 中的作用是什么?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:24:29

12K+ 次查看

Tensor.detach() 用于将张量从当前计算图中分离。它返回一个不需要梯度的新的张量。当我们不需要跟踪张量进行梯度计算时,我们将张量从当前计算图中分离。当我们需要将张量从 GPU 移动到 CPU 时,我们也需要分离张量。语法Tensor.detach()它返回一个新的张量,其中 requires_grad = True。将不再计算相对于此张量的梯度。步骤导入 torch 库。确保您已安装它。import torch创建一个 requires_grad = True 的 PyTorch 张量并... 阅读更多

如何在 PyTorch 中计算梯度?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:20:48

12K+ 次查看

要计算梯度,张量必须将其参数 requires_grad = true。梯度与偏导数相同。例如,在函数 y = 2*x + 1 中,x 是一个 requires_grad = True 的张量。我们可以使用 y.backward() 函数计算梯度,并且可以使用 x.grad 访问梯度。在这里,x.gad 的值与 y 关于 x 的偏导数相同。如果张量 x 没有 requires_grad,则梯度为 None。我们可以定义一个多元函数。这里的变量是 PyTorch 张量。步骤我们可以使用... 阅读更多

PyTorch – 如何计算张量的逐元素逻辑异或?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:13:01

439 次查看

torch.logical_xor() 计算给定两个输入张量的逐元素逻辑异或。在张量中,值为零的元素被视为 False,非零元素被视为 True。它以两个张量作为输入参数,并在计算逻辑异或后返回一个具有值的张量。语法torch.logical_xor(tensor1, tensor2)其中 tensor1 和 tensor2 是两个输入张量。步骤要计算给定输入张量的逐元素逻辑异或,可以按照以下步骤操作 -导入 torch 库。确保您已安装它。创建两个张量,tensor1 和 tensor2,并打印张量。计算 torch.logical_xor(tesnor1, tesnor2) 并将值赋给... 阅读更多

如何在 PyTorch 中缩小张量?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:08:19

725 次查看

torch.narrow() 方法用于对 PyTorch 张量执行缩小操作。它返回一个新的张量,它是原始输入张量的缩小版本。例如,一个 [4, 3] 的张量可以缩小到 [2, 3] 或 [4, 2] 大小的张量。我们可以一次沿单个维度缩小张量。在这里,我们不能将两个维度都缩小到 [2, 2] 的大小。我们还可以使用 Tensor.narrow() 来缩小张量。语法torch.narrow(input, dim, start, length) Tensor.narrow(dim, start, length)参数input – 它是要缩小的 PyTorch 张量。dim – 它是沿... 阅读更多

如何在 PyTorch 中执行置换操作?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 11:03:59

3K+ 次查看

torch.permute() 方法用于对 PyTorch 张量执行置换操作。它返回输入张量的视图,其维度已置换。它不会创建原始张量的副本。例如,一个维度为 [2, 3] 的张量可以置换为 [3, 2]。我们还可以使用 Tensor.permute() 使用新维度置换张量。语法torch.permute(input, dims)参数input – PyTorch 张量。dims – 期望维度的元组。步骤导入 torch 库。确保您已安装它。import torch创建一个 PyTorch 张量并打印张量和张量的大小。t = torch.tensor([[1, 2], [3, 4], [5, 6]]) print("Tensor:", ... 阅读更多

如何在 PyTorch 中执行扩展操作?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 10:59:35

3K+ 次查看

Tensor.expand() 属性用于执行扩展操作。它沿着单例维度将张量扩展到新维度。扩展张量只会创建原始张量的新视图;它不会创建原始张量的副本。如果将特定维度设置为 -1,则张量不会沿着此维度扩展。例如,如果我们有一个大小为 (3, 1) 的张量,我们可以沿着大小为 1 的维度扩展此张量。步骤要扩展张量,可以按照以下步骤操作 -导入 torch 库。确保您已安装它。import torch定义一个张量... 阅读更多

如何在 PyTorch 中创建具有梯度的张量?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 10:54:45

5K+ 次查看

要创建具有梯度的张量,我们在创建张量时使用一个额外的参数“requires_grad = True”。requires_grad 是一个标志,用于控制张量是否需要梯度。只有浮点和复数类型的张量才能需要梯度。如果 requires_grad 为 false,则张量与没有 requires_grad 参数的张量相同。语法torch.tensor(value, requires_grad = True)参数value – 张量数据,用户定义或随机生成。requires_grad – 一个标志,如果为 True,则张量包含在梯度计算中。输出它返回一个 requires_grad 为 True 的张量。步骤导入所需的库。所需的库是 torch。定义一个 requires_grad = True 的张量显示... 阅读更多

如何在 PyTorch 中查找逐元素余数?

Shahid Akhtar Khan
更新于 2021 年 12 月 6 日 10:49:37

245 次查看

使用 `torch.remainder()` 方法计算张量除以另一个张量后的元素级余数。我们也可以使用 `torch.fmod()` 来查找余数。这两种方法的区别在于,在 `torch.remainder()` 中,如果结果的符号与除数的符号不同,则将除数加到结果中;而在 `torch.fmod()` 中,则不会添加。语法 `torch.remainder(input, other)` `torch.fmod(input, other)` 参数 Input – 它是一个 PyTorch 张量或标量,被除数。 Other – 它也是一个 PyTorch 张量或标量,除数。 输出 它返回一个包含元素级余数值的张量。 步骤 导入 torch 库。 定义张量,即被除数和... 阅读更多

广告