找到 34423 篇文章 相关编程

Python – scipy.special.logsumexp

Syed Abeed
更新于 2021年12月22日 09:54:51

1K+ 阅读量

scipy.special 包含一组用于数学物理的不同功能。其中之一是 logsumexp() 函数。此函数用于计算输入元素指数和的对数。让我们举几个例子,看看如何使用此函数。语法scipy.special.logsumexp(x)其中,x 是输入值。示例 1让我们考虑以下示例 -# 从 scipy.special 导入 logsumexp from scipy.special import logsumexp import numpy as np # 输入数组 a = np.arange(10) print("输入数组:", a) # logsum() 函数 res = logsumexp(a) print("a 的 logsumexp:", res)输出它将生成... 阅读更多

如何检查对象是否为 PyTorch 张量?

Shahid Akhtar Khan
更新于 2021年12月06日 12:44:53

7K+ 阅读量

要检查对象是否为张量,我们可以使用 torch.is_tensor() 方法。如果输入是张量,则返回 True;否则返回 False。语法torch.is_tensor(input)参数input – 要检查的对象,如果它是张量。输出如果输入是张量,则返回 True;否则返回 False。步骤导入所需的库。所需的库是 torch。定义张量或其他对象。使用 torch.is_tensor(input) 检查创建的对象是否为张量。显示结果。示例 1# 导入所需的库 import torch # 创建一个对象 x x = torch.rand(4) print(x) # 检查以上... 阅读更多

PyTorch 中的 "with torch no_grad" 是做什么的?

Shahid Akhtar Khan
更新于 2021年12月06日 12:35:44

6K+ 阅读量

使用 "with torch.no_grad()" 就像一个循环,其中循环内的每个张量都将 requires_grad 设置为 False。这意味着当前与当前计算图关联的任何具有梯度的张量现在都与当前图分离。我们不再能够计算关于此张量的梯度。张量与当前图分离,直到它在循环内。一旦它超出循环,如果张量是在梯度下定义的,它将再次附加到当前图。让我们举几个例子来更好地了解... 阅读更多

PyTorch 中的 backward() 是做什么的?

Shahid Akhtar Khan
更新于 2021年12月06日 12:33:18

3K+ 阅读量

backward() 方法用于在神经网络的反向传播过程中计算梯度。执行此方法时计算梯度。这些梯度存储在各自的变量中。梯度是相对于这些变量计算的,并且可以使用 .grad 访问梯度。如果我们不调用 backward() 方法来计算梯度,则不会计算梯度。并且,如果我们使用 .grad 访问梯度,则结果为 None。让我们举几个例子来演示它是如何工作的。示例 1在此示例中,我们尝试在不调用 backward() 方法的情况下访问梯度。我们注意到... 阅读更多

PyTorch – 如何检查张量是否连续?

Shahid Akhtar Khan
更新于 2021年12月06日 12:29:28

2K+ 阅读量

连续张量是指其元素按连续顺序存储的张量,元素之间没有任何空隙。最初创建的张量始终是连续张量。可以以连续的方式查看具有不同维度的张量。张量的转置会创建原始张量的视图,该视图遵循非连续顺序。张量的转置是非连续的。语法Tensor.is_contiguous()如果张量是连续的,则返回 True;否则返回 False。让我们举几个例子来演示如何使用此函数来检查张量是连续的还是非连续的。示例 1# 导入 torch 库 import torch ... 阅读更多

如何在 PyTorch 中找到张量的转置?

Shahid Akhtar Khan
更新于 2021年12月06日 12:20:28

7K+ 阅读量

要转置张量,我们需要转置两个维度。如果张量是 0D 或 1D 张量,则张量的转置与其自身相同。对于 2D 张量,转置是使用两个维度 0 和 1 计算的,如 transpose(input, 0, 1)。语法要查找标量、向量或矩阵的转置,我们可以应用下面定义的第一个语法。对于任何维度的张量,我们都可以应用第二个语法。

如何将 Torch 张量从 CPU 移动到 GPU,反之亦然?

Shahid Akhtar Khan
更新于 2023年11月06日 03:42:20

25K+ 阅读量

在 CPU 上定义的 torch 张量可以移动到 GPU,反之亦然。对于高维张量计算,GPU 利用并行计算的能力来减少计算时间。高维张量(如图像)计算量很大,如果在 CPU 上运行,则需要花费太多时间。因此,我们需要将此类张量移动到 GPU。语法要将 torch 张量从 CPU 移动到 GPU,可以使用以下语法:Tensor.to("cuda:0") 或 Tensor.to(cuda)以及,Tensor.cuda()要将 torch 张量从 GPU 移动到 CPU,可以使用以下语法:Tensor.to("cpu")以及,Tensor.cpu()让我们举几个例子来演示如何将张量... 阅读更多

如何在 PyTorch 中获取矩阵的秩?

Shahid Akhtar Khan
更新于 2021年12月06日 11:43:25

1K+ 阅读量

可以使用 torch.linalg.matrix_rank() 获取矩阵的秩。它将矩阵或一批矩阵作为输入,并返回一个包含矩阵秩值的张量。torch.linalg 模块为我们提供了许多线性代数运算。语法torch.linalg.matrix_rank(input)其中 input 是 2D 张量/矩阵或一批矩阵。步骤我们可以使用以下步骤获取矩阵或一批矩阵的秩:导入 torch 库。确保你已经安装了它。import torch 创建一个 2D 张量/矩阵或一批矩阵并打印它。t = torch.tensor([[1., 2., 3.], [4., 5., 6.]]) print("张量:", t)计算张量的秩... 阅读更多

如何在 PyTorch 中规范化张量?

Shahid Akhtar Khan
更新于 2023年10月31日 03:57:21

28K+ 阅读量

可以使用 torch.nn.functional 模块提供的 normalize() 函数规范化 PyTorch 中的张量。这是一个非线性激活函数。它对给定张量在指定维度上执行 Lp 规范化。它返回原始张量元素的规范化值的张量。1D 张量可以在维度 0 上规范化,而 2D 张量可以在维度 0 和 1 上规范化,即列方向或行方向。n 维张量可以在维度 (0, 1, 2, ..., n-1) 上规范化。语法torch.nn.functional.normalize(input, p=2.0, dim = 1)参数Input – 输入张量p – 范数公式中的幂(指数)值dim – 规范化的维度... 阅读更多

PyTorch – 如何获取张量元素的指数?

Shahid Akhtar Khan
更新于 2021年12月06日 11:32:17

1K+ 阅读量

要查找输入张量元素的指数,我们可以应用 Tensor.exp() 或 torch.exp(input)。这里,input 是计算指数的输入张量。这两种方法都返回一个新的张量,其中包含输入张量元素的指数值。语法Tensor.exp()或torch.exp(input)步骤我们可以使用以下步骤计算输入张量元素的指数:导入 torch 库。确保你已经安装了它。import torch创建张量并打印它。t1 = torch.rand(4, 3) print("张量:", t1)计算张量元素的指数。为此,使用 torch.exp(input) 并根据需要... 阅读更多

广告

© . All rights reserved.