找到 34423 篇文章 相关编程

Python – scipy.special.logsumexp

Syed Abeed
更新于 2021-12-22 09:54:51

1K+ 阅读量

scipy.special 包含一组用于数学物理的不同功能。其中之一是 logsumexp() 函数。此函数用于计算输入元素指数和的对数。让我们举几个例子,看看如何使用此函数。语法scipy.special.logsumexp(x)其中,x 是输入值。示例 1让我们考虑以下示例 - # 从 scipy.special 导入 logsumexp from scipy.special import logsumexp import numpy as np # 输入数组 a = np.arange(10) print("输入数组:", a) # logsum() 函数 res = logsumexp(a) print("a 的 logsumexp:", res)输出它将产生... 阅读更多

如何检查对象是否为 PyTorch 张量?

Shahid Akhtar Khan
更新于 2021-12-06 12:44:53

7K+ 阅读量

要检查对象是否为张量,我们可以使用 torch.is_tensor() 方法。如果输入是张量,则返回 True;否则返回 False。语法torch.is_tensor(input)参数input – 要检查的对象,判断其是否为张量。输出如果输入是张量,则返回 True;否则返回 False。步骤导入所需的库。所需的库是 torch。定义一个张量或其他对象。使用 torch.is_tensor(input) 检查创建的对象是否为张量。显示结果。示例 1# 导入所需的库 import torch # 创建一个对象 x x = torch.rand(4) print(x) # 检查以上... 阅读更多

"with torch.no_grad" 在 PyTorch 中有什么作用?

Shahid Akhtar Khan
更新于 2021-12-06 12:35:44

6K+ 阅读量

使用 "with torch.no_grad()" 就像一个循环,其中循环内的每个张量都将 requires_grad 设置为 False。这意味着当前与当前计算图关联的任何具有梯度的张量现在都与当前图分离。我们不再能够计算相对于此张量的梯度。张量与当前图分离,直到它在循环内。一旦它退出循环,如果张量是在梯度下定义的,它就会再次附加到当前图。让我们举几个例子,以便更好地了解... 阅读更多

backward() 在 PyTorch 中有什么作用?

Shahid Akhtar Khan
更新于 2021-12-06 12:33:18

3K+ 阅读量

backward() 方法用于在神经网络的反向传播过程中计算梯度。执行此方法时计算梯度。这些梯度存储在相应的变量中。梯度是相对于这些变量计算的,并且可以使用 .grad 访问梯度。如果我们不调用 backward() 方法来计算梯度,则不会计算梯度。并且,如果我们使用 .grad 访问梯度,则结果为 None。让我们举几个例子来演示它是如何工作的。示例 1在此示例中,我们尝试在不调用 backward() 方法的情况下访问梯度。我们注意到... 阅读更多

PyTorch – 如何检查张量是否连续?

Shahid Akhtar Khan
更新于 2021-12-06 12:29:28

2K+ 阅读量

连续张量是指其元素以连续顺序存储,元素之间没有任何空隙的张量。最初创建的张量始终是连续张量。张量可以以连续的方式以不同的维度查看。张量的转置会创建一个原始张量的视图,该视图遵循非连续顺序。张量的转置是非连续的。语法Tensor.is_contiguous()如果张量是连续的,则返回 True;否则返回 False。让我们举几个例子来演示如何使用此函数来检查张量是连续的还是非连续的。示例 1# 导入 torch 库 import torch ... 阅读更多

如何在 PyTorch 中找到张量的转置?

Shahid Akhtar Khan
更新于 2021-12-06 12:20:28

7K+ 阅读量

要转置张量,我们需要转置两个维度。如果张量是 0D 或 1D 张量,则张量的转置与其本身相同。对于 2D 张量,转置使用两个维度 0 和 1 计算为 transpose(input, 0, 1)。语法要找到标量、向量或矩阵的转置,我们可以应用下面定义的第一个语法。对于任何维度的张量,我们可以应用第二个语法。对于

如何将 Torch 张量从 CPU 移动到 GPU,反之亦然?

Shahid Akhtar Khan
更新于 2023-11-06 03:42:20

25K+ 阅读量

在 CPU 上定义的 torch 张量可以移动到 GPU,反之亦然。对于高维张量计算,GPU 利用并行计算的能力来减少计算时间。诸如图像之类的

如何在 PyTorch 中获取矩阵的秩?

Shahid Akhtar Khan
更新于 2021-12-06 11:43:25

1K+ 阅读量

可以使用 torch.linalg.matrix_rank() 获取矩阵的秩。它将矩阵或一批矩阵作为输入,并返回一个包含矩阵秩值的张量。torch.linalg 模块为我们提供了许多线性代数运算。语法torch.linalg.matrix_rank(input)其中 input 是 2D 张量/矩阵或一批矩阵。步骤我们可以使用以下步骤获取矩阵或一批矩阵的秩:导入 torch 库。确保你已经安装了它。import torch 创建一个 2D 张量/矩阵或一批矩阵并打印它。t = torch.tensor([[1., 2., 3.], [4., 5., 6.]]) print("张量:", t)计算秩... 阅读更多

如何在 PyTorch 中规范化张量?

Shahid Akhtar Khan
更新于 2023-10-31 03:57:21

28K+ 阅读量

可以使用 torch.nn.functional 模块提供的 normalize() 函数规范化 PyTorch 中的张量。这是一个非线性激活函数。它对给定张量在指定维度上执行 Lp 规范化。它返回原始张量元素的规范化值的张量。1D 张量可以在维度 0 上规范化,而 2D 张量可以在维度 0 和 1 上规范化,即列方向或行方向。n 维张量可以在维度 (0, 1, 2, ..., n-1) 上规范化。语法torch.nn.functional.normalize(input, p=2.0, dim = 1)参数Input – 输入张量p – 范数公式中的幂(指数)值dim – 规范化的维度... 阅读更多

PyTorch – 如何获取张量元素的指数?

Shahid Akhtar Khan
更新于 2021-12-06 11:32:17

1K+ 阅读量

为了找到输入张量的元素的指数,我们可以应用Tensor.exp()或torch.exp(input)。这里,input是计算指数的输入张量。这两种方法都返回一个新的张量,其中包含输入张量元素的指数值。语法Tensor.exp()或torch.exp(input)步骤我们可以使用以下步骤来计算输入张量元素的指数:导入torch库。确保你已经安装了它。import torch创建一个张量并打印它。t1 = torch.rand(4, 3) print("Tensor:", t1)计算张量元素的指数。为此,使用torch.exp(input)并选择性地... 阅读更多

广告

© . All rights reserved.