当前位置: 首页 > news >正文

长沙 建站优化服饰视频网站建设

长沙 建站优化,服饰视频网站建设,头像设计易做图网站,装企erp管理系统您的进步和反馈是我写作最大的动力,小伙伴来个三连呗!共勉~ 话不多说,书接上文,需要温习的小伙伴请移步 - 从PyTorch官方的一篇教程说开去(6.1 - 张量 tensor 基本操作)-CSDN博客 借图镇楼 - 1 - 矩阵乘…

您的进步和反馈是我写作最大的动力,小伙伴来个三连呗!共勉~

话不多说,书接上文,需要温习的小伙伴请移步 - 从PyTorch官方的一篇教程说开去(6.1 - 张量 tensor 基本操作)-CSDN博客

借图镇楼 - 

1 - 矩阵乘法(点积或外积,整个行乘以整个列):

shape = (4,4)
ones_tensor = torch.ones(shape)
y1 = ones_tensor @ ones_tensor
print(f"{y1}\n")shape = (4,4)
ones_tensor = torch.ones(shape)
y2 = torch.matmul(ones_tensor,ones_tensor.T)
print(f"{y2}\n")z1 = torch.rand_like(y1)
torch.matmul(ones_tensor, ones_tensor.T, out=z1)
print(f"{z1}\n")
  • 使用 @ 符号,等同于调用matmul函数,进行矩阵乘法。由于 ones_tensor 是一个 4x4 的全1矩阵,其与自身的乘法结果将是一个元素为4的矩阵。ones_tensor.T 表示转置。用out 参数,可以就地执行矩阵乘法,结果存储在 z1 中。这样可以避免额外的内存分配。

2 - 元素级别的点乘(dot product):

y3 = ones_tensor * ones_tensor
print(f"{y3}\n")y4 = torch.mul(ones_tensor,ones_tensor.T)
print(f"{y4}\n")z2 = torch.rand_like(y3)
torch.mul(ones_tensor,ones_tensor.T,out=z2)
  • 元素级别的点乘,也就是逐元素相乘。对于全1矩阵,结果是每个元素都是1。同上例,提供3种算符。

3 - torch没有官方定义叉乘(Cross Product):

# 定义两个三维向量
vector_a = torch.tensor([1.0, 2.0, 3.0])
vector_b = torch.tensor([4.0, 5.0, 6.0])# 计算叉乘
cross_product = torch.linalg.cross(vector_a, vector_b)print(f"Vector A: {vector_a}")
print(f"Vector B: {vector_b}")
print(f"Cross Product: {cross_product}")
  • 尽管官方没有,但是为了区别这几个容易混淆的概念,我们还是配个例子。叉乘(Cross Product)通常是针对两个三维向量而言的,它返回一个向量,该向量垂直于原来的两个向量,并遵循右手定则。

4 - 单元素张量:

agg = ones_tensor.sum()
agg_item = agg.item()
print(agg_item,type(agg_item))
  •  ones_tensor 是一个 4x4 的单位矩阵,其元素总和将是 4x4=16。item() 方法用于将这个张量转换成一个 Python 标量(即一个单一数值)。在进行一些扁平化的操作时候会用到。

5 - 就地计算函数(为节约存储,这些都很常用):

原地操作函数(in-place operations) 以_结尾
add_(): 原地加法。
sub_(): 原地减法。
mul_(): 原地乘法。
div_(): 原地除法。copy_(): 原地复制。
t_(): 原地转置。
fill_(): 原地填充。
zero_(): 原地清零。clamp_(): 原地限制值。
clamp_min_(): 原地最小值限制。
clamp_max_(): 原地最大值限制。sum_(): 原地求和。
mean_(): 原地求平均值。
std_(): 原地求标准差。
var_(): 原地求方差。
norm_(): 原地求范数。
renorm_(): 原地重规范化。addmm_(): 原地矩阵乘法加法。
addr_(): 原地地址加法。
addbmm_(): 原地二维矩阵乘法加法。
baddbmm_(): 原地批量二维矩阵乘法加法。
mm_(): 原地矩阵乘法。
bmm_(): 原地批量矩阵乘法。ger_(): 原地外积。
linalg_vector_norm_(): 原地向量范数。
linalg_matrix_norm_(): 原地矩阵范数。
linalg_solve_(): 原地线性求解。
linalg_inv_(): 原地矩阵求逆。
linalg_pinv_(): 原地伪逆。
linalg_eig_(): 原地特征值分解。
linalg_svd_(): 原地奇异值分解。
linalg_householder_product_(): 原地Householder变换。
linalg_qr_(): 原地QR分解。
linalg_triangular_solve_(): 原地三角求解。
linalg_cholesky_(): 原地Cholesky分解。
linalg_symeig_(): 原地对称特征值分解。
linalg_eigvals_(): 原地特征值计算。
linalg_eigvalsh_(): 原地Hermitian特征值计算。
linalg_slogdet_(): 原地对数行列式。
linalg_det_(): 原地行列式。
linalg_cond_(): 原地条件数。
linalg_matrix_rank_(): 原地矩阵秩。
linalg_solve_triangular_(): 原地三角求解。
linalg_lstsq_(): 原地最小二乘求解。

6 - 打印结果和类型:

np_array = np.array(data)
x_np = torch.from_numpy(np_array)print(f"{x_np}\n")
x_np.add_(1)
print(np_array,"\n")n = np.ones(5)
t = torch.from_numpy(n)
np.add(n,1,out=n)
print(f"{t} \n{n}")
  •  
  • 这里就地展示一下上个小标题的原地计算函数,add_() 是就地操作,它将 1 加到张量 x_np 的每个元素上。注意,由于 x_np 和 np_array 共享内存,np_array 也会被修改。我们还一同展示了如何在数组和张量之间进行互相转化。
http://www.yayakq.cn/news/878037/

相关文章:

  • 景区旅游门户网站建设方案电商平台站内推广有哪些
  • vs2010做网站教程做外贸卖小商品是哪个网站
  • 如何利用路由建设网站备用网站域名
  • 厦门网站建设68网站策划怎么做
  • 全国做临期进口食品的网站网站的当前位置导航如何做
  • 网站服务器 502副业做网站程序
  • 网站建设实训经验总结vs做网站如何发布
  • 网站建设公司大全手机wap网站建站系统
  • 内蒙古网站开发网站建设论文的结论
  • 网站建设教程集体苏州久远网络福建 建设网站
  • 网站首页怎么做全屏swf手机网站怎样做的
  • 建筑模型网站有哪些凡科建站快车官网
  • 上海临平路网站建设怎样申请免费的网站空间
  • 做网页的网站叫什么红色扁平化网站
  • 门户网站开发公司威海屋顶防水价格威海做防水网站
  • 随州学做网站的学校滴滴推广联盟
  • 网站权重查询接口做国际网站需要多少钱
  • 为什么要进行电子商务网站规划网站怎么做才会有收录
  • 专利减缓在哪个网站上做做网站注意设么
  • 太原网站优化常识手机app开发工资高吗
  • 某网站seo诊断分析wordpress 主题预览
  • 化妆培训学校网站源码 下载中国最大的网站
  • 呼伦贝尔做网站的公司网站维护后期费用
  • 德阳建设银行招聘网站滕州网站优化
  • 网站建设管理 优帮云wordpress 屏蔽中文浏览器
  • 游戏交易网站开发手机怎么开发软件app
  • 电商和网站设计哪个好wordpress html模式
  • 网站开发可选择的方案网站制作公司中企动力推荐
  • 千万不能 网站济南优化网站厂家
  • 百度网站推广台州建设银行官方网站